參考 logback+kafka+elk搭建日誌, 學習總結
日誌流程: logback -> kafka -> logstash -> elasticsearch -> kibana先啟動zookeeper
bin/zookeeper-server-start.sh config/zookeeper.properties &
啟動kafka
bin/kafka-server-start.sh config/server.properties &
>
>
org.springframework.kafkagroupid
>
>
spring-kafkaartifactid
>
>
2.1.6.releaseversion
>
dependency
>
>
>
com.github.danielwegenergroupid
>
>
>
>
0.2.0-rc2version
>
dependency
>
springboot載入順序:logback-spring.xml> logback-spring.groovy> logback.xml> logback.groovy
<?xml version="1.0" encoding="utf-8"?>
scan
="true"
scanperiod
="60 seconds"
debug
="false"
>
>
logbackcontextname
>
name
="log_home"
value
="/data/logs"
/>
name
="console"
class
=>
>
>
%d %contextname [%thread] %-5level %logger - %msg%npattern
>
encoder
>
>
name
= class
=>
class
="ch.qos.logback.classic.encoder.patternlayoutencoder"
>
>
%d [%thread] %-5level %logger - %msg%npattern
>
encoder
>
>
>
class
="com.github.danielwegener.logback.kafka.keying.nokeykeyingstrategy"
/>
class
="com.github.danielwegener.logback.kafka.delivery.asynchronousdeliverystrategy"
/>
>
bootstrap.servers=localhost:9092producerconfig
>
>
acks=0producerconfig
>
>
linger.ms=1000producerconfig
>
>
max.block.ms=0producerconfig
>
>
client.id=$-$-logback-relaxedproducerconfig
>
>
level
="info"
>
ref=
"console"
/>
ref=
/>
root
>
configuration
>
elk的安裝使用可以參考 elk安裝使用
input
}output
}
./bin/elasticsearch
./bin/kibana
@slf4j
public
class
}}
訪問
, 在test-kafka
下出現了日誌,如圖
Linux後台執行python程式,輸出日誌
實際開發時,會常常有需要執行很長時間的python程式,這時最佳策略就是將它放在linux伺服器後台執行,並且及時更新訊息。1 基礎命令 nohup python u py log 2 1 2 其他 只記錄錯誤資訊 nohup python u py dev null 2 error.log 2 1...
Spring boot配置log4j輸出日誌
1.pom.xml檔案中配置parent,版本選定 1.2.5.release 關於為什麼要選這個版本 我嘗試使用 1.4.1.release 但該版本庫里沒有 spring boot starter log4j.jar 後面要使用這個jar,使用 1.2.5.release 版本的 spring ...
spring boot使用slf4j輸出日誌
的配置,log也不例外,我們先看看pom.xml中的配置吧 如果之前有新增 html view plain copy dependency groupid org.springframework.boot groupid artifactid spring boot starter artifact...