然後放到/usr/local/目錄下解壓
tar -zxvf apache-flume-1.5.2-bin.tar.gz
# 定義元件名稱
agent2.sources = source2
agent2.sinks = sink2
agent2.channels = channel2
# 定義資料入口
agent2.sources.source2.type = syslogudp
agent2.sources.source2.host = 0.0.0.0
agent2.sources.source2.port = 10001
agent2.sources.source2.channels = channel2
# 定義資料出口
agent2.sinks.sink2.type = org.riderzen.flume.sink.mongosink
agent2.sinks.sink2.host = 192.168.8.30
agent2.sinks.sink2.port = 27017
agent2.sinks.sink2.model = single
agent2.sinks.sink2.db = test
agent2.sinks.sink2.collection = log
agent2.sinks.sink2.batch = 2
agent2.sinks.sink2.channel = channel2
# 使用記憶體管道
agent2.channels.channel2.type = memory
agent2.channels.channel2.capacity = 1000
agent2.channels.channel2.transactioncapacity = 100
然後進入flume的bin目錄啟動服務
./flume-ng agent -n agent2 -c ../conf -f ../conf/flume-server.conf
-n表示當前執行的這個agent名稱
-c表示配置檔案存放目錄
-f表示執行agent所使用的配置檔案
如果想要程式後台執行,只需要在最後空格一下,加上&即可。(非永久性,遠端斷開linux時會停止)
如果想要永久性程式後台執行,只需要在最前面加上nohup,然後加乙個空格隔開
如果想要使用debug模式檢視日誌,只需要在最後加上-dflume.root.logger=info,console即可
從flume到kafka,日誌收集
實時日誌分析 本篇文章主要測試 從flume到kafka的日誌收集,storm日誌分析,學習中!flume 配置檔案 collector collector.sources cs collector.sinks ck hbasesink collector.channels cc hbasechan...
flume實時收集日誌到kafka
flume實時收集日誌 kafka版本0.8.2 1.版本apache flume 1.7.0 bin.tar.gz 解壓後conf 目錄下配置以.conf結尾的檔案如 flume properties.conf 2.配置檔案資訊 sources 資料來源每增加乙個新增即可 a1.sources r...
flume的導日誌資料到hdfs
1.更改配置檔案 agent名,source channel sink的名稱 a1.sources r1 a1.channels c1 a1.sinks k1 具體定義source a1.sources.r1.type spooldir a1.sources.r1.spooldir root flu...