新增如下內容:
使環境變數生效:source /etc/profile
輸入源為nginx的日誌檔案,輸出源為kafka
input
}output "
charset => "utf-8"
}bootstrap_servers => "hadoop1:9092,hadoop2:9092,hadoop3:9092"}}
輸入源為txt檔案,輸出源為kafka
input
path => "d:/gamelog/basedir/*/*.txt"
discover_interval => 30
start_position => "beginning"
}}output "
charset => "gb2312"
}bootstrap_servers => "hadoop1:9092,hadoop2:9092,hadoop3:9092"}}
輸入源為nginx的日誌檔案,輸出源為elasticsearch
input
}output "
hosts => ["hadoop1:9200", "hadoop2:9200", "hadoop3:9200"]}}
}
input
kafka
}filter
} if [type] == "gamelog"
add_field => "
"current_map" => "%"
"current_x" => "%"
"current_y" => "%"
"user" => "%"
"item" => "%"
"item_id" => "%"
"current_time" => "%"
}remove_field => ["message"]}}}
output
} if [type] == "gamelog"
hosts => ["hadoop1:9200","hadoop2:9200","hadoop3:9200"]}}}
注:utf-16be為解決中文亂碼,而不是utf-8
1) 在使用logstash採集日誌時,如果我們採用file為input型別,採用不能反覆對乙份檔案進行測試!第一次會成功,之後就會失敗!
分布式日誌工具logstash工具入門
以下是我年前試用的分布式日誌工具logstash工具,現分享給大家。其功能大概如下 1.根據業務關鍵字,搜尋相關日誌。2.報表統計功能 未做研究使用 3.採集多個主機上的業務日誌,並通過kibana web介面訪問日誌 4.安裝簡單,啟動logstash elasticsearch kibana 訪...
Beats輕量級日誌採集工具
beats 平台集合了多種單一用途資料採集器。這些採集器安裝後可用作輕量型 從成百上千或成千上萬臺機器向 logstash 或 elasticsearch 傳送資料。常用的beats有filebeat 收集檔案 metricbeat 收集服務 系統的指標資料 packetbeat 收集網路包 等。這...
日誌採集 基於Flink的日誌採集
目前基於elk架構的日誌系統,通過filebeat收集上來的日誌都會傳送到同乙個kafka topic中,然後再由logstash消費處理寫入elasticsearch中,這種方式導致該topic包含所有業務日誌,那麼各個業務去做實時統計分析就會造成重複消費,使得流量成本的浪費 對於離線分析的日誌 ...