server basics
broker.id=x (x必須是唯一的)
log basics
log.dirs=/kafka/log
zookeeper
zookeeper.connect=hadoop01:2181,hadoop02:2181,hadoop03:2181
分發(scp)
修改各個 從節點的 config目錄下的server.properties 檔案的broker.id.
啟動kafka服務
bin/kafka-server-start config/server.properties
檢測服務是否開啟了(檢視9092埠是否被占用了:
netstat -anop | grep 9092
建立乙個主題(topic test)
bin/kafka-topics.sh --create --zookeeper hadoop01:2181 --replication-factor 1 --partitions 1 -topic test
檢視topic主題
小運用kafkatest開啟乙個控制台的生產者(producer)
bin/kafka-console-producer --broker-list hadoop01:9092 --topic test
開啟消費者(consumer)
bin/kafka-console-consumer.sh --bootstrap-server hadoop01:9092 --topic test --from-beginning
當producer控制 臺 產生資料 的話,consumer 端會自動消費的。
在搭建 kafka的時候要保障zk執行正常!
python scrapy安裝及簡單運用
本機環境是window10環境,直接在命令列安裝 安裝如果錯誤也可以參考 是否是你的錯誤 如果安裝成功,命令列最後會顯示 bilibili上面有很多教程 命令列輸入 scrapy startproject hanzida 進入到建立的爬蟲專案目錄下執行命令 hanyuspider是你的檔案名字,不要...
Keepalived 1 2 9集群的安裝及配置
keepalived 1.2.9集群的安裝及配置 說明 一 目 的 本文實現的linux集群是基於keepalived 1.2.9軟體實現,三 適用環境 當對外路由或交換機繫結主機mac時適用 1.環境及軟體 1 系統 debian6 amd64 2 核心 linux 3.2.0 0.bpo.4 a...
ELK集群安裝及簡單使用
192.168.1.105 es 2 elk 目錄 192.168.1.108 es 1 logstash kibana mydata elk 192.168.1.106 es 3 elk 一般我們需要進行日誌分析場景 直接在日誌檔案中 grep awk 就可以獲得自己想要的資訊。但在規模較大的場景...