1.2、解壓安裝包
tar -zxvf /export/software/kafka_2.11-0.8.2.2.tgz -c /export/servers/
1.3、修改配置檔案
vi /export/servers/kafka/config/server.properties
輸入以下內容:
#broker的全域性唯一編號,不能重複
broker.id=0
#用來監聽鏈結的埠,producer或consumer將在此埠建立連線
port=9092
#處理網路請求的執行緒數量
num.network
.threads=3
#用來處理磁碟io的執行緒數量
num.io
.threads=8
#傳送套接字的緩衝區大小
socket.send
.buffer
.bytes=102400
#接受套接字的緩衝區大小
socket.receive
.buffer
.bytes=102400
#請求套接字的緩衝區大小
socket.request
.max
.bytes=104857600
#kafka執行日誌存放的路徑
log.dirs=/root/kafkalog
#topic在當前broker上的分片個數
num.partitions=2
#用來恢復和清理data下資料的執行緒數量
num.recovery
.threads
.per
.data
.dir=1
#segment檔案保留的最長時間,超時將被刪除
log.retention
.hours=168
#滾動生成新的segment檔案的最大時間
log.roll
.hours=168
#日誌檔案中每個segment的大小,預設為1g
log.segment
.bytes=1073741824
#週期性檢查檔案大小的時間
log.retention
.check
.interval
.ms=300000
#日誌清理是否開啟
log.cleaner
.enable=true
#broker需要使用zookeeper儲存meta資料
zookeeper.connect=shizhan:2181,mini2:2181,mini3:2181
#zookeeper鏈結超時時間
zookeeper.connection
.timeout
.ms=6000
#partion buffer中,訊息的條數達到閾值,將觸發flush到磁碟
log.flush
.interval
.messages=10000
#訊息buffer的時間,達到閾值,將觸發flush到磁碟
log.flush
.interval
.ms=3000
#刪除topic需要server.properties中設定delete.topic.enable=true否則只是標記刪除
delete.topic
.enable=true
#此處的host.name為本機ip(重要),如果不改,則客戶端會丟擲:producer connection to localhost:9092 unsuccessful 錯誤!
host.name=192.168
.112
.200
1.4、分發安裝包
scp -r /export/servers/kafka_2.11-0.8.2.2 kafka02:/export/servers
1.5、再次修改配置檔案(重要)
依次修改各伺服器上配置檔案的的broker.id,分別是0,1,2不得重複。
對應的host的ip位址更改為各個主機的ip位址
另外將產生的log檔案的輸出位址更改下
zk的位址更改為自己機器的位址
1.6、啟動集群
依次在各節點上啟動kafka
bin/kafka-server-start.sh config/server.properties
部署 kafka 大資料Kafka集群部署
2 kafka集群部署 1 解壓安裝包 atguigu hadoop102 software tar zxvf kafka 2.11 0.11.0.0.tgz c opt module 2 修改解壓後的檔名稱 atguigu hadoop102 module mv kafka 2.11 0.11.0...
大資料開發之kafka安裝
安裝kafka前需要安裝zookeeper,參考 二 解壓安裝包 root hlh001 software tar zxvf kafka 2.11 0.11.0.0.tgz c opt module 三 修改解壓後的名稱 root hlh001 module mv kafka 2.11 0.11.0...
大資料面試之Kafka
1 producer 訊息的生產者,主要是用於生產訊息的。主要是接入一些外部的資料來源,從外部獲取資料,比如說我們可以從flume獲取資料,還可以通過ftp傳入資料等,還可以通過kafka的api生產資料,通過push的方式,主動的將資料推送到kafka的topic當中去 2 topic 主題,裡面...