## 配置參考:
## 官方說明:
## broker.id可以自動獲取,但避免擴容、下線導致部分id出現重複,因此手工指定
broker.id=__broker_id__
## 是否通過管理工具刪除topic
delete.topic.enable=true
## 能否自動建立topic,這裡修改為false
auto.create.topics.enable=false
## 監聽ip+port
listeners=plaintext://__host_ip__:9092
port=9092
## 已經棄用,只有當listeners沒有配置情況下
#host.name=__host_ip__
## 一般num.network.threads主要處理網路io,讀寫緩衝區資料,基本沒有io等待,配置執行緒數量為cpu核數加1
num.network.threads=30
## 主要進行磁碟io操作,高峰期可能有些io等待,因此配置需要大些。配置執行緒數量為cpu核數2倍,最大不超過3倍
num.io.threads=60
## 這個引數是指定用於快取網路請求的佇列的最大容量,這個佇列達到上限之後將不再接收新請求
## 一般不會成為瓶頸點,除非i/o效能太差,這時需要配合num.io.threads等配置一同進行調整
queued.max.requests=500
## socket server傳送資料緩衝區大小
socket.send.buffer.bytes=102400
## socket server接受資料緩衝區大小
socket.receive.buffer.bytes=102400
## soket server 可接受最大訊息大小,防止oom
socket.request.max.bytes=104857600
## 訊息存放目錄
log.dirs=/data2/kafka-logs
## 是否開啟壓縮
log.cleaner.enable=false
## 預設分割槽數量
num.partitions=4
## 預設複製因子(此值包含所有副本數,與elasticsearch副本數不一樣)
default.replication.factor=2
## 副本同步資料的執行緒數(預設為1)
num.replica.fetchers=1
## kafka啟動恢復日誌,關閉前日誌刷盤的執行緒數(每個資料目錄)
num.recovery.threads.per.data.dir=2
## 訊息儲存時間
log.retention.hours=24
## log段大小
log.segment.bytes=1073741824
## 日誌清理程式清理檢查週期
log.retention.check.interval.ms=300000
## zk位址
zookeeper.connect=10.237.54.239:2181,10.237.54.244:2181/hb-dev-kafka10
## zk連線超時時間
zookeeper.connection.timeout.ms=6000
kafka乙份配置 說明
配置參考 官方說明 broker.id可以自動獲取,但避免擴容 下線導致部分id出現重複,因此手工指定 broker.id broker id 是否通過管理工具刪除topic delete.topic.enable true 能否自動建立topic,這裡修改為false auto.create.to...
多乙份感動,多乙份行動
有乙個女生,因為跟家裡處得不好,所以很少回家,後來有一次回家,發現年老的母親走路一跛一跛的,不經意的看了母親的腳一眼,這才發現母親的腳指甲太長而長到肉裡面造成流血,流膿,這時,她認真的看者已經很久沒有正眼看過的母親,她才發現在她眼前的母親已經年老,老到已經沒有辦法彎下身來自己剪指甲,所以 才會讓雙腳...
Kafka 配置說明
配置檔案在config server.properties 下面的一些配置可能是你需要進行修改的。broker.id 整數,建議根據ip區分 log.dirs kafka存放訊息檔案的路徑,預設 tmp kafka logs port broker用於接收producer訊息的埠 zookeeper...