建立 kafka 的資料目錄:
mkdir -p data/kafka
scp -r data/ 192.168.56.102:`
pwd`
scp -r data/ 192.168.56.103:`
pwd`
# 將 kafka 解壓至
tar -zxvf kafka_2.12-2.3.0.tgz -c /usr/local/
# 將 kafka 目錄同步到其他兩台機器
scp -r kafka_2.12-2.3.0/ 192.168.56.102:/usr/local
scp -r kafka_2.12-2.3.0/ 192.168.56.103:/usr/local
分別在三颱機器上進行配置
config/server.properties
192.168.56.101:
broker.id=0
# 資料目錄
log.dirs=/root/data/kafka
# 指定hostname, 可通過 hostname 命令檢視 hostname
listeners=plaintext:
zookeeper.connect=192.168.56.101:2181,192.168.56.102:2181,192.168.56.103:2181
192.168.56.102:
broker.id=1
log.dirs=/root/data/kafka
listeners=plaintext:
# 配置zk集群
zookeeper.connect=192.168.56.101:2181,192.168.56.102:2181,192.168.56.103:2181
192.168.56.103:
broker.id=2
log.dirs=/root/data/kafka
listeners=plaintext:
zookeeper.connect=192.168.56.101:2181,192.168.56.102:2181,192.168.56.103:2181
分別在三颱機器上啟動 kafka
bin/kafka-server-start.sh config/server.properties &
建立 topicbin/kafka-topics.sh --zookeeper 192.168.56.101:2181 --create --topic market_topic --partitions 4 --replication-factor 3
# 檢視topic列表
bin/kafka-topics.sh --list --zookeeper 192.168.56.101:2181
#啟動乙個消費者
bin/kafka-console-consumer.sh --bootstrap-server 192.168.56.101:9092,192.168.56.102:9092,192.168.56.103:9092 --topic market_topic
# 啟動乙個生產者
bin/kafka-console-producer.sh --broker-list 192.168.56.101:9092,192.168.56.102:9092,192.168.56.103:9092 --topic market_topic
建立完成後在資料目錄裡可以看到我們的 4 個分割槽:
# 檢視 topic 資訊
紅框表示這個分割槽在哪台機器上,replicas 分布的機器,isr 表示 follower 的資料是和 leader 保持同步的。
kafka集群搭建
安裝zookeeper kafka自帶了zookeeper,建議還是用外部的zk集群,搭建步驟如下 準備3臺機器,假設我們叫c1 c2 c3,ip分別為ip1 ip2 ip3 將附件zookeeper 3.4.6.tar.gz分別拷貝至3臺機器 c1機器上解壓zookeeper 3.4.6.tar....
kafka 集群搭建
1 前置條件 安裝jdk zookeeper 集群搭建 wget tar xzf kafka 2.11 0.10.2.1.tgz 3 修改 config server.properties 三個地方 1 broker.id 要對上 log.dirs 下 meta.properties broker....
kafka集群搭建
1 上傳安裝包 把安裝包上傳到伺服器 put r d kafka 2.11 0.8.2.0.tgz 2 解壓縮安裝包 3 配置kafka環境變數 vim etc profile export path path kafka home bin 重新整理策略 source etc profile 4 修...