安裝版本 kafka_2.12-1.0.0.tgz
cd /opt/software/
ln -s kafka_2.12-1.0.0 kafka
mkdir logs
vim $kafka_home/config/server.properties
#唯一的 服務端id
21行:broker.id=0
#指定kafka的日誌及資料【segment【.log,.index】】儲存的位置
#指定zookeeper的位址
123行zookeeper.connect=node01:2181,node02:2181,node03:2181
#在最後新增兩個配置,允許刪除topic,當前kafkaserver的主機名
delete.topic.enable=true
host.name=node01
scp -r kafka_2.12-1.0.0 node02:$pwd
scp -r kafka_2.12-1.0.0 node03:$pwd
#第二台
broker.id=1
host.name=node02
#第三台
broker.id=2
host.name=node03
vim /etc/profile
# kafka_home
export path=$path:$kafka_home/bin
source /etc/profile
bin/kafka-server-start.sh config/server.properties >>/dev/null 2>&1 &
關閉命令:bin/kafka-server-stop.sh
[root@node02 kafka]# jps
9927 quorumpeermain
10330 kafka
10655 jps
#!/bin/sh
for host in node01 node02 node03
do echo "$host kafka is running"
done
--create:建立--topic:指定topic的名稱
--partitions:指定分割槽個數
--replication-factor:指定副本的個數
topic:wsy partitioncount:3 replicationfactor:2configs:
第乙個分割槽的資訊 分割槽編號 leader所在的節點 這個分割槽所在所有節點
topic: wsy partition: 0 leader: 0 replicas: 0,1 isr: 0,1
第二個分割槽的資訊
topic: wsy partition: 1 leader: 1 replicas: 1,2 isr: 1,2
第三個分割槽的資訊
topic: wsy partition: 2 leader: 2 replicas: 2,0 isr: 2,0
bin/kafka-console-consumer.sh --topic wsy --bootstrap-server node01:9092,node02:9092,node03:9092 --from-beginning
Kafka安裝部署
1 解壓安裝包 atguigu hadoop102 software tar zxvf kafka 2.11 0.11.0.0.tgz c opt module 2 修改解壓後的檔名稱 atguigu hadoop102 module mv kafka 2.11 0.11.0.0 kafka3 在 ...
kafka集群安裝部署
wget 2.tar zxvf kafka 2.12 2.1.0.tgz 解壓安裝包 3.備份kafka zookeeper配置檔案 cp server.properties server.properties.bak cp zookeeper.properties zookeeper.proper...
Kafka的安裝部署
安裝過程非常簡單,只需要解壓就行,因為這個是編譯好之後的可執行程式 因為kafka依賴於zookeeper來做master選舉一起其他資料的維護,所以需要先啟動zookeeper節點 kafka內建了zookeeper的服務,所以在bin目錄下提供了這些指令碼 zookeeper server st...