先來說下kafka是個什麼東西,它是乙個訊息中介軟體框架,只負責發布--訂閱(幫忙存東西的)接著給大家看一張大致的kafka流程圖
首先打個比方,kafka好比就是**電視台,而**電視台下面有很多節目,生產者就是製作節目的團隊,而消費者就是我們**這個節目的人,一開始**電視台建立乙個節目,假設就叫cctv1,建立後就要去zookeeper中註冊一下,相當於給它申請了乙個專利,有了這個節目名後,我們就得請乙個團隊來填充這個節目,比如拉廣告啊,放電視劇集之類的資料,而我們消費者要**這個節目的話就得需要zookeeper來授權給我們。**電視台則只是存資料的,相當於乙個中間人,和現在中介差不多個意思。
了解了kafka的作用後我們就來安裝和解壓kafka
2 然後進入我們的opt下解壓好的kafka目錄 我們要取得不以#符合開頭的資訊 命令如下
3 然後vi到我們改名叫zk.properties的檔案中然後更改裡面的資訊如下圖
表示我們以後zookeeper記錄的資訊都在home/hadoop/zk/這個目錄中
4 啟動
5然後我們複製乙個ssh通道 jps一下就可以看到啟動了乙個新的服務 也就是zookeeper的主程序
6啟動borker
首先在新建的視窗輸入以下命令檢視以下
我們還是講乙個檔案的資料複製到乙個新的目錄 將帶有#注釋的**去掉
取名字叫做kafka1.properties (名字很low 可以叫小明)
然後啟動
之後我們複製乙個ssh通道jps一下就可以看到kafka已經啟動成功了
7 建立乙個主體(用的是kafka的主體也叫頻道)
首先建立乙個叫cctv1的主題
然後我們檢視以下我們的cctv1主題建立好了沒有
8現在需要有往cctv中灌輸資料 傳送一些訊息
首先我們新建兩個ssh通道 第乙個裡輸入命令用來發布訊息
然後再第二個新建的通道啟動消費者 相當於訂閱了這個cctv1的頻道 用來接收訊息
這樣我們就可以收到剛剛發布的訊息了!
但是我們現在只能收到剛剛發布的訊息 如何可以接收以前的訊息呢
只需要在啟動消費者的命令後面加入--from-beginning就可以了
9 自己製作乙個python的kafka生產者和python版的kafka的消費者
當我沒說 算了就這樣吧
kafka安裝及使用
一 kafka的安裝 2.vi usr lib kafka config server.properties broker.id 5 log.dirs usr lib kafka kafka logs log.flush.interval.messages 10000 預設不用修改 log.flus...
kafka使用與安裝
集群安裝 1 解壓 2 修改server.properties broker.id 1 zookeeper.connect weekend05 2181,weekend06 2181,weekend07 2181 3 將zookeeper集群啟動 4 在每一台節點上啟動broker 啟動的時候 如果...
使用confluent安裝kafka
confluent是平台化的工具,封裝了kafka,讓我們可以更方便的安裝和使用監控kafka,作用類似於cdh對於hadoop。confluent是由linkedin開發出apache kafka的團隊成員,基於這項技術創立了新公司confluent,confluent的產品也是圍繞著kafka做...