1、主節點:儲存資料資訊(meta data) 元資料;
描述資料的資料,客戶端通過主節點獲取真正的資料位置,到資料節點datanode獲取資料分片;
2、資料節點:只負責資料的讀和寫
3、負載均衡節點:當主節點連線的客戶端過多,可以引入負載均衡節點;分擔併發,既不是主節點,也不是資料節點
搭建另外兩台es的伺服器,配置好ik分詞器 ,參照
elasticsearch和elasticsearchhead的安裝與配置
和eslaticsearch整合ikanalyzer分詞器
安裝完成後開始搭建集群
修改elasticsearch-5.5.2/config下的elasticsearch.yml
集群名稱,必須一致,
cluster.name:elasticsearch
節點名稱,不可以一樣,這裡按照node-1、node-2、node-3進行命名
把 bootstrap.memory_lock: false 注釋放開
新增 bootstrap.system_call_filter: false
network.host: 10.9.39.13 是本機ip,一般我們會使用192.168.1.55這種,這裡用的虛擬機器所以是10.9.39.13
http.port: 9200 設定埠為9200
這裡需要配置多個,為了演示非同一ip段,所以ip段不同
因為我們搭建了3臺伺服器用於演示,所以此處為三個伺服器配置的network.host位址,
discovery.zen.ping.unicast.hosts: [「10.9.39.13」, 「10.9.104.184」, 「10.9.104.185」]
master集群中最小的master數量,集群都是過半投票制,所以3臺伺服器設定2個master節點,如果19臺伺服器可以設定5個master節點,因為設定的是最小master節點數量防止宕機過多。
重啟3臺伺服器,集群節點自動發現其他節點初始化集群
可以通過elasticsearch-head外掛程式連線乙個節點檢視集群
腦裂:多個master集群管理同乙個es的datanode節點集群,由於master間通訊異常導致,整個集群被切分成了多個區域,不同區域間有可能因為不同master管理造成資料處理矛盾;形成了腦裂的情況;
防止腦裂辦法:過半的master數量是有效的集群,一切沒有過半master的集群整體無法提供有效的服務;
結論:無論腦裂如何發生,整個集群總會至多存在乙個master的集體管理集群;
構建elasticsearch集群
初始化系統環境 在 etc security limits.conf 增加如下兩行 elasticsearch soft nofile 4096 elasticsearch hard nofile 65536 curl o elasticsearch 解壓軟體包 tar xvf elasticsea...
Elasticsearch集群搭建
1 分發 scp 2.修改每一台機器的配置檔案 a 集群的名字 cluster.name my es b 節點名字 node.name node 1 c es儲存資料的路徑 path.data home zpark esdata data d es生成log資訊的路徑 path.logs home ...
ElasticSearch集群搭建
當前以elasticsearch 5.6.3 版本為例 解決安裝問題 解決安裝問題 wget 進行解壓 tar zxvf elasticsearch 5.6.3.tar.gz 單列模式啟動 開啟 elasticsearch 5.5.1 config elasticsearch.ym 檔案後新增 監聽...