elasticsearch本身自帶的中文分詞,就是單純把中文乙個字乙個字的分開,根本沒有詞彙的概念。但是實際應用中,使用者都是以詞彙為條件,進行查詢匹配的,如果能夠把文章以詞彙為單位切分開,那麼與使用者的查詢條件能夠更貼切的匹配上,查詢速度也更加快速。
1.安裝
然後重啟es
2.測試使用
使用預設
get movie_index/_analyze
請觀察結果
使用分詞器
get movie_index/_analyze
請觀察結果
另外乙個分詞器
ik_max_word
get movie_index/_analyze
請觀察結果
3.基於中文分詞搭建索引
put movie_chn
,"name":,
"doubanscore":,
"actorlist":,
"name":}}
}}}}
插入資料
put /movie_chn/movie_type_chn/1,,
]}put /movie_chn/movie_type_chn/2]}
put /movie_chn/movie_type_chn/3]}
查詢測試
get /movie_chn/movie_type_chn/_search}}
get /movie_chn/movie_type_chn/_search}}
4.自定義詞庫
修改/usr/share/elasticsearch/plugins/ik/config/中的ikanalyzer.cfg.xml
<?xml version="1.0" encoding="utf-8"?>
ik analyzer 擴充套件配置
按照標紅的路徑利用nginx發布靜態資源
在nginx.conf中配置
server
}並且在/usr/local/nginx/下建/es/fenci/目錄,目錄下加myword.txt
然後重啟es伺服器,重啟nginx。
在kibana中測試分詞效果
發現雨女無瓜可以被分詞。
Elasticsearch ik分詞器的配置和使用
2.解壓包解壓出來乙個名為elasticsearch的資料夾如下圖 3.將 elasticsearch 資料夾重新命名為ik 4.將ik資料夾放入 elasticsearch目錄的plugins資料夾下即可 如下圖所示 5.在瀏覽器輸入 text 我是程式設計師 ik分詞器貼合中文 列如 我是程式設...
elasticsearch ik分詞器安裝配置
es原生的分詞器挺好,不過為了更好,分更多的詞我們還是需要安裝ik分詞器滴,怎麼安裝吶,之前一直挺不想安裝這個分詞的,今天終究還是安了,沒想到竟然 這麼簡單!首先,進入es的bin目錄下 elasticsearch plugin install注意版本!各個節點都要安裝吧 安裝之後重啟es,不知道是...
安裝中文分詞器
2.複製ikanalyzer的配置檔案和自定義詞典和停用詞詞典到solr的classpath下。也就是在solr的web inf目錄下建立classes資料夾 拷入的檔案有 ext.dic ikanalyzer.cfg.xml stopword.dic 3.在solrhome collection1...