2.解壓包解壓出來乙個名為elasticsearch的資料夾如下圖
3.將 elasticsearch 資料夾重新命名為ik
4.將ik資料夾放入 elasticsearch目錄的plugins資料夾下即可
如下圖所示
5.在瀏覽器輸入
&text=我是程式設計師
ik分詞器貼合中文 列如 我是程式設計師 會劃分為 我 是 程式設計師 ,而其他分詞器對中文是乙個字分乙個詞
則會得到如下結果
6.ik的分詞策略
analyze=ik_max_word 最細分實際看業務需求analyze-ik_smart 最小分
7.增加自定義分詞
由於ik定義的分詞只是官方的定義,如業務需求需要加入自己定義的詞語來分詞如何操作?
(1)進入ik目錄下的conf資料夾
(2)新建 乙個 custom.dic 檔案 (custom就是 「定製的意思」)
如下 加入詞語
(3)將custom.dic儲存為utf-8格式 注意不能是utf-8*bom
(4)然後找到還是conf資料夾下的ikanalyzer.cfg.xml檔案
修改後的檔案內容如下
至此 就可以使用自己定義的詞語 分詞 然後重啟elasticsearch伺服器
訪問
http://
127.0
.0.1
:9200
/_analyze?analyzer=ik_smart&pretty=
true
&text=我是楊浩然
則可以得到分詞結果
elasticsearch ik分詞器安裝配置
es原生的分詞器挺好,不過為了更好,分更多的詞我們還是需要安裝ik分詞器滴,怎麼安裝吶,之前一直挺不想安裝這個分詞的,今天終究還是安了,沒想到竟然 這麼簡單!首先,進入es的bin目錄下 elasticsearch plugin install注意版本!各個節點都要安裝吧 安裝之後重啟es,不知道是...
ElasticSearch IK中文分詞器的配置
elasticsearch本身自帶的中文分詞,就是單純把中文乙個字乙個字的分開,根本沒有詞彙的概念。但是實際應用中,使用者都是以詞彙為條件,進行查詢匹配的,如果能夠把文章以詞彙為單位切分開,那麼與使用者的查詢條件能夠更貼切的匹配上,查詢速度也更加快速。1.安裝 然後重啟es 2.測試使用 使用預設 ...
新增ik中文分詞器和pinyin分詞器
1.把ik檔案上傳到docker掛載的plugins1和plugins2中 2.es文件型別對映 在kibana修改一下內容 1.實體文件對映類 document indexname user type user data public class userentity 2.實體類對映關係 impo...