solr分詞只能全詞匹配怪現象

2021-07-04 00:03:33 字數 817 閱讀 2214

現象:

例如ik分詞,安裝配置後,可以正常分詞,如下圖所示index和query都沒問題了,十分高興吧!

隨後,建立collection,匯入資料,再嘗試搜尋。如下圖所示,我們搜尋「第四次會議」,可以看到有3條記錄,還有點小興奮!

既然已經分詞了,應該可以搜尋非完全匹配的,如下圖所示:

****!why 搜尋「第五次會議」一條匹配的沒有?關鍵搜尋條件也進行了分詞!鬱悶的一天開始了,索引刪了建建了刪,反反覆覆嘗試,向大牛益達反覆諮詢。最後我開始懷疑了,是不是lucene底層就是這樣的?啟動我的elasticsearch服務,確認了一下,120%可以部分匹配搜尋。

修改後的schema如下所示:

Solr 分詞與搜尋

name ik cnanalyzer class solr.textfield positionincrementgap 100 type index class org.wltea.analyzer.lucene.iktokenize ctory usesmart false analyzer t...

solr搜尋分詞優化

solr搜尋分詞優化 solr伺服器配置好在搜尋時經常會搜出無關內容,把不該分的詞給分了,導致客戶找不到自己需要的內容,那麼我們就從配置詞典入手解決這個問題。首先需要知道自帶的詞典含義 停止詞 停止詞是無功能意義的詞,比如is a are 的 得 我 等,這些詞會在句子中多次出現卻無意義,所以在分詞...

solr 配置中文分詞

要在中文的專案中使用 solr 少不了要整合中文分詞元件。本篇以 ik2012 分詞為例,講解如何在 solr 3.5 中及整合中文分詞,使用 ik 的原因 ik 比其他中文分詞維護的勤快,和 solr 整合也相對容易。fieldtypename text zh class solr.textfie...