原文:
cp /usr/local/solr-
7.2.1/contrib/analysis-extras/lucene-libs/lucene-analyzers
-smartcn
-7.2
.1
找到solrhome/$/conf/managed-schema
新增smartch中文分詞器配置
name="text_smartcn"
class="solr.textfield"
positionincrementgap="100">
type="index">
class="org.apache.lucene.analysis.cn.smart.hmmchinesetokenize***ctory"/>
analyzer>
type="query">
class="org.apache.lucene.analysis.cn.smart.hmmchinesetokenize***ctory"/>
analyzer>
fieldtype>
schema>
新新增架包一定要重啟tomcat檢視效果
ik analyzer 擴充套件配置comment>
key="ext_dict">ext.dic;entry>
key="ext_stopwords">stopword.dic;entry>
properties>
把ik分詞器相關配置檔案複製到solr專案web-inf/classes/ 目錄下
把相關架包複製到solr專案的web-inf/lib目錄下
name="text_pinyin"
class="solr.textfield"
positionincrementgap="0">
type="index">
class="org.apache.lucene.analysis.ik.iktokenize***ctory"/>
class="com.shentong.search.analyzers.pinyintransformtokenfilte***ctory"
mintermlenght="2" />
class="com.shentong.search.analyzers.pinyinngramtokenfilte***ctory"
mingram="1"
maxgram="20" />
analyzer>
type="query">
class="org.apache.lucene.analysis.ik.iktokenize***ctory"/>
class="com.shentong.search.analyzers.pinyintransformtokenfilte***ctory"
mintermlenght="2" />
class="com.shentong.search.analyzers.pinyinngramtokenfilte***ctory"
mingram="1"
maxgram="20" />
analyzer>
fieldtype>
schema>
solr配置中文分詞器
可能需要連線上篇 solr與tomcat整合 將data裡的.dic檔案拷貝到dic目錄 3.修改schema.xml檔案,增加下面 注意你需要修改的是dicpath引數 fieldtype name textcomplex class solr.textfield analyzer tokeniz...
solr配置中文分詞器
一 smartcn 自 1 將自帶的jar包拷貝到tomcat下 檔案 solr 5.1.0 contrib analysis extras lucene libs lucene analyzers smartcn 5.1.0.jar 2 修改schema.xml,新增 3 測試 二 mmseg4j...
solr配置中文分詞器
在 opt solr 7.7.1 server solr article core conf資料夾下的 managed schema檔案中配置ik中文分詞器 測試分詞效果 配置停用詞 擴充套件詞 同義詞 停止詞 的功能是過濾,把 啊 加入到停止詞的字典裡,比如搜尋 你好啊 solr會過濾掉 啊 以 ...