当前位置: 代码迷 >> Web前端 >> solr4.0加入汉语言分词IKanalry
  详细解决方案

solr4.0加入汉语言分词IKanalry

热度:761   发布时间:2012-11-23 22:54:33.0
solr4.0加入中文分词IKanalry

1:solr4.0加入中文分词:

?

在IK的自带文档中有:

这里特别的罗嗦几句,在Solr4.0发布以后,官方取消了BaseTokenizerFactory接口,而直接使用Lucene Analyzer标准接口。因此IK分词器2012 FF版本也取消了org.wltea.analyzer.solr.IKTokenizerFactory类。

?

2:首先在tomcat不是的solr目录下lib中加入:

IKAnalyzer2012FF_u1.jar包

?

3:然后再solr目录C:\solr\collection1\conf下的schema.xml文件中加入:

?

?

? ? <fieldType name="text" class="solr.TextField">

? ? ? <analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/>

? ? </fieldType>

?

就可以了,在solr界面中analys选错 type下的 text就可以分词了

?

比如:

?



?2:解释下,我在Ik的jar包中的dir字典加入了 停用词:

中潭露。

1 楼 mushuxiaoxiao 2012-11-12  
你好,我用你的方法操作,有一个这样的错误collection1: org.apache.solr.common.SolrException:org.apache.solr.common.SolrException: Plugin init failure for [schema.xml] fieldType "text_zh":
Cannot load analyzer: org.wltea.analyzer.lucene.IKAnalyzer 。是不是我的配置有什么问题?
感谢您如果能回复!
2 楼 mushuxiaoxiao 2012-11-12  
问题已解决,要把jar包以及配置文件放到war包web_INF里的lib中。打扰!
3 楼 iluoxuan 2012-11-15  
这个 你看下IK版本对不,版本对的话安装文档来是没错的