搜索资源列表
ChineseAnalyzer
- lucene.net 2.0的中文分词器,采用最大向前匹配算法,附上源代码和lucene.net.dll,希望这方面有兴趣的互相交流一下。
mmseg-v0.3
- 基于词库的中文分词组件,可以直接用于Lucene的索引建立。以及中文搜索。
lucene源码
- lucene的相关资料
lucene.rar
- java中lucene的源代码,用于文本分类的一个很好的工具,是由一个著名的语言研究者编写的,lucene code for java
StandardTokenizer
- 分词算法的测试 基于lucene 的分词算法设计-segment the chinese word
Segment
- 使用lucene组件的分词例子。同时利用JE-Analysis 1.5.1 组件分词。-Use Lucene component segmentation examples. At the same time, the use of JE-Analysis 1.5.1 Segmentation components.
text_category
- 中文自动分类。使用spider抓取网络信息,利用lucene的分词及KNN方法。-Chinese automatic classification. The use of spider crawl network information, the use of Lucene sub-word and KNN methods.
Lucene.Net.Analysis.Cn
- Lucene是什么? Lucene是Apache组织的一个用JAVA实现全文搜索引擎的开源项目。后来有人将Lucene移植到。Net语言。 Lucene是一个信息检索的函数库(Library),利用它你可以为你的应用加上索引和搜索的功能。 Lucene的使用者不需要深入了解有关全文检索的知识,仅仅学会使用库中的一个类,你就为你的应用实现全文检索的功能。 不过千万别以为Lucene是一个象google那样的搜索引擎,Lucene甚至不是一个应用程序,它仅仅
imdict-chinese-analyzer
- imdict-chinese-analyzer 是 imdict智能词典 的智能中文分词模块,算法基于隐马尔科夫模型(Hidden Markov Model, HMM),是中国科学院计算技术研究所的ictclas中文分词程序的重新实现(基于Java),可以直接为lucene搜索引擎提供简体中文分词支持。-imdict-chinese-analyzer is a smart imdict Chinese Dictionary smart module segmentation algorithm
KAV7key-2009.10.01-05CBA02F
- 这是一个基于lucene接口的一个中文分析器,他采用的是双向切分的方法-This is an interface based on a lucene analyzer in Chinese, he used a two-way method of segmentation
IKAnalyzer2012
- IKAnalyzer2012,一个以lucene为基础的非常好用的中文分词器,有两种分词模式,智能分词模式和最细粒度分词模式。-IKAnalyzer2012 very easy to use a lucene-based Chinese Word Breaker, there are two sub-word mode, intelligent word patterns and most fine-grained segmentation model.
Lucene_segmentation
- 基于Lucene的中文字典分词模块的设计与实现-Lucene-based Chinese dictionary word module design and implementation