搜索资源列表
ChineseAnalyzer
- lucene.net 2.0的中文分词器,采用最大向前匹配算法,附上源代码和lucene.net.dll,希望这方面有兴趣的互相交流一下。
ThesaurusAnalyzer
- lucene中文分词代码 带有19万字的词典 本分词程序的效果取决与词库.您可以用自己的词库替换程序自带的词库.词库是一个文本文件,名称为word.txt. 每一行一个词语,以#开头表示跳过改行.最后保存为UTF-8的文本.
k50RVZDojs03
- 基于IKAnalyzer分词算法的准商业化Lucene中文分词器
lucene+mysql+eclipe
- lucene+mysql+eclipe开发实例,实现了分页和中文分词。欢迎交流qq:276367673
IKAnalyzer
- IKAnalyzer是中文分词工具,基于lucene2.0版本API开发,实现了以词典分词为基础的正反向全切分算法,是Lucene Analyzer接口的实现,这个是.Net版本,含有源代码
mmseg-v0.3
- 基于词库的中文分词组件,可以直接用于Lucene的索引建立。以及中文搜索。
IKAnalyzer2.0.2
- Java lucene开源全文搜索,中文分词组件
luncene查询分析器中文词典
- 中文分词词库
text_category
- 中文自动分类。使用spider抓取网络信息,利用lucene的分词及KNN方法。-Chinese automatic classification. The use of spider crawl network information, the use of Lucene sub-word and KNN methods.
src
- 利用lucene编写的一个简单搜索引擎,能够中文分词。-a simple search engine built with lucene.
imdict-chinese-analyzer
- imdict-chinese-analyzer 是 imdict智能词典 的智能中文分词模块,算法基于隐马尔科夫模型(Hidden Markov Model, HMM),是中国科学院计算技术研究所的ictclas中文分词程序的重新实现(基于Java),可以直接为lucene搜索引擎提供简体中文分词支持。-imdict-chinese-analyzer is a smart imdict Chinese Dictionary smart module segmentation algorithm
SphinxV0.9.8.1source
- SphinxV0.9.8.1source.zip VC++ 基于Lucene扩展的支持中文分词的开源搜索引擎 中文用户-Sphinx V0.9.8.1 source.zip VC++ extensions to support Lucene-based Chinese word segmentation in Chinese open source search engine users
IKAnalyzer3.1.1StableAllInOne
- Lucene 中文分词,很好的 可以随便下压,加油-Lucene Java
totsearchc
- 淘特站内搜索引擎是由淘特JSP搜索引擎发展而来,系统基于Lucene.Net核心,通过高效的中文分词算法将数据库中内容进行分析、索引并保存至硬盘中。前台搜索时,通过读取索引文件查询,避免了传统数据库查询在高并发及海量数据下的性能问题。因前台搜索不在连接数据库,为不希望数据库放到前台的特殊用户群体提供了数据快速查询解决方案。-Amoy Special Site search engine from the Amoy Te JSP search engine, developed from, sys
lucene.net_search
- lucene.net 中文分词 分页高月显示
Lucene.Net.Analysis.Cn
- Lucene.Net.Analysis.Cn 中文分词-Lucene.Net.Analysis.Cn
Lucene.PaodingSrc.jar
- 最新的开源的中文分词paoding ,包含jar包和源码 可以给设计搜索的人一些帮助-The latest open-source Chinese the word paoding, contains the jar files and source code to the design search some help
PanGu4LuceneV2.1.1.0
- Lucene.net是Lucene的.net移植版本,是一个开源的全文检索引擎开发包,它不是一个完整的全文检索引擎,而是一个全文检索引擎的架构,提供了完整的查询引擎和索引引擎。开发人员可以基于Lucene.net实现全文检索的功能。本代码基于lucene.net实现中文全文检索(Chinese fulltext search based on lucene.net)
paoding-analysis-2.0.4-beta
- paoding-dic-home.properties是庖丁解牛中文分词的配置文件 庖丁解牛分词器是基于lucene的中文分词系统的软件。(Paoding-dic-home.properties is Chinese Paodingjieniu participle configuration file Is Chinese Paodingjieniu segmentation segmentation system based on the Lucene software.)
lucene-core-2.4.1.jar je-analysis-1.5.3.jar
- import jeasy.analysis.MMAnalyzer 实现句子中文分词的jar包(import jeasy.analysis.MMAnalyzer Jar package for Chinese word segmentation in sentences)
