搜索资源列表
ChineseSegment
- 基于Hash字库算法的lucene分词 完整的代码,使用创新的Hash字库,是分词效果大大提高
lucene+mysql+eclipe
- lucene+mysql+eclipe开发实例,实现了分页和中文分词。欢迎交流qq:276367673
lucene-1.4.3
- java分词技术,只实现英文分词,但是该分词算法很经典(来源于apache)-java-term technology, achieving only English Word, but the Word algorithm classic (from apache)
luncene查询分析器中文词典
- 中文分词词库
搜索引擎分词支
- 搜索引擎分词支持Lucene.net.rar
lucene
- 汉化CLucene今天,把CLucene的程序改了一下,可以支持汉字了·1·在vc6编译2·还不支持分词,但支持汉字,-汉化CLucene Today, the procedures put CLucene changed a bit, you can support the Chinese characters one at vc6 compiler 2 do not support sub-word, but will support the Chinese characters,
src
- 利用lucene编写的一个简单搜索引擎,能够中文分词。-a simple search engine built with lucene.
imdict-chinese-analyzer
- imdict-chinese-analyzer 是 imdict智能词典 的智能中文分词模块,算法基于隐马尔科夫模型(Hidden Markov Model, HMM),是中国科学院计算技术研究所的ictclas中文分词程序的重新实现(基于Java),可以直接为lucene搜索引擎提供简体中文分词支持。-imdict-chinese-analyzer is a smart imdict Chinese Dictionary smart module segmentation algorithm
SearchEngine
- C#+Lucene.Net开发完成的一个自定义WEB搜索引擎,本项目实现了分词、模糊索引,加以Lucene.Net内部核心功能共同实现了搜索机制引擎-C#+ Lucene.Net developed a custom WEB search engine, the project achieved a sub-word, fuzzy indexing, Lucene.Net be the core function of the internal search mechanism to achie
DictSeg
- Lucene的一个不错的分词组件,效果还不错,现在已经是1.4版本了-Lucene' s a good word components, the results were good, and is now 1.4 version of the
fenci
- 一个简单的基于词典分词的程序,lucene的分词程序不少,但有时候并不需要复杂的功能,只是需要简单的根据指定的词典分词。代码简单,可以作为学习参考-A simple dictionary-based word process, lucene procedures for sub-word a lot, but sometimes does not require complex functions, but only require a simple dictionary word accord
IKAnalyzer3.1.1StableAllInOne
- Lucene 中文分词,很好的 可以随便下压,加油-Lucene Java
totsearchc
- 淘特站内搜索引擎是由淘特JSP搜索引擎发展而来,系统基于Lucene.Net核心,通过高效的中文分词算法将数据库中内容进行分析、索引并保存至硬盘中。前台搜索时,通过读取索引文件查询,避免了传统数据库查询在高并发及海量数据下的性能问题。因前台搜索不在连接数据库,为不希望数据库放到前台的特殊用户群体提供了数据快速查询解决方案。-Amoy Special Site search engine from the Amoy Te JSP search engine, developed from, sys
lucene.net_search
- lucene.net 中文分词 分页高月显示
chinese_lucene
- c#中文分词类库+可用来做搜索引擎分词+准确率90 +支持Lucene.net.rar
Lucene.Net.Analysis.Cn
- Lucene.Net.Analysis.Cn 中文分词-Lucene.Net.Analysis.Cn
lucene-3.1.0-src.tar
- 一个哼强大的全文索引代码,支持自定义分词-Well powerful full-text index of a code, support for custom segmentation
apache-cxf-3.0.9
- 分词分析 软件复用是在软件开发中避免重复劳动的解决方案。Web服务实现了业务级别的软件复用,例如在B2B的集成中,各企业之间通过互相调用Web服务,实现了Web服务的共享,Web服务的使用企业不需要再重新开发其他企业中已经存在的服务。(Segmentation analysis)
paoding-analysis-2.0.4-beta
- paoding-dic-home.properties是庖丁解牛中文分词的配置文件 庖丁解牛分词器是基于lucene的中文分词系统的软件。(Paoding-dic-home.properties is Chinese Paodingjieniu participle configuration file Is Chinese Paodingjieniu segmentation segmentation system based on the Lucene software.)
完整的站内搜索引擎(Lucene.Net+盘古分词)
- 盘古分词法+全站搜索功能DEMO,仅供参考。(Pangu Word Segmentation + Full Station Search Function DEMO, for reference only)