搜索资源列表
clucene_src_for_chinese
- 汉化CLucene今天,把CLucene的程序改了一下,可以支持汉字了。1.在vc 6编译 2.还不支持分词,但支持汉字,要索引的文本词与词之间用空格隔开。3.只是匆匆改了一下,见demo/IndexFiles.cpp,有问题可以与我联系。有空时改完善些。 -finished CLucene today, CLucene procedures changed a bit in support of the Chinese characters. 1. In vc 6 2 comp
ThesaurusAnalyzer
- lucene中文分词代码 带有19万字的词典 本分词程序的效果取决与词库.您可以用自己的词库替换程序自带的词库.词库是一个文本文件,名称为word.txt. 每一行一个词语,以#开头表示跳过改行.最后保存为UTF-8的文本.
Uindex.Src
- Uindex是一个开放源代码的搜索引擎,网页搜索量定位在千万量级,目前提供从蜘蛛程序、中文分词到建立全文索引的全部工具程序,FTP搜索提供基于文件名的检索,支持常见的FTP服务器。
fenci
- 一个简单的分词程序,里面有代码和词库,编译连接后在命令行里运行
soso
- 分词的源码。自己弄的一个小程序源码。大家一块学习。
EasyXSpider
- EasyXSpider不仅仅是一个简单的Linux下的爬虫程序。更包括了,索引制作,检索,分词(英文及中文二元法切词),以及Google PageRank算法和CGI查询界面的实现。可以看做是一个完整的小型搜索引擎。
庖丁分词工具
- 一个流行的java分词程序。
本程序可以实现对已有网页的信息提取和分词
- 本程序可以实现对已有网页的信息提取和分词,结果会导入叫做res.txt的文件中。本程序是开发搜索引擎的前期工作。-This procedure can be achieved on existing Web information extraction and segmentation, the results into a file called res.txt. This program is the development of the preliminary work the searc
File_Search
- 中英文分词程序,在文本检索中要使用到得一个小程序哦-In English and Chinese word segmentation procedure, text retrieval, we should use to get a small program oh
Auto_WordSeg
- 自动分词程序演示。包括最大、最小,正向、逆向等分词算法。-Automatic word segmentation procedure demonstrates. Including the largest, smallest, positive, reverse algorithm.
TDHCursorFactory
- 是一个使用Perl语言编写的一个开源文本挖掘的程序。其中涉及了众多文本挖掘的技术,如文本聚类、分词、索引,搜索引擎、字典等等。-Perl is a language to use an open source text mining process. Involving a large number of text mining technologies, such as text clustering, segmentation, indexing, search engines, dicti
CutwordShort
- 用于搜索引擎上的切词程序,可以获得比较好的分词结果。运行速度可以达到约500k词/s(笔记本上)-For the search engine on the segmentation procedure can be the result of a better word. Running speed of about 800k words/s (notebook)
KWICcase
- 实现关键词检索的一个程序,中文分词,自动检索-To achieve keyword search of a program, Chinese word segmentation, automatic search
fenci
- 一个简单的基于词典分词的程序,lucene的分词程序不少,但有时候并不需要复杂的功能,只是需要简单的根据指定的词典分词。代码简单,可以作为学习参考-A simple dictionary-based word process, lucene procedures for sub-word a lot, but sometimes does not require complex functions, but only require a simple dictionary word accord
luceneCH2
- 亲自测试成功的《开发自己的搜索引擎》第二章,以及一个分词器的测试程序。-Personally successfully tested a " to develop its own search engine" second chapter, as well as a word breaker testing procedures.
ICTCLAS2010CSharpDemo
- 中文分词源程序, 中文词法分析是中文信息处理的基础与关键。中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级6次,目前已经升级到了ICTCLAS3.0。ICTCLAS3.0分词速度单机996KB/s,分词精度98.45
fenci
- 帮组我们实现中文分词,程序较为粗糙,请见谅,-Help us to achieve Chinese word group, the program is more rough, please forgive me,
mySegment
- 类库程序,基于词典的简单分词,可分中英文混合的情况-Simple dictionary-based segmentation procedure
splitword
- 基于VC++6.0的中文分词程序。内含词典。-VC++6.0 based Chinese word segmentation procedure. Embedded dictionary.
TokenizerTest2011
- C# 分词演示程序 TokenizerTest2011.rar