搜索资源列表
SplitCNWord
- 一个中文分词的实现及演示程序,可用与中文和英文词组的分割.-a Chinese word achieve and demonstrate the procedure can be used with the Chinese and English phrase segmentation.
2006111
- 支持英文、数字、中文(简体)混合分词 常用的数量和人名的匹配 超过22万词的词库整理 实现正向最大匹配算法 智能数字,日期,人名识别。-support English, figures, Chinese (simplified) mixed at the number of commonly used words and the names of more than 220,000 matching word thesaurus finishing achieve the greatest po
bogofilter-0.93.4.tar
- 开源项目BOGOFILTER的源码.该项目实现BAYES文本分类算法,不过该源码只支持英文的分词
IBMDict
- 四. 主要功能 === 屏幕取词: - 翻译屏幕上鼠标所指的英文单词、成语或短语,并实现中文取词翻译。 - 翻译屏幕上鼠标所指的英文句子,并可随时切换按词翻译和按句翻译这两种不同的 方式。 - 用户可以随时暂停或恢复屏幕取词功能。 - 通过热键进行屏幕取词,确保仅在需要时才弹出浮动翻译窗口,显示词意。 - 设置取词速度,调整浮动翻译窗口的响应时间。 - 可以选用或取消即指即译同步发音的功能。选择男、女发音和合适的语速。 - 在浮动翻译窗口中提供联机的智能匹配功能。 词典查询: - 翻译用户输入
EasyXSpider
- EasyXSpider不仅仅是一个简单的Linux下的爬虫程序。更包括了,索引制作,检索,分词(英文及中文二元法切词),以及Google PageRank算法和CGI查询界面的实现。可以看做是一个完整的小型搜索引擎。
IKAnalyzer3.2.8-source
- IKAnalyzer的源码包,实现中文分词功能,(1) 采用了特有的“正向迭代最细粒度切分算法”,具有60万字/ 秒的高速处理能力。 (2) 采用了多子处理器分析模式,支持:英文字母( IP 地址、Email、URL )、数字(日期,常用中文数量词,罗马数字,科学计数法),中文词汇(姓名、地名处理)等分词处理 。 (3) 优化的词典存储,更小的内存占用。支持用户词典扩展定义 (4) 针对 Lucene 全文检索优化的查询分析器 IKQueryParser;采用歧义分析算法优化查询关键
Bayes_1
- 首先,对CATEGORY中的txt文件分类; 其次,对多个txt文件中的英文文本进行分词; 最后,通过贝叶斯公式进行分类;-First, in the txt file CATEGORY classification Secondly, multiple txt files in English text word Finally, by Bayes formula to be classified
IKAnalyzer3.2.0Stable_src
- IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 IKAnalyzer3.0特性: 采用了特有的“正向迭代最细粒度切分算法“,具有60万字/秒的高速处理能力。
yinghanshuangxiangdianzicidian
- 英汉双向电子词典是数字化的辞书,在载体、编纂方式、设计过程、功能、使用者、查询手段、检索方法等各方面具有词典类软件特性。本课题设计英汉双向电子词典是一种基于Java语言开发的跨平台的词典类工具软件。检索方式采用开源的Lucene全文检索并实现中文分词的功能。具有查询、检索方便、快捷,查询种类齐全,可以即时翻译、准确的、详细地查阅英文、中文单词。同时为各种软件、网络、电子邮件等提供后台支持,从而大大提高了用户的工作效率,拓宽了学习途径。-English-to-Chinese a the book
liaotianfenci
- 一种基于国标2312(GB2312)汉字编码标准的分词算法,实现的分词效果是分成单个的汉字,可以识别英文、空格、中英文符号和数字等。也称原子分词算法。-Based on GB 2312 (GB2312) Chinese character coding standard segmentation algorithm to achieve the segmentation effect is divided into individual characters, can be identified
souxuojishujiemi
- 搜索引擎技术的研究,国外比中国要早近十年,从最早的Archie,到后来的Excite,以及altvista、overture、google等搜索引擎面世,搜索引擎发展至今,已经有十几年的历史,而国内开始研究搜索引擎是在上个世纪末本世纪初。在许多领域,都是国外的产品和技术一统天下,特别是当某种技术在国外研究多年而国内才开始的情况下。例如操作系统、字处理软件、浏览器等等,但搜索引擎却是个例外。虽然在国外搜索引擎技术早就开始研究,但在国内还是陆续涌现出优秀的搜索引擎,像百度、中搜等。目前在中文搜索引擎
DotLuceneDemo
- DotLucene演示源码 DotLucene实际是Lucene的Asp.net版本,也称为lucene.net 该项目的原型为DotLuceneAPISearchDemo-1.1,后经51aspx升级为Asp.net2.0版本并改为WebApplication类型 该demo演示了Lucene的常用功能(智能分词、关键字高亮等) 在测试自定义添加数据后点击建立索引按钮才能生效(此功能由51aspx添加),原版只检索目录下的html文件,51Aspx改为了检索所
Stemmer
- 在英语中,一个单词常常是另一个单词的“变种”,如:happy=>happiness,这里happy叫做happiness的词干(stem)。在信息检索系统中,我们常常做的一件事,就是在Term规范化过程中,提取词干(stemming),即除去英文单词分词变换形式的结尾。 应用最为广泛的、中等复杂程度的、基于后缀剥离的词干提取算法是波特词干算法,也叫波特词干器(Porter Stemmer)。详见官方网站。比较热门的检索系统包括Lucene、Whoosh等中的词干过滤器就是采用的波
WordStem_20121024
- 采用Porter Stemming算法对英文文本进行分词-Preprocessing English text based on Porter Stemming algorithm
wuxiao
- 是中文和英文网页的分词等预处理,里面包括例子,结果,文档,代码-Is Chinese and English web pages and other pre-segmentation, which includes examples of the results, documentation, code
123
- 1. 读取文档并分词。要求给定一篇.txt英文文档,计算机读入并统计该篇文章由哪些词组成,按字母顺序输出出现过的词已经每个词的出现频率。-1. Read the document and word. Requirements for a given article. Txt English documents, computer reads and counts the words in the article which consists, in alphabetical order of t
myFileStream
- 词频统计,能实现英文文章的分词和统计功能,代码比较简单,容易实现。-Word frequency statistics, to achieve the English word articles and statistical functions, the code is relatively simple, easy to implement.
Calfreq
- 对英文文档分词,实现文章的词频统计以及整序排列输出-The English word document, word frequency statistics and realize the article output of the entire sequence alignment
TFIDF算法的C#实现
- 支持英文分词,无中文分词。采用Centivus.EnglishStemmer.dll库
986D82099BFBF6C98B8B2F79ABD_64750624_D4D875
- 英文分词工具,主要用于英文单词分词,是斯坦福大学的著作权。(English word tool, mainly for the English word segmentation, Stanford University, copyright,)