搜索资源列表
ktdictseg_v1.0.01
- 一个关于分词源码,分词效率较高。算法简单实用。
IKAnalyzer
- IKAnalyzer是中文分词工具,基于lucene2.0版本API开发,实现了以词典分词为基础的正反向全切分算法,是Lucene Analyzer接口的实现,这个是.Net版本,含有源代码
ProbWordSeg
- 最大概率分词法.中文信息处理方面的一个源码。此为一个分词软件,这个分词的算法虽然简单,但是原理和其他相同,是最大概率法分次。功能强大,代码简洁易懂
cidian
- 基于最大匹配算法的的中文分词组件,达到很好的分词准确率
bogofilter-0.93.4.tar
- 开源项目BOGOFILTER的源码.该项目实现BAYES文本分类算法,不过该源码只支持英文的分词
Qiyi
- 最大概率法分词的数据结构与算法,用这样的方法分词可以提高分词中歧义词的辨别率,非常经典啊-greatest probability - term data structure and algorithm, this approach can increase Word word-of ambiguous words in the identification rate, very classic ah
EasyXSpider
- EasyXSpider不仅仅是一个简单的Linux下的爬虫程序。更包括了,索引制作,检索,分词(英文及中文二元法切词),以及Google PageRank算法和CGI查询界面的实现。可以看做是一个完整的小型搜索引擎。
中文网页自动分类器
- 利用knn算法实现了一个中文网页自动分类器, 包括网页预处理,ictclas中文分词,基于tf-idf的文本特征表示,基于df的特征选取和基于knn的分类算法,最后通过struts2框架web发布
SentenceSimilar.rar
- 先对句子分词,然后根据词来比较句子的相似度,这个算法清晰易懂,欢迎下载!,The first word of the sentence, and then to compare the sentence the word similarity, this algorithm is clear and easy to understand, welcome to download!
IKAnalyzer3.2.8-bin
- IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出 了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为 面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 -IKAnalyzer is an open source, java based development o
Chinese-Word-Segment-And-POS-Tagger
- 实现了中文分词和词性标注程序。分词方法采用“三词正向最长匹配”。词性标注使用HMM方法,用Viterbi算法实现。“三词正向最长匹配”保持了“正向最长匹配算法”快速的特点,同时提高了分词的准确性。-Chinese word segmentation and implemented procedures for POS tagging. Segmentation Methods, " the longest three-match positive words." POS tag
ChineseSplit
- 一个基于VB.NET开发的中文分词及关键词提取系统,采用双向最大匹配、词频统计、快速排序等算法实现。-VB.NET developed based on Chinese word segmentation and Key Extraction System, the largest two-way matching, word frequency statistics, such as quick sort algorithm.
IKAnalyzer3.2.8-source
- IKAnalyzer的源码包,实现中文分词功能,(1) 采用了特有的“正向迭代最细粒度切分算法”,具有60万字/ 秒的高速处理能力。 (2) 采用了多子处理器分析模式,支持:英文字母( IP 地址、Email、URL )、数字(日期,常用中文数量词,罗马数字,科学计数法),中文词汇(姓名、地名处理)等分词处理 。 (3) 优化的词典存储,更小的内存占用。支持用户词典扩展定义 (4) 针对 Lucene 全文检索优化的查询分析器 IKQueryParser;采用歧义分析算法优化查询关键
Auto_WordSeg
- 自动分词程序演示。包括最大、最小,正向、逆向等分词算法。-Automatic word segmentation procedure demonstrates. Including the largest, smallest, positive, reverse algorithm.
77433632mmseg-v0.1
- 使用最大正向匹配算法,实现中文自动分词,对于初学者有很高的参考价值。-The biggest being the use of matching algorithm, the realization of Chinese word segmentation, for beginners, has high reference value.
PERL
- perl采用正向匹配算法,使用词库构建哈希结构,匹配分词-perl matching algorithm being used, use the thesaurus to build hash structure, matching word segmentation
DTWspeech
- 本 文 首先 介绍了语音识别的研究和发展状况,然后循着语音识别系统的 处理过程,介绍了语音识别的各个步骤,并对每个步骤可用的几种方法在实 验基础上进行了分析对比。研究了语音信号的预处理和特征参数提取,包括 语音信号的数字化、分帧加窗、预加重滤波、端点检测及时域特征向量和变 换域特征向量.其中端点检测采用双门限法.通过实验比对特征参数的选取, 采用12阶线性预测倒谱系数作为识别参数。详细分析了特定人孤立词识别算 法,选定动态时间弯折为识别算法,并重点介绍其设计实现。 在
segthewords
- 它是文本分词程序代码的核心算法,可以为语言学者提供强大的分词功能。-Is a code word the text of the core algorithm
theshortest
- 最短路径法分词程序.将中文句子经过原子切分后生成一个有向无环图,然后使用Dijkstra算法求出由起点到终点的-The shortest path segmentation process. After the Chinese sentence after splitting atoms to generate a directed acyclic graph, and then use the Dijkstra algorithm derived from the point of origi
phpsojiqidll
- 自己写的一些PHP扩展EXT DLL,包括搜集齐分词扩展,imagick动态处理图片类,搜集齐核心排序算法DLL(www.sojiqi.com)-PHP to write some of their expansion EXT DLL, including the expansion of the collection of word Qi, imagick dynamic picture categories, the core sorting algorithm to collect Qi