搜索资源列表
k50RVZDojs03
- 基于IKAnalyzer分词算法的准商业化Lucene中文分词器
IKAnalyzer
- IKAnalyzer是中文分词工具,基于lucene2.0版本API开发,实现了以词典分词为基础的正反向全切分算法,是Lucene Analyzer接口的实现,这个是.Net版本,含有源代码
cidian
- 基于最大匹配算法的的中文分词组件,达到很好的分词准确率
fenCi
- 实现中文信息处理中的汉语分词的功能,采用了正向最大和逆向最大的分词算法。
Chinese-Word-Segment-And-POS-Tagger
- 实现了中文分词和词性标注程序。分词方法采用“三词正向最长匹配”。词性标注使用HMM方法,用Viterbi算法实现。“三词正向最长匹配”保持了“正向最长匹配算法”快速的特点,同时提高了分词的准确性。-Chinese word segmentation and implemented procedures for POS tagging. Segmentation Methods, " the longest three-match positive words." POS tag
ChineseSplit
- 一个基于VB.NET开发的中文分词及关键词提取系统,采用双向最大匹配、词频统计、快速排序等算法实现。-VB.NET developed based on Chinese word segmentation and Key Extraction System, the largest two-way matching, word frequency statistics, such as quick sort algorithm.
small
- 一个测试用的中文分词代码,基于FMM分词算法-Chinese word segment code
C_CPPfds
- 中文分词技术属于自然语言处理技术范 畴,是语义理解过程中最初的一个环节。 它 将组成语句的核心词提炼出来供语义分析模 块使用。对于一句话人可以通过自己的知识 来判断哪些是词,哪些不是词。但计算机如 何能理解,其处理过程就称为分词算法。-This is a dictionary of algorithms, algorithmic techniques, data structures, archetypal problems,
boosting_src
- Boosting中的AdaBoost.M1算法在文本分类中的应用实现。使用ICTCLAS用于中文分词,弱分类器使用Naive Bayes。程序参数使用配置文件的格式。-Application of text classification using AdaBoost.M1. Use ICTCLAS tool in Chinese segment, and use Naive Bayes as the weak classifier. use the config file as the para
EasySeg
- 实现中文分词的最大正向匹配算法,提前输入好文本。-Achieve maximum positive Chinese word matching algorithms, a good text input in advance
backforwardSegmentationjava
- 后向分词算法对中文文本进行简单分词,有Swing界面,适合初学者.-Backforward propergation chinese segmentation. with the visible interface by Swing. It s useful for the new guy.
textcluster
- 实现中文分词并聚类输出,分词算法是自己写的以空格分词,如果有需要高级的分词算法可自己下载相关算法-Realization of the Chinese word segmentation and clustering output
seg
- C# 中文分词 基于统计的朴素贝叶斯算法-C# ChineseWordSeg
sMySSeggh
- 最短路径法分词程序源码。将中文句子经过原子切分后生成一个有向无环图,然后使用用Dijkstra算法求出由起点到终点的最短路径以实现中文分词。 -The shortest path method segmentation program source code. Chinese sentence After atomic segmentation, to generate a directed acyclic graph, and then use Dijkstra algorithm to
MyAnalyzer
- 简单的中文分词及敏感词检索工具,其中可以任意添加敏感词,并且可以选择使用正向最大匹配算法,逆向最大匹配算法,双向最大匹配算法中的一种进行分词。-Simple Chinese word and sensitive word retrieval tool, which can add any sensitive words, and you can choose to use the forward maximum matching algorithm, reverse maximum matchi
httpcws-php-demo
- php分词 中文分词 分词算法 HTTPCWS-php sub-word Chinese word segmentation segmentation algorithm HTTPCWS
splitewords
- 在对话框中,调用第三方分词工具(ICTCLAS中文分词免费版),实现对中文的分词示例程序,可以对想实现全文搜索算法的中文分词问题提供解决方案。-In the dialog box, call the third-party segmentation tools (word ICTCLAS Chinese free version), the sample program to achieve the segmentation of Chinese text search algorithms C
ChineseSegment
- 一个完整的中文分词程序,有源码,词典,训练集。算法简洁高效,准确率高。包含了一种将标注语料和词典融合的新型分词方法。将语料分割为2:1为训练集和测试集,加上一个外部词典,准确率可以达到95 。适合入门者学习。也适合需要一个简单分词工具的应用。-A Chinese word segmentation procedures, source, dictionary, the training set. The algorithm is simple and efficient, high accura
IKAnalyzer3.2.0Stable_bin
- IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 -IKAnalyzer is an open source toolkit, Chinese word segm
RMM
- 这个是RMM算法,支持正向、逆向最大匹配,是自然语言处理的重要算法之一,只要替代程序中的词库即可。本词库取自1988年人民日报语料材料,算法对中文分词精确度达到90 以上-This is RMM algorithm supports forward, reverse maximum matching, natural language processing algorithm, as long as the alternative procedures thesaurus can. The th