搜索资源列表
SW_I_WordSegment
- SW-I中文分词算法,MFC程序,在visual studio 2008中调试通过。默认词库为mdb,由于较大未包含在源文件中,请自行下载mdb格式的词典。-SW-I Chinese word segmentation algorithm, MFC procedures, visual studio 2008 in debug through. Default thesaurus for the mdb, as a result of the larger not included in the
OpenCNSegmenter
- 中文分词,可以将中文的句子按照单词进行切分,很优秀的算法,在网络中得到-Chinese word segmentation, Chinese sentence can be carried out in accordance with the word segmentation, it is excellent algorithm, in the network have been
ICTCLAS
- 中科院分词系统VC++版本,在VS2005下编译通过,含有所有源代码,可以保证在中科院算法上,自己添加新的想法,或者对已有的算法进行优化。-Word Segmentation System, Chinese Academy of Sciences VC++ version at compile under VS2005 passed, containing all the source code, algorithms can guarantee at the Chinese Academy o
中文分词算法
- 本程序使用给出的字典进行学习并对训练语料进行分词处理,采用C语言编写,高效易懂!
RMM
- 基于rmm算法(逆向最大匹配)实现的中文分词系统,具体内容是一个mfc工程文件。-Rmm-based algorithm (reverse maximum matching) to achieve the Chinese word segmentation system, specific content is a mfc project file.
include
- 用VISUAL C++编写的中文分词系统中的INCULDE算法-Using VISUAL C++ Prepared Chinese word segmentation system INCULDE algorithm
utils
- 用VISUAL C++编写的中文分词系统 UTILS算法-Using VISUAL C++ Prepared Chinese word segmentation system Utils algorithm
zhishifencisuanfa
- 基于知识分词算法的病案全文检索系统, 硕士论文.-Knowledge-based segmentation algorithm cases full-text retrieval system, a master s thesis.
wordsegment1
- 中文分词算法,效率很高,使用词典树装搜索进行单词切割,并提供扩充词库的函数!-It s an arithmetc of word segment,it has a very high efficiency!
keyword-chouqu
- 基于逆向最大匹配算法的分词及基于HMM模型的词性标注系统,包括了未登录词的识别、数据库的添加等内容。(需要手动修改数据库的路径才可以运行)-Reverse Maximum Matching Algorithm Based on the sub-word HMM-based model and part of speech tagging system, including the unknown word identification, such as the contents of the d
fenci
- PHP 织梦逆向最大匹配算法 中文分词 分词算法-PHP DedeCms reverse maximum matching algorithm for Chinese word segmentation algorithm
softwarecode
- 中文分词是中文信息处理中的重要环节,中文分词技术广泛应用于自动翻译、文本检索、语音识别、文本校对、人工智能以及搜索引擎技术等领域。中文分词算法的选择,中文词库的构建方式,词库中词条的完备性在很大程度上与中文分词系统性能紧密相关。-Chinese word segmentation in Chinese information processing is an important part of Chinese word segmentation technology is widely used
imdict-chinese-analyzer
- imdict-chinese-analyzer 是 imdict智能词典 的智能中文分词模块,算法基于隐马尔科夫模型(Hidden Markov Model, HMM),是中国科学院计算技术研究所的ictclas中文分词程序的重新实现(基于Java),可以直接为lucene搜索引擎提供简体中文分词支持。-imdict-chinese-analyzer is a smart imdict Chinese Dictionary smart module segmentation algorithm
fenci_suanfa
- 分词算法,很强大
fenci
- 正向最大匹配算法分词,采用容器储存字典可提高一定的效率。-Forward Maximum Matching algorithm for word segmentation, using containers for storage dictionaries can improve a certain efficiency.
ZuiDaPiPeiSuanFa
- 对一个字符串进行最大匹配法分词的算法,在VC环境下运行即可。-A string of maximum matching word segmentation algorithm can be run in the VC environment.
chinese_segment
- 一个中文分词算法的java语言实现,词典采用文本文件形式。-A Chinese word segmentation algorithm java language implementation
33753115ktdictseg_v1.0.01
- 中文分词算法,效率很高,使用词典树装搜索进行单词切割,并提供扩充词库的函数-It s an arithmetc of word segment,it has a very high efficiency!
zhengdike
- (个人原创)《中文网页自动分类》 牵扯的技术有:分词,统计词频,踢出网页中一些特殊字符(用正则表达式),还有需要提取培训集等等!! 此软件禁止商业活动,版权所属“qyTT论坛--www.qyclass.org/bbs” 本文来自: qyTT论坛 http://www.qyclass.org/bbs 我们的使命:让世界认识qyTT,让qyTT认识世界! 结果分析的思想:就是把得到的词频与建立的词库里每一类进行比较,如果存在一个最大匹配程度,就去这个类作为结果,如果存
遗忘算法(词库生成、分词、词权重)演示程序
- 通过非主流的遗传算法进行关键词提取,分词的功能(Through the non mainstream genetic algorithm for keyword extraction, word segmentation function)