搜索资源列表
3_31_1
- 中文分词的代码,是用vc++编的.文件名为3_31_1.zip-Chinese word code is used vc series. Documents called 3_31_1. Zip
yangpengwei
- 中文分词程序,是用java语言编的.文件名为yangpengwei.zip-Chinese word segmentation procedure is the use of java language series. Documents called yangpengwei.zip
zya0132_freebbssearch
- 基于中文分词的bbs源程序。具有很好的全站信息检索功能。-based on the Chinese word of bulletin board source. With good station information retrieval functions.
分词051024
- 中文信息处理,例如将可含有汉字和拼音的将TXT文本中的汉字和拼音用空格隔开-Chinese information processing, for example, may contain characters and the alphabet will TXT version of the characters and the alphabet with a space separated
0000000000
- 中文分词: 输入一个汉字的文本文件,可将里面的汉字分解成一个个符合人们心理的词-Chinese word : a Chinese character input text files can be inside of a Chinese character is divided into 000 people with mental word
SplitCNWord
- 一个中文分词的实现及演示程序,可用与中文和英文词组的分割.-a Chinese word achieve and demonstrate the procedure can be used with the Chinese and English phrase segmentation.
Xerdoc XDMF
- 一个比较好用的中文分词模块,是车东等人开发的,比较有名,java语言实现-a better quality of the Chinese word module, East cars were developed, more famous, java language!
TextCategorization
- 基于朴素贝叶斯算法实现的中文文本分类程序。可以对中文文本进行分类识别,使用时先对分类器进行训练,然后进行识别。该Beta版本仅支持对3类文本进行分类,使用简单的中文分词方法,本程序尚不具备实用性,用于算法研究和改进。-based on Bayesian algorithms to achieve the Chinese text classification procedure. Can the Chinese text classification identification, the us
ChineseSegmenter
- 中文分词java版 基本词典,分次效果很不错的-Chinese word java version of the basic dictionary, graded very good results
ictclas_Source_Code
- 计算所汉语词法分析系统ICTCLAS介绍 词是最小的能够独立活动的有意义的语言成分。 但汉语是以字为基本的书写单位,词语之间没有明显的区分标记,因此,中文词语分析是中文信息处理的基础与关键。为此,我们中国科学院计算技术研究所在多年研究基础上,耗时一年研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),该系统的功能有:中文分词;词性标注;未登录词识别。分词正确率高达97
SplitWord_Java
- java制作的中文分词DLL文件,是根据中科院中文分词系统C++改写的-produced by the Chinese word DLL files, under the Chinese Academy of Sciences is the Chinese word rewrite the C system
SQLET_split
- 另外一个中文分词程序,采用的是可显示的字典,可供大家分析-another Chinese word segmentation procedures, the show is the dictionary for our analysis
segmentor_Perl
- 中文分词算法。Perl语言编写。wordlist.txt为词库。-Chinese Segmentation. Perl language. Wordlist.txt for the thesaurus.
xerdoc
- 这些都是关于中文分词的,一定会对很多人有帮助的!-these are on the Chinese word, and you will help a lot of people!
SharpICTCLAS
- ICTCLAS分词的总体流程包括:1)初步分词;2)词性标注;3)人名、地名识别;4)重新分词;5)重新词性标注这五步。就第一步分词而言,又细分成:1)原子切分;2)找出原子之间所有可能的组词方案;3)N-最短路径中文词语粗分三步。 在所有内容中,词典库的读取是最基本的功能。ICTCLAS中词典存放在Data目录中,常用的词典包括coreDict.dct(词典库)、BigramDict.dct(词与词间的关联库)、nr.dct(人名库)、ns.dct(地名库)、tr.dct(翻译人名库
windows_csharp_32
- 中文词法分析是中文信息处理的基础与关键。中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。ICTCLAS全部采用C/C++编写,支持Linux、FreeBSD及Windows系列操作系统,支持C/C++/C#/Delphi/Java等主流的开发语言
Dict
- 中文词库 可供中文搜索引擎开发使用 可供中文分词使用-Chinese dictionary for Chinese language search engine, developed using the Chinese word used for
prop
- 根据概率匹配原则得出句子结构树,很好用的一个演示软件,需要搭配中文分词法进行使用-Come under the principle of probability matching sentence structure tree, with a very good presentation software, need to be used with Chinese sub-lexical
PanGu4LuceneV2.1.1.0
- Lucene.net是Lucene的.net移植版本,是一个开源的全文检索引擎开发包,它不是一个完整的全文检索引擎,而是一个全文检索引擎的架构,提供了完整的查询引擎和索引引擎。开发人员可以基于Lucene.net实现全文检索的功能。本代码基于lucene.net实现中文全文检索(Chinese fulltext search based on lucene.net)
jieba-0.38
- jieba 分词,用在Python中,对中文文本进行分词(Jieba participle, used in Python to segment Chinese text;)