搜索资源列表
多种分词方法
- 含有多个分词算法。毕业设计的时候获得的,希望对大家在汉字处理中能用的到。 ICTCLAS算法,中科院,对名字识别能力很强。VC开发。 CSharp分词,向前匹配加向后最大匹配,C#开发,容易扩展。 小叮咚分词,由后向前最大匹配,C#开发。 xerdoc分词,基于ICTCLAS的Java版本分词。 文本分词词典,分词的词典,可以提供分词数据源。-containing more than Segmentation. Graduation was the time of hope
分词器
- 迷你分词器,解压缩后,在java环境下运行使用。
ChineseSegmenter
- 中文分词java版 基本词典,分次效果很不错的-Chinese word java version of the basic dictionary, graded very good results
HLjava
- 海量中文分词java接口,原海量分词是C/C++平台开发的,这是java版的接口,如果提示过期,修改系统时间即可试用
小叮咚分词
- 小叮咚中文分词java源码
庖丁分词工具
- 一个流行的java分词程序。
CJKAnalyzer.分词系统(JAVA开发
- 一个很好用的分词系统(JAVA开发),词表可以扩展。,A good word to use the sub-system (JAVA development), the term sheet can be extended.
text_category
- 中文自动分类。使用spider抓取网络信息,利用lucene的分词及KNN方法。-Chinese automatic classification. The use of spider crawl network information, the use of Lucene sub-word and KNN methods.
KaiYuanIctclas
- ICTCLAC开源代码,可用在中文文本信息处理上,为信息抽取进行中文分词、词性标注处理,准确度达到85 以上,-failed to translate
ChineseWordSegmentation
- 总结了在过去的十年间中文自动分词技术的进展-the study in automatic Chinese word segmentation ,during the last decade
imdict-chinese-analyzer
- imdict-chinese-analyzer 是 imdict智能词典 的智能中文分词模块,算法基于隐马尔科夫模型(Hidden Markov Model, HMM),是中国科学院计算技术研究所的ictclas中文分词程序的重新实现(基于Java),可以直接为lucene搜索引擎提供简体中文分词支持。-imdict-chinese-analyzer is a smart imdict Chinese Dictionary smart module segmentation algorithm
mmseg4j-1.7.3
- 中文分词技术 MMSeg1.7.3 最新版-Chinese word segmentation technology, the latest version of MMSeg1.7.3
Test Class By SVM
- 支持向量机实现的文本分类程序,过程如下,首先使用分词工具分词,这里使用的是计算所的分词工具,从而保证分词是最优秀的,接下来使用国际效率最高的文本IFIDF向量生成工具生成文本相量,最后使用台湾林智恒的效率最高的SVM实现软件包libsvm实现训练和分类,可以这么说,该文本分类是同类中效率最高最准确的-text classfication source code use 3 technology.words sementation,vector gerneration,and libsvm too
fenci
- 一个简单的基于词典分词的程序,lucene的分词程序不少,但有时候并不需要复杂的功能,只是需要简单的根据指定的词典分词。代码简单,可以作为学习参考-A simple dictionary-based word process, lucene procedures for sub-word a lot, but sometimes does not require complex functions, but only require a simple dictionary word accord
IKAnalyzer3.1.1_userguide
- java分词程序,能够精确分词,包含词库等-java word program, word accurately, including the thesaurus, etc.
IKAnalyzer3.1.1StableAllInOne
- Lucene 中文分词,很好的 可以随便下压,加油-Lucene Java
ShuzhenAnalyzer-1.1.8-jdk1.6.0
- 中文分词 ShuzhenAnalyzer 可用于将文档中词进行划分,比较好用-Word cut using java
ICTCLAS50_Linux_RHAS_64_JNI
- 中科院中文分词程序,国内相关领域的的权威.这是Java(JNI)64位版-Institute of Chinese word segmentation program, the domestic authority of the relevant fields, which is Java (JNI) 64-bit version
jieba分词
- jieba 的java分词包,一般都是python的包,这个可用于java的jieba分词(Jieba Java word segmentation package, generally Python package, this can be used for the Java Jieba participle)
CSATP
- 汉语文章的自动分词系统,带界面,java编写(Automatic word segmentation system for Chinese articles, with interface, Java writing)