搜索资源列表
ShuzhenAnalyzer-1.1.8-jdk1.6.0
- 中文分词 ShuzhenAnalyzer 可用于将文档中词进行划分,比较好用-Word cut using java
VC2010
- VC调用中科院分词2010版组件的最新源码! 中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级8次,目前已经升级到了ICTCLAS2010!-VC call to Word 2010 version of t
lucene.net_search
- lucene.net 中文分词 分页高月显示
yard
- 一个简单的中文分词程序,用纯java编写,请解压后,在java环境中运行。-A simple Chinese word segmentation program, written in pure java, please unzip, run the java environment.
dictionary
- 基于四字hash的中文分词词典,将此条放在数据库中,利用memcache提高词典索引速度。实现文本词典到数据库中此条的自动转换。-Hash based on four characters of Chinese word dictionary, the clause on the database, dictionary use memcache to improve indexing speed. Text dictionary to the database to achieve the a
mySegment
- 类库程序,基于词典的简单分词,可分中英文混合的情况-Simple dictionary-based segmentation procedure
fenci
- 中文分词,可将文件划分词性,有词库,可添加新词-Use LR analysis of the compiler, may realize the words and grammar, semantics analysi
splitword
- 基于VC++6.0的中文分词程序。内含词典。-VC++6.0 based Chinese word segmentation procedure. Embedded dictionary.
1
- 中文分词在中文信息处理中是最最基础的,无论机器翻译亦或信息检索还是其他相关应用,如果涉及中文,都离不开中文分词,因此中文分词具有极高的地位。中文分词入门最简单应该是最大匹配法了-Chinese word segmentation in Chinese information processing is the most basic, whether in machine translation Yihuo information retrieval, or other related appli
svmcls-(2)
- 李荣陆老师做的文本分类器,用中科院分词系统做的,分类方法用的是SVM和K-Rong Lu teachers do text classification, word segmentation system with the Chinese Academy of Sciences to do, classification using a SVM and KNN
ICTCLAS50_Linux_RHAS_64_JNI
- 中科院中文分词程序,国内相关领域的的权威.这是Java(JNI)64位版-Institute of Chinese word segmentation program, the domestic authority of the relevant fields, which is Java (JNI) 64-bit version
NLpirTest
- 使用中文信息处理的开源工具包NLpir完成分词工作(Use the Open Source Toolkit NLpir to do word segmentation)
jieba分词
- jieba 的java分词包,一般都是python的包,这个可用于java的jieba分词(Jieba Java word segmentation package, generally Python package, this can be used for the Java Jieba participle)
CWSS17.1.1.4
- 基于隐马尔科夫模型的中文分词系统,上交ieee专业大一作业,界面一般,主要用于学习,在此分享,注:开发环境python3.5(Based on Hidden Markov model of Chinese word segmentation system, on the IEEE professional freshman job, interface is common, mainly used for learning, in this share, note: development en
UyghurTextHelper
- 进行维吾尔语分词分句功能,用python语言进行基本的维吾尔语语言处理方法(Uyghur word segmentation function)
FMM
- java源码分词器,导入eclipse即可使用,无需修改代码,分词效果还行(Java source code word segmentation, import eclipse can use, without modifying the code, the word segmentation effect is OK)
apache-cxf-3.0.9
- 分词分析 软件复用是在软件开发中避免重复劳动的解决方案。Web服务实现了业务级别的软件复用,例如在B2B的集成中,各企业之间通过互相调用Web服务,实现了Web服务的共享,Web服务的使用企业不需要再重新开发其他企业中已经存在的服务。(Segmentation analysis)
ansj_seg-master
- ansj_seg-master中文分词安装包(附带安装说明,详情请点击里面的README.md)(Ansj_seg-master Chinese word segmentation package (attached installation instructions, please click on the details of the README.md))
Models_v1_v2
- 对中文文本进行分词,词性标注。训练模型,根据模型训练学习分词。(participle Part of speech tagging)
Desktop
- 可以实现matlab中文分词采用反向最大匹配法可以准确实现分词(Matlab Chinese word segmentation can be achieved, using the reverse maximum matching method, you can accurately achieve word segmentation)