搜索资源列表
textsegment
- 中文分词程序,用java写的,有gui界面-Chinese word segmentation procedures using java write a gui interface
ECDictionary
- java树型字典的建立,是中文分词 检索的基础-java tree dictionary for the establishment of the Chinese-based word retrieval
docTokenizer
- 一个简单的中文分词器,java语言描述,并附带-a simple Chinese word for that java language to describe and fringe
zhongqijiancha
- 中文分词的基本实现功能,带有界面的处理,实现文件内容的分词,可以计算算法处理时间-Chinese word basic function and interface with the processing, and the contents of the paper, the sub-term calculation algorithm processing time
weidengluci
- java解决中文分词未登陆词,使用sql-java solution Chinese word not landing words, the use sql
csw50
- 中文分词组件,包括三个版本,com,C和java接口。
je-analysis-1.4.0
- 基于java的中文分词系统,直接更改扩展名为jar即可。暂无源码提供
JE中文分词1.5.3版本的源包
- je-analysis-1.5.3.jar JE中文分词1.5.3版本的源包,je-analysis-1.5.3.jar JE Chinese Segmentation 1.5.3 version of the source package
Lucene.rar
- lucene建立索引,中文搜索,搜索内容先经过分词,然后搜索,lucene index, Chinese search, search through the contents of the first word, and then search
windows_JNI_32bit
- ICT分词程序接口 用以进行中文文本分词,词性标注。-ICT segmentation program interface for the conduct of the Chinese text word segmentation, POS tagging.
qygl
- lucene 中文分词公用组件,对搜索引擎开发中中文分词做了很好的封装。-Chinese word segmentation lucene common components, the development of the Chinese search engine has done a very good segmentation of the package.
IRSplit_new
- 用java实现的中文分词,是在哈工大IRSplit的基础上做的-With the java implementation in Chinese word segmentation, is based on the HIT IRSplit done
chinese_segment
- 一个中文分词算法的java语言实现,词典采用文本文件形式。-A Chinese word segmentation algorithm java language implementation
worddivise
- 中文 分词,-worddivise
zhengdike
- (个人原创)《中文网页自动分类》 牵扯的技术有:分词,统计词频,踢出网页中一些特殊字符(用正则表达式),还有需要提取培训集等等!! 此软件禁止商业活动,版权所属“qyTT论坛--www.qyclass.org/bbs” 本文来自: qyTT论坛 http://www.qyclass.org/bbs 我们的使命:让世界认识qyTT,让qyTT认识世界! 结果分析的思想:就是把得到的词频与建立的词库里每一类进行比较,如果存在一个最大匹配程度,就去这个类作为结果,如果存
yard
- 一个简单的中文分词程序,用纯java编写,请解压后,在java环境中运行。-A simple Chinese word segmentation program, written in pure java, please unzip, run the java environment.
NLpirTest
- 使用中文信息处理的开源工具包NLpir完成分词工作(Use the Open Source Toolkit NLpir to do word segmentation)
Models_v1_v2
- 对中文文本进行分词,词性标注。训练模型,根据模型训练学习分词。(participle Part of speech tagging)
JNA
- 中文的分词,包括词性标注、关键词提取,Java文件(word segmentation and part of speech tagging)
Chinese Word Segementation
- 根据所给中文词典,对中文文本进行正向最大匹配分词,其中包括读取文本,并对其分词(According to the Chinese dictionary, the Chinese text is given a positive maximum matching word, which includes the reading of the text and the participle of the Chinese text.)