搜索资源列表
fenci
- java版的分词程序,可以灵活生成添加字典。
java1
- 一个java的分词程序,希望对大家有用,分词的效率还可以
segmenter
- 一个简单有效的中文分词算法,包含正向最大匹配算法,java实现。
javasegment
- java开发的智能分词系统,经过编译可以运行!
IKAnalyzer3.2.8-bin
- IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出 了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为 面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 -IKAnalyzer is an open source, java based development o
ictclas
- 分词工具,用Java实现,准确率很好,有很强的学习价值。-Segmentation tool, implemented in Java, good accuracy, has a strong learning value.
tfidf
- 文本的词频计算,用到了lucene的分词工具,用java实现-Text of the word frequency calculations, the word used in the sub-lucene tools to achieve with java
mmseg4j-1.0-src.zip
- java 版的中文分词技术 很实用的 正确率可以达到98 以上,java version of the Chinese word technology is practical accuracy can reach more than 98
Test
- 分词统计 能应用于Java环境下 效率高-aaaaaaaa Word statistics and Segmentation a d dfddfdf
heritrix-1.14.3-src
- 高性能分词算法,采用java实现,能自动进行最小分词,用户可以筛选分词类别-Word segmentation algorithm for high-performance, the realization of the use of java, can automatically carry out the smallest sub-word, the user can filter category segmentation
Wordseg
- 该程序是采用的java语言对测试文本进行中文分词-Chinese segmenter
textcluster
- java文本聚类程序代码文件,实现文本聚类功能,分词。-text clustering java code files to achieve text clustering features, sub-word.
fenciqiusedic
- 用java写的分词器,可以利用此程序分析一段话中的单词,根据词典的不同,分析的结果也不同-Using java to write the word breaker, you can take advantage of this program analysis passage of the word, according to the dictionary is different from results of the analysis are also different
fenci
- 中文分词代码,利用Java写的关于搜索的中文分词-Chinese word segmentation code, the use of Java to write about the Chinese word search
hlfc_java_sourcecode
- 海量分词的共享版的java源码,值得学习,对中文分词有很高的精度-Massive word shared version of the java source code, it is worth learning for Chinese word has a high accuracy
IKAnalyzer3.2.0Stable_src
- IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 IKAnalyzer3.0特性: 采用了特有的“正向迭代最细粒度切分算法“,具有60万字/秒的高速处理能力。
yinghanshuangxiangdianzicidian
- 英汉双向电子词典是数字化的辞书,在载体、编纂方式、设计过程、功能、使用者、查询手段、检索方法等各方面具有词典类软件特性。本课题设计英汉双向电子词典是一种基于Java语言开发的跨平台的词典类工具软件。检索方式采用开源的Lucene全文检索并实现中文分词的功能。具有查询、检索方便、快捷,查询种类齐全,可以即时翻译、准确的、详细地查阅英文、中文单词。同时为各种软件、网络、电子邮件等提供后台支持,从而大大提高了用户的工作效率,拓宽了学习途径。-English-to-Chinese a the book
fenci
- 将该jar包导入到用户创建的工程中,然后在用户创建的类中调用其中的分词功能。-Import this fenci.jar into user s project, and call it in the .java file to segment Chinese words
ChineseWordsDemo
- 中文分词系统的java源代码,中文分词中文分词中文分词中文分词-Chinese word java
InPutTextFile
- java中文分词系统,很好用的。欢迎下载与修改,并提出宝贵意见。-chinese words splitting system