搜索资源列表
je-analysis-1.4.0
- 基于java的中文分词系统,直接更改扩展名为jar即可。暂无源码提供
webfenci
- 分词程序//db.executeUpdate(\"UPDATE article SET tag= \"+server.codestring(tempword)+\" WHERE id=\"+id+\"\") out.print(\"原题目:\"+title+\"<br>\"+\"分词结果:\"+tempword+\"<br>\") //System.out.println(\"id:\"+id+\"---原题目:\"+title) //System.ou
src
- Java写的一个简单分词词库。效果还不错。
ictclas4j
- 基于中科院的ICTCLAS实现中文分词系统 开发工具是JAVA.经测试,效果很好
paoding-analysis-2.0.4-alpha2
- 对Lcuene的良好的封装,提供了中文分词字典 功能强大
fenci
- 支持java的中文分词程序-support the Chinese word segmentation procedures
nicewords_2.0.0128_for_3790_4659.tar.dezend_cc_php
- Nicewords-Dzend版 Nicewords是由工作在顶级门户网站的几名资深高级工程师利用爬虫技术(蜘蛛机器人,spider)、分词技术和网页萃取技术,结合白帽SEO(规避了一切风险的搜索引擎优化),利用URL重写技术、缓存技术,使用PHP语言开发的一套能根据设置的关键词自动抓取互联网上的相关信息、自动更新的WEB智能建站系统。利用NiceWords智能建站系统,只需要在配置页面上设置几个关键词,NiceWords就能全自动的生成一套能自动更新的网站了。 您要做的仅仅是设置几个关键词
perlfenci
- 一个简单的中文分词perl脚本,准确率比中科院的那个组件差点,但是全源码公开,可以扩展
src_seg(java)
- 一个用java语言编写的中文文本分词算法
HLSSplit
- 重新写的海量分词研究版的JNI程序,对以前的不能使用import的问题进行修改,没有使用时间限制,做了几个方便用的接口。
javapiler
- 编译原理课程实验,在VC平台实现了java语言的分词程序
fenci
- java版的分词程序,可以灵活生成添加字典。
src
- 基于词典的最大分词算法 达到很好的分词准确率
paoding-analysis-2.0.1(UTF-8)
- 庖丁分词模块,对中文分词效果不错,可以好好学习
doc
- 中文分词但事实上生生世世 搜索
ictclas4j_3
- 贝叶斯公式,文本分类,中文分词,在eclipse下打包重新编译通过的,方便实用和开发。
java1
- 一个java的分词程序,希望对大家有用,分词的效率还可以
src
- 一个用于搜索分词的项目,已经内置了10万的词汇量
paoding-analysis-2.0.4-beta
- 又一个中文分词组件,作者自称很牛,企业级的,字库很多。也可直接用于lucene索引和搜索。
segmenter
- 一个简单有效的中文分词算法,包含正向最大匹配算法,java实现。