搜索资源列表
svm_multiClass
- svm(支持向量机)分类算法本质上是二类分类器,实现多类分类的方法一般是将多类分类看作是多个一对多的二类分类器。本程序就是基于svmlight的svm多类分类器实现。对分类感兴趣的用户请参照。配合中文分词(参见我上传的程序),可实现中文多类分本分类。
paoding-analysis-2.0.4-alpha2
- 对Lcuene的良好的封装,提供了中文分词字典 功能强大
Uindex.Src
- Uindex是一个开放源代码的搜索引擎,网页搜索量定位在千万量级,目前提供从蜘蛛程序、中文分词到建立全文索引的全部工具程序,FTP搜索提供基于文件名的检索,支持常见的FTP服务器。
fenci
- 支持java的中文分词程序-support the Chinese word segmentation procedures
SentenceSplitter
- .NET写的中文分词组件, 适用于小型搜索引擎中文分词。
fc_src
- 中文分词?形姆执手 形姆执蔶ava版
MMSeg
- 分词算法描述,用于中文分词,供大家参考,互相学习
perlfenci
- 一个简单的中文分词perl脚本,准确率比中科院的那个组件差点,但是全源码公开,可以扩展
k50RVZDojs03
- 基于IKAnalyzer分词算法的准商业化Lucene中文分词器
Lexicon_full_2000
- 这是一个词库,对于那些做中文分词的人很有帮助的,是2000年的
ACWPS_55824
- 中文分词系统,有兴趣的,可以下载,研究下,
lucene+mysql+eclipe
- lucene+mysql+eclipe开发实例,实现了分页和中文分词。欢迎交流qq:276367673
WordSpli
- 基于ictclas的中文分词系统在Eclipse3.3中的使用例子
IKAnalyzer
- IKAnalyzer是中文分词工具,基于lucene2.0版本API开发,实现了以词典分词为基础的正反向全切分算法,是Lucene Analyzer接口的实现,这个是.Net版本,含有源代码
lunce-IKAnalyzer
- 中文分词工具,利用lucence的接口写的,进行最长匹配,正向和反向匹配后根据词数选择。别人写的,我用了,觉得不错,简单,上手快
ChinesePase
- 好用的中文分词算法 好不容易才搞到的 好用的中文分词算法
segment
- segment,一个简单的中文分词程序,命令行如下: java -jar segmenter.jar [-b|-g|-8|-s|-t] inputfile.txt -b Big5, -g GB2312, -8 UTF-8, -s simp. chars, -t trad. chars Segmented text will be saved to inputfile.txt.seg
cidian
- 基于最大匹配算法的的中文分词组件,达到很好的分词准确率
paoding-analysis-2.0.1(UTF-8)
- 庖丁分词模块,对中文分词效果不错,可以好好学习
doc
- 中文分词但事实上生生世世 搜索