搜索资源列表
ICTCLAS
- 中科院的分词程序 可得到比较满意的分词结果 正确率较高
WordSeg
- 这是一个中文分词程序。用户将中文文件(.txt)打开,点分词后可看到分词结果。开源。
segment
- segment,一个简单的中文分词程序,命令行如下: java -jar segmenter.jar [-b|-g|-8|-s|-t] inputfile.txt -b Big5, -g GB2312, -8 UTF-8, -s simp. chars, -t trad. chars Segmented text will be saved to inputfile.txt.seg
autosplit
- 中文自动分类分词程序,已经打包成dll,里面有说明
fenci
- 一个简单的分词程序,里面有代码和词库,编译连接后在命令行里运行
paoding
- paoding的中文分词程序,效果还可以.这个可以作为一些基本应用的分词.
fenci
- 分词程序,HMM模型训练,维特比解码,有说明文档。
ChineseTokenizer
- 用C#写的中文分词程序,还没有编译,有需要的编译一下吧
wordsegmenter_0.2.2_src
- 这是用C写的中文分词程序,还没通过编译,有需要的大家
WordSegmentation.rar
- 很久以前做的最大概率法分词程序,语料比较大,Maximum probability method for Word Segmentation
TextClassify
- 应用中科院的分词程序,调用它的接口,从而实现简单的文档分词!-Chinese Academy of Sciences of the sub-word application procedures, call its interface, in order to achieve a simple word document points!
ICTPOS3.0.rar
- 中科院中文分词程序ICTCLAS的汉语词性标记集,Chinese word segmentation procedure, Chinese Academy of Sciences of the Chinese part of speech tag ICTCLAS Set
zhongwenfenci
- 使用字典的中文分词程序 输入: Dic.txt: 词典文件 Target.txt: 目标文件 输出: Result_back.txt:后向分词的结果 Result_front.txt:前向分词的结果 Result.txt: 双向扫描,对词频统计分析得到的结果 -The Chinese word dictionary program input: Dic.txt: dictionary file Target.txt: Target file output
Auto_WordSeg
- 自动分词程序演示。包括最大、最小,正向、逆向等分词算法。-Automatic word segmentation procedure demonstrates. Including the largest, smallest, positive, reverse algorithm.
lrzsz_0.12b.tar
- Debian Linux下的通讯程序 -The communication example for Debian Linux
nokiacomposer.src
- Nokia手机语音管理程序,如上载音乐等。-Nokia handset pronunciation executive program, like uploads the music and so on.
SimpleSplit
- 自己写的简单分词程序,能够识别中英文,标点符号,数字等,但是速度不是很理想,其中思想可以供大家参考!-Himself wrote a simple segmentation procedure can identify in both Chinese and English, punctuation, numbers, etc., but the speed is not very ideal, in which ideas can be for your reference!
WordNet-InfoContent-3.0.tar
- wordnet 压缩包,分词程序-WordNet compressed bales segmentation procedures
1234568
- 中文信息逆向分词程序 是用api实现的-Chinese Information reverse segmentation process is achieved by api
HJ_SegWord_GBK
- 好不容易找到的一个php分词程序,很好的,里面包含了10万词条-Hard to find a php segmentation procedures, very good, which contains 100,000 entries