CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 搜索资源 - 中文分词

搜索资源列表

  1. word_vc

    0下载:
  2. vc++实现的基于字典的中文分词算法,基于贝耶斯网络的概率中文分词算法,以及文本相似程度比较的算法。
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:1139201
    • 提供者:ye wang
  1. framework

    0下载:
  2. 基于最短路径的中文分词,自己写的,不足之处仅供参考。
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:402066
    • 提供者:何伟
  1. baidu

    0下载:
  2. 百度以前用的中文分词词典,希望对大家有一点帮助
  3. 所属分类:其它

    • 发布日期:2014-01-17
    • 文件大小:353965
    • 提供者:李欣
  1. 2txt_ictclas

    0下载:
  2. pdf,html,ps等转txt的头文件和库。还包括ictclas中科院计算所的中文分词工具有.h和.lib和.d
  3. 所属分类:中文信息处理

    • 发布日期:2014-01-17
    • 文件大小:426674
    • 提供者:杜亮
  1. ThesaurusAnalyzer

    0下载:
  2. lucene中文分词代码 带有19万字的词典 本分词程序的效果取决与词库.您可以用自己的词库替换程序自带的词库.词库是一个文本文件,名称为word.txt. 每一行一个词语,以#开头表示跳过改行.最后保存为UTF-8的文本.
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:1402816
    • 提供者:陈锦
  1. WordSeg

    0下载:
  2. 这是一个中文分词程序。用户将中文文件(.txt)打开,点分词后可看到分词结果。开源。
  3. 所属分类:中文信息处理

    • 发布日期:2014-01-18
    • 文件大小:1252762
    • 提供者:maming
  1. svm_multiClass

    0下载:
  2. svm(支持向量机)分类算法本质上是二类分类器,实现多类分类的方法一般是将多类分类看作是多个一对多的二类分类器。本程序就是基于svmlight的svm多类分类器实现。对分类感兴趣的用户请参照。配合中文分词(参见我上传的程序),可实现中文多类分本分类。
  3. 所属分类:中文信息处理

    • 发布日期:2014-01-18
    • 文件大小:566638
    • 提供者:maming
  1. Uindex.Src

    1下载:
  2.    Uindex是一个开放源代码的搜索引擎,网页搜索量定位在千万量级,目前提供从蜘蛛程序、中文分词到建立全文索引的全部工具程序,FTP搜索提供基于文件名的检索,支持常见的FTP服务器。
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:2766846
    • 提供者:weir
  1. SentenceSplitter

    0下载:
  2. .NET写的中文分词组件, 适用于小型搜索引擎中文分词。
  3. 所属分类:数据结构常用算法

    • 发布日期:2008-10-13
    • 文件大小:17687
    • 提供者:白水
  1. fc_src

    0下载:
  2. 中文分词?形姆执手 形姆执蔶ava版
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:13995
    • 提供者:helloyk
  1. MMSeg

    0下载:
  2. 分词算法描述,用于中文分词,供大家参考,互相学习
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:4054
    • 提供者:赵伟娟
  1. k50RVZDojs03

    0下载:
  2. 基于IKAnalyzer分词算法的准商业化Lucene中文分词器
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:789659
    • 提供者:罗晓鸣
  1. Lexicon_full_2000

    0下载:
  2. 这是一个词库,对于那些做中文分词的人很有帮助的,是2000年的
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:5768826
    • 提供者:张金山
  1. ACWPS_55824

    0下载:
  2. 中文分词系统,有兴趣的,可以下载,研究下,
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:3371404
    • 提供者:ww
  1. lucene+mysql+eclipe

    0下载:
  2. lucene+mysql+eclipe开发实例,实现了分页和中文分词。欢迎交流qq:276367673
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:7415106
    • 提供者:shen
  1. WordSpli

    0下载:
  2. 基于ictclas的中文分词系统在Eclipse3.3中的使用例子
  3. 所属分类:编译器/词法分析

    • 发布日期:2008-10-13
    • 文件大小:2399666
    • 提供者:ivor
  1. IKAnalyzer

    0下载:
  2. IKAnalyzer是中文分词工具,基于lucene2.0版本API开发,实现了以词典分词为基础的正反向全切分算法,是Lucene Analyzer接口的实现,这个是.Net版本,含有源代码
  3. 所属分类:.net编程

    • 发布日期:2008-10-13
    • 文件大小:1905346
    • 提供者:Jingtian Jiang
  1. lunce-IKAnalyzer

    0下载:
  2. 中文分词工具,利用lucence的接口写的,进行最长匹配,正向和反向匹配后根据词数选择。别人写的,我用了,觉得不错,简单,上手快
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:868585
    • 提供者:xielang
  1. ChinesePase

    0下载:
  2. 好用的中文分词算法 好不容易才搞到的 好用的中文分词算法
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:62478
    • 提供者:淡林
  1. segment

    0下载:
  2. segment,一个简单的中文分词程序,命令行如下: java -jar segmenter.jar [-b|-g|-8|-s|-t] inputfile.txt -b Big5, -g GB2312, -8 UTF-8, -s simp. chars, -t trad. chars Segmented text will be saved to inputfile.txt.seg
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:1621523
    • 提供者:lori
« 1 2 ... 4 5 6 7 8 910 11 12 13 14 ... 26 »
搜珍网 www.dssz.com