CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 其它 搜索资源 - 中文 分词 算法

搜索资源列表

  1. MySeg

    0下载:
  2. 最短路径法分词程序。将中文句子经过原子切分后生成一个有向无环图,然后使用Dijkstra算法求出由起点到终点的最短路径以实现中文分词。-shortest path method participle procedures. Chinese Sentence will be read after splitting atoms generated a directed acyclic graph. then use the Dijkstra algorithm derived from the s
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:426496
    • 提供者:周景荣
  1. ShootSearch_path_for_bate_1.0

    0下载:
  2. 一段关于中文信息分类的分词算法,他实现了信息过滤中的分词,为信息过滤的分类打下基础-section on the classification of information in Chinese word segmentation algorithm, he realized the information filtering the word, Information filtering to lay the foundation for the classification
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:298435
    • 提供者:朱振方
  1. mmseg-v0.1

    0下载:
  2. 基于词典和最大匹配算法的的中文分词组件,达到很好的分词准确率-Dictionary and the largest based on the matching algorithm of the Chinese word segmentation components, to achieve good word accuracy rate
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:607478
    • 提供者:binger
  1. AutoSpliter

    0下载:
  2. 用于中文分词的算法。包括逆向分词和反向分词-for Chinese word segmentation algorithm. Including reverse and reverse word segmentation
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:1187527
    • 提供者:高照光
  1. ChineseAnalyzer

    1下载:
  2. lucene.net 2.0的中文分词器,采用最大向前匹配算法,附上源代码和lucene.net.dll,希望这方面有兴趣的互相交流一下。
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:881569
    • 提供者:杨秀云霁
  1. word_vc

    0下载:
  2. vc++实现的基于字典的中文分词算法,基于贝耶斯网络的概率中文分词算法,以及文本相似程度比较的算法。
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:1139201
    • 提供者:ye wang
  1. svm_multiClass

    0下载:
  2. svm(支持向量机)分类算法本质上是二类分类器,实现多类分类的方法一般是将多类分类看作是多个一对多的二类分类器。本程序就是基于svmlight的svm多类分类器实现。对分类感兴趣的用户请参照。配合中文分词(参见我上传的程序),可实现中文多类分本分类。
  3. 所属分类:中文信息处理

    • 发布日期:2014-01-18
    • 文件大小:566638
    • 提供者:maming
  1. ChinesePase

    0下载:
  2. 好用的中文分词算法 好不容易才搞到的 好用的中文分词算法
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:62478
    • 提供者:淡林
  1. cidian

    0下载:
  2. 基于最大匹配算法的的中文分词组件,达到很好的分词准确率
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:31957
    • 提供者:大宝
  1. hash结构最大逆向中文分词算法

    1下载:
  2. 建立hash结构的中文词典,并实现了最大逆向中文分词算法
  3. 所属分类:中文信息处理

    • 发布日期:2010-12-21
    • 文件大小:720960
    • 提供者:shef66
  1. 中文分词

    1下载:
  2. 一个不错的简单有效的中文分词算法, 可以做为研究中文的一个好例子
  3. 所属分类:中文信息处理

    • 发布日期:2011-02-24
    • 文件大小:5479885
    • 提供者:chenjia6605
  1. 中文分词系统

    1下载:
  2. 一个简单有效中文分词算法, 可以学习研究
  3. 所属分类:中文信息处理

    • 发布日期:2011-02-24
    • 文件大小:2838231
    • 提供者:chenjia6605
  1. SW_I_WordSegment

    0下载:
  2. SW-I中文分词算法,MFC程序,在visual studio 2008中调试通过。默认词库为mdb,由于较大未包含在源文件中,请自行下载mdb格式的词典。-SW-I Chinese word segmentation algorithm, MFC procedures, visual studio 2008 in debug through. Default thesaurus for the mdb, as a result of the larger not included in the
  3. 所属分类:MultiLanguage

    • 发布日期:2017-06-01
    • 文件大小:13929170
    • 提供者:
  1. OpenCNSegmenter

    0下载:
  2. 中文分词,可以将中文的句子按照单词进行切分,很优秀的算法,在网络中得到-Chinese word segmentation, Chinese sentence can be carried out in accordance with the word segmentation, it is excellent algorithm, in the network have been
  3. 所属分类:MultiLanguage

    • 发布日期:2017-05-13
    • 文件大小:684206
    • 提供者:wenliang
  1. 中文分词算法

    0下载:
  2. 本程序使用给出的字典进行学习并对训练语料进行分词处理,采用C语言编写,高效易懂!
  3. 所属分类:中文信息处理

    • 发布日期:2012-10-28
    • 文件大小:2105335
    • 提供者:jessica9421
  1. wordsegment1

    0下载:
  2. 中文分词算法,效率很高,使用词典树装搜索进行单词切割,并提供扩充词库的函数!-It s an arithmetc of word segment,it has a very high efficiency!
  3. 所属分类:MultiLanguage

    • 发布日期:2017-05-02
    • 文件大小:771065
    • 提供者:lsc
  1. beiyes

    0下载:
  2. 贝叶斯网络概率中文分词算法,基于概率的分词算法-Bayesian network probability of Chinese word segmentation algorithm, based on the probability of word segmentation algorithm
  3. 所属分类:MultiLanguage

    • 发布日期:2017-04-10
    • 文件大小:1139205
    • 提供者:wangzhen
  1. imdict-chinese-analyzer

    1下载:
  2. imdict-chinese-analyzer 是 imdict智能词典 的智能中文分词模块,算法基于隐马尔科夫模型(Hidden Markov Model, HMM),是中国科学院计算技术研究所的ictclas中文分词程序的重新实现(基于Java),可以直接为lucene搜索引擎提供简体中文分词支持。-imdict-chinese-analyzer is a smart imdict Chinese Dictionary smart module segmentation algorithm
  3. 所属分类:MultiLanguage

    • 发布日期:2016-07-06
    • 文件大小:3255959
    • 提供者:王同
  1. Dictory

    1下载:
  2. 用B-树作为查找存储结构,对中文单词进行哈希,用最长逆向匹配算法进行中文句段分词,实现中文词典以及分词。中文词典规模为十万八千多词汇。分词的正确率在90 以上。-Use the B-tree as storage structure , and hash the Chinese word while storing or searching. Use the longest reverse matching algorithm to split Chinese sentence to word
  3. 所属分类:MultiLanguage

    • 发布日期:2014-12-28
    • 文件大小:798764
    • 提供者:康维鹏
  1. 基于mmseg算法的一个轻量级中文分词器

    0下载:
  2. 基于mmseg算法的一个轻量级开源中文分词器(A lightweight open source Chinese word segmentation based on the mmseg algorithm)
  3. 所属分类:中间件编程

    • 发布日期:2018-05-02
    • 文件大小:2060288
    • 提供者:孤独的老张
« 12 »
搜珍网 www.dssz.com