CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 搜索资源 - 中文 分词 算法

搜索资源列表

  1. 2006111

    1下载:
  2. 支持英文、数字、中文(简体)混合分词 常用的数量和人名的匹配 超过22万词的词库整理 实现正向最大匹配算法 智能数字,日期,人名识别。-support English, figures, Chinese (simplified) mixed at the number of commonly used words and the names of more than 220,000 matching word thesaurus finishing achieve the greatest po
  3. 所属分类:图形/文字识别

    • 发布日期:2008-10-13
    • 文件大小:37291
    • 提供者:王成平
  1. dedesplit

    0下载:
  2. 中文切词,非常优秀特此推荐。是目前分词效率较高的算法-Chinese segmentation, hereby commend outstanding. Segmentation is more efficient algorithm
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:677929
    • 提供者:wu guangyin
  1. ProbWordSeg

    0下载:
  2. 中文信息处理方面的一个源码。此为一个分词软件,这个分词的算法虽然简单,但是原理和其他相同,是最大概率法分次。功能强大,代码简洁易懂。
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:87434
    • 提供者:robert
  1. ProbWordSeg

    0下载:
  2. 最大概率分词法.中文信息处理方面的一个源码。此为一个分词软件,这个分词的算法虽然简单,但是原理和其他相同,是最大概率法分次。功能强大,代码简洁易懂
  3. 所属分类:界面编程

    • 发布日期:2008-10-13
    • 文件大小:3505353
    • 提供者:李雅芳
  1. GP

    0下载:
  2. 一个简单的中文分词系统,基于正向最大匹配算法和逆向最大匹配算法。-A simple Chinese word segmentation system, based on the forward and reverse maximum matching algorithm maximum matching algorithm.
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-06-03
    • 文件大小:15278996
    • 提供者:董旭
  1. Chinese-Word-Segmentation

    0下载:
  2. Chinese Word Segmentation 中文分词 python2.7.5代码,自己编写亲测可用,最大整下匹配算法效果良好-Chinese Word Segmentation
  3. 所属分类:Other systems

    • 发布日期:2017-05-24
    • 文件大小:3399875
    • 提供者:Lorenzo
  1. chinese-word-ppl

    0下载:
  2. 中文分词以及具有简单界面中文分词系统,使用双向匹配算法,并可选择算法不同进行分词-Chinese word segmentation, and has a simple interface Chinese word segmentation system
  3. 所属分类:CSharp

    • 发布日期:2017-05-06
    • 文件大小:1394082
    • 提供者:wyp
  1. nixiang

    0下载:
  2. 最新逆向最大匹配分词算法 盘古分词 分词算法 中文分词 源码-New reverse maximum matching word segmentation algorithm Pangu Chinese word segmentation algorithm source
  3. 所属分类:.net

    • 发布日期:2017-04-10
    • 文件大小:1203667
    • 提供者:李果果
  1. automatic-word-segmentation

    0下载:
  2. 实现一个中文自动分词程序,所使用的编程语言不限 选作:对人名,地名,机构名的识别 下载北大计算语言所标注的99年人民日报分词语料库,构建一个词表 实现正向、逆向最大分词算法-To implement a Chinese automatic word segmentation procedure, used by any programming language Chosen for: the person names, place names, organization name
  3. 所属分类:Compress-Decompress algrithms

    • 发布日期:2017-04-03
    • 文件大小:426197
    • 提供者:黄艳玲
  1. FreeICTCLAS

    0下载:
  2. 对中文进行分词,c++实现多中文文本的分词算法-Using java prepared tf* idf results
  3. 所属分类:Algorithm

    • 发布日期:2017-05-13
    • 文件大小:2717670
    • 提供者:静静
  1. Word_Seg1

    0下载:
  2. 分词算法本实验采用已有的分词算法——双向匹配算法,对中文分词进行研究,以获取与了解中文分词的知识。双向匹配算法综合了正向最大匹配算法与逆向最大匹配算法,以提高中文分词的正确率。-word participles
  3. 所属分类:Other systems

    • 发布日期:2017-05-11
    • 文件大小:2333780
    • 提供者:侯小爱
  1. fenci

    0下载:
  2. 运用正向最大匹配算法和反向最大匹配算法,在已有预料库的基础上实现中文分词-The maximum matching algorithm using forward and reverse maximum matching algorithm, the library has been implemented on the basis of expected Chinese word
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-17
    • 文件大小:4175947
    • 提供者:吴佩
  1. Program1

    0下载:
  2. 这是中文信息处理的分词算法实现,具有很高的正确率和使用价值!这是分词算法的核心内容!具有很高的参考价值。-The text clustering algorithm based on text similarity computing research and implementation, this is an important branch of Chinese information processing.
  3. 所属分类:Data structs

    • 发布日期:2017-05-20
    • 文件大小:5684999
    • 提供者:张明
  1. BP-neural-network--based-on-Joone

    0下载:
  2. 基于joone编写的bp神经网络算法,并用到中文分词中,其中以“这支歌太平淡无味了”分词为例, 这支/歌/太/平淡/无味/了 为正确结果,分别获取两者的unicode的二进制形式作为输入样本和期望样本进行训练和测试。-Based joone written bp neural network algorithm, and used in Chinese word, unicode binary form as the input sample and expectations samples f
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-16
    • 文件大小:13216
    • 提供者:huangke
  1. cppjieba-master

    0下载:
  2. 中文分词功能,采用统计学习算法来实现,准确率较高-Chinese word function, using statistical learning algorithms to achieve high accuracy
  3. 所属分类:Data structs

    • 发布日期:2017-05-25
    • 文件大小:8361942
    • 提供者:liweiqing
  1. IKAnalyzer

    0下载:
  2. IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 -IKAnalyzer is an open source, lightweight java-based de
  3. 所属分类:Compress-Decompress algrithms

    • 发布日期:2017-05-09
    • 文件大小:1741741
    • 提供者:黄生
  1. divide

    2下载:
  2. 采用正向最大匹配算法实现中文分词,基于matlab2013编程-MATLAB code
  3. 所属分类:数据结构常用算法

    • 发布日期:2017-04-26
    • 文件大小:619
    • 提供者:sun
  1. matlab程序

    1下载:
  2. 用于计算中文分词的正向最大匹配算法、基于matlab语言的设计(Forward maximum matching algorithm for computing Chinese word segmentation.)
  3. 所属分类:Windows编程

    • 发布日期:2017-12-26
    • 文件大小:234496
    • 提供者:ly206452
  1. HanLP-1.3.4_20170616

    0下载:
  2. 目前流行的,中文分词核心软件包!可以实现多种算法的分词结果!(Chinese word segment package)
  3. 所属分类:其他

    • 发布日期:2017-12-31
    • 文件大小:9088000
    • 提供者:ZFNotes
  1. Alice

    0下载:
  2. 支持中文的alice,中文分词采用的是mmseg算法(alice with mmseg support chinese,need download mmseg4j.jar.)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2018-04-28
    • 文件大小:2290688
    • 提供者:亮亮1987
« 1 2 3 4 56 »
搜珍网 www.dssz.com