CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 搜索资源 - 分词程序

搜索资源列表

  1. MFC查词典、分词、词频统计程序

    1下载:
  2. MFC编程,功能是查词典(用户可自己导入文本),分词,统计词频,还可以保存结果!我们MFC课的期末作业,强烈推荐!-MFC programming function is to check dictionary (users can import their own version), participle, statistical, frequency, the results can be saved! We MFC class at the end operations, strongly
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:931914
    • 提供者:唐瑜
  1. 本程序可以实现对已有网页的信息提取和分词

    0下载:
  2. 本程序可以实现对已有网页的信息提取和分词,结果会导入叫做res.txt的文件中。本程序是开发搜索引擎的前期工作。-This procedure can be achieved on existing Web information extraction and segmentation, the results into a file called res.txt. This program is the development of the preliminary work the searc
  3. 所属分类:搜索引擎

    • 发布日期:2017-03-23
    • 文件大小:1004275
    • 提供者:风云漂泊
  1. Free ICTCLAS 中科院的分词软件ICTCLAS

    0下载:
  2. 中科院的分词软件ICTCLAS,自己已经把他用到程序里了感觉效果很好,分享给大家-Chinese Academy of Sciences of the sub-word software ICTCLAS, he has used his program works well in a sense, we share
  3. 所属分类:中文信息处理

    • 发布日期:2016-01-25
    • 文件大小:3113984
    • 提供者:hwp
  1. Chinese-Segmentation.rar

    0下载:
  2. 自己编写的中文分词源程序,用vc++编写,附有完整的文档,以及标准的分词数据库,I have written the source code of the Chinese word segmentation, using vc++ to prepare, with complete documentation, as well as sub-standard speech database
  3. 所属分类:MultiLanguage

    • 发布日期:2017-05-26
    • 文件大小:8994901
    • 提供者:tanyi
  1. windows_c_32.rar

    0下载:
  2. 中国科学院的最新版本的中文分析程序,可以进行分词、词性标注等,The latest version of the Chinese Academy of Sciences of the Chinese language analysis procedures, can be sub-word-of-speech tagging, etc.
  3. 所属分类:MultiLanguage

    • 发布日期:2017-05-27
    • 文件大小:10316262
    • 提供者:weiwei
  1. SW_I_WordSegment

    0下载:
  2. SW-I中文分词算法,MFC程序,在visual studio 2008中调试通过。默认词库为mdb,由于较大未包含在源文件中,请自行下载mdb格式的词典。-SW-I Chinese word segmentation algorithm, MFC procedures, visual studio 2008 in debug through. Default thesaurus for the mdb, as a result of the larger not included in the
  3. 所属分类:MultiLanguage

    • 发布日期:2017-06-01
    • 文件大小:13929170
    • 提供者:
  1. 中文分词算法

    0下载:
  2. 本程序使用给出的字典进行学习并对训练语料进行分词处理,采用C语言编写,高效易懂!
  3. 所属分类:中文信息处理

    • 发布日期:2012-10-28
    • 文件大小:2105335
    • 提供者:jessica9421
  1. text

    0下载:
  2. python写的gbk分词分句程序 可以使用sogou或者谷歌输入法的词库进行分词-python written procedures gbk participle clause can use Google sogou or input method for segmentation of the thesaurus
  3. 所属分类:MultiLanguage

    • 发布日期:2017-03-23
    • 文件大小:2252
    • 提供者:张一鸣
  1. MmFenCi

    0下载:
  2. 基于MM的分词算法,有兴趣者可以把程序中没有完成的部分继续。-MM sub-word based algorithm, are interested in can not complete the program part to continue.
  3. 所属分类:MultiLanguage

    • 发布日期:2017-05-10
    • 文件大小:56306
    • 提供者:zjh
  1. ChineseTokenizer

    0下载:
  2. 中文分词演示程序,可以对字符串进行按照词义分词。在搜索技术中有广泛应用。-Chinese Segmentation demo program can be carried out in accordance with the meaning of the string segmentation. In the search technology has wide application.
  3. 所属分类:MultiLanguage

    • 发布日期:2017-04-06
    • 文件大小:966582
    • 提供者:老农
  1. Chinesewordsegmentationprocedureforthecarving

    0下载:
  2. 中文分词分割程序Chinese word segmentation procedure for the carving-Chinese word segmentation procedure for the carving
  3. 所属分类:Other systems

    • 发布日期:2017-03-29
    • 文件大小:290173
    • 提供者:云梦若
  1. word_split

    0下载:
  2. 这个一个基于逆向最大匹配的分词程序,语料规模比较小。-The maximum matching based on the reverse of the sub-term process, relatively small-scale corpus.
  3. 所属分类:MultiLanguage

    • 发布日期:2017-04-09
    • 文件大小:1517543
    • 提供者:nancy
  1. imdict-chinese-analyzer

    1下载:
  2. imdict-chinese-analyzer 是 imdict智能词典 的智能中文分词模块,算法基于隐马尔科夫模型(Hidden Markov Model, HMM),是中国科学院计算技术研究所的ictclas中文分词程序的重新实现(基于Java),可以直接为lucene搜索引擎提供简体中文分词支持。-imdict-chinese-analyzer is a smart imdict Chinese Dictionary smart module segmentation algorithm
  3. 所属分类:MultiLanguage

    • 发布日期:2016-07-06
    • 文件大小:3255959
    • 提供者:王同
  1. KWICcase

    0下载:
  2. 实现关键词检索的一个程序,中文分词,自动检索-To achieve keyword search of a program, Chinese word segmentation, automatic search
  3. 所属分类:WinSock-NDIS

    • 发布日期:2017-03-30
    • 文件大小:4928
    • 提供者:shawn
  1. fenci

    0下载:
  2. 一个简单的基于词典分词的程序,lucene的分词程序不少,但有时候并不需要复杂的功能,只是需要简单的根据指定的词典分词。代码简单,可以作为学习参考-A simple dictionary-based word process, lucene procedures for sub-word a lot, but sometimes does not require complex functions, but only require a simple dictionary word accord
  3. 所属分类:Search Engine

    • 发布日期:2017-03-25
    • 文件大小:56112
    • 提供者:strayly
  1. IKAnalyzer3.1.1_userguide

    0下载:
  2. java分词程序,能够精确分词,包含词库等-java word program, word accurately, including the thesaurus, etc.
  3. 所属分类:MultiLanguage

    • 发布日期:2017-03-27
    • 文件大小:476551
    • 提供者:novo
  1. GBKhash

    0下载:
  2. 利用了GBK编码的hash表,快速进行汉语分词的自然语言程序-Advantage of the GBK-encoded hash table, fast Chinese word segmentation of natural language program
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-13
    • 文件大小:1964
    • 提供者:海铭
  1. splitword

    0下载:
  2. 基于VC++6.0的中文分词程序。内含词典。-VC++6.0 based Chinese word segmentation procedure. Embedded dictionary.
  3. 所属分类:Search Engine

    • 发布日期:2017-05-10
    • 文件大小:2136223
    • 提供者:yang
  1. ICTCLAS50_Linux_RHAS_64_JNI

    0下载:
  2. 中科院中文分词程序,国内相关领域的的权威.这是Java(JNI)64位版-Institute of Chinese word segmentation program, the domestic authority of the relevant fields, which is Java (JNI) 64-bit version
  3. 所属分类:Linux-Unix program

    • 发布日期:2017-05-26
    • 文件大小:9123458
    • 提供者:三角函数
  1. 20180306142010_ICTCLAS2016分词系统下载包

    0下载:
  2. 供中文文本挖掘程序员使用,训练文本挖掘能力(Chinese Corpus, used to exercise and test your ability of digging in Chinese Text)
  3. 所属分类:其他

    • 发布日期:2018-05-01
    • 文件大小:67431424
    • 提供者:耀完蛋
« 1 23 4 5 6 7 8 9 10 »
搜珍网 www.dssz.com