CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 搜索资源 - 分词

搜索资源列表

  1. GBKhash

    0下载:
  2. 利用了GBK编码的hash表,快速进行汉语分词的自然语言程序-Advantage of the GBK-encoded hash table, fast Chinese word segmentation of natural language program
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-13
    • 文件大小:1964
    • 提供者:海铭
  1. 33753115ktdictseg_v1.0.01

    0下载:
  2. 中文分词算法,效率很高,使用词典树装搜索进行单词切割,并提供扩充词库的函数-It s an arithmetc of word segment,it has a very high efficiency!
  3. 所属分类:Search Engine

    • 发布日期:2017-03-30
    • 文件大小:37391
    • 提供者:郭刚
  1. SharpICTCLAS

    0下载:
  2. ICTCLAS分词的总体流程包括:1)初步分词;2)词性标注;3)人名、地名识别;4)重新分词;5)重新词性标注这五步。就第一步分词而言,又细分成:1)原子切分;2)找出原子之间所有可能的组词方案;3)N-最短路径中文词语粗分三步。 在所有内容中,词典库的读取是最基本的功能。ICTCLAS中词典存放在Data目录中,常用的词典包括coreDict.dct(词典库)、BigramDict.dct(词与词间的关联库)、nr.dct(人名库)、ns.dct(地名库)、tr.dct(翻译人名库
  3. 所属分类:Search Engine

    • 发布日期:2017-04-09
    • 文件大小:1964863
    • 提供者:ounata
  1. mmtrie

    0下载:
  2. 写这个的出发点是吧之前做的trie能写到文件而且能很容易mmap到内存, 可以用于输入法 搜索引擎分词 词表的功能, 共享前缀存储, 支持最大20亿节点. 简单一点可以当一个hash表使用, 查找的时间复杂度为 N* Log(256) N为字符长度, key可以为二进制的数据, value 必须为int类型, 不能为0, 因为mmtrie_get()/find() 没有结果的情况下为0, 如果需要set value为0的话自己+1, 出来的时候-1就好了.-Write the start
  3. 所属分类:Linux-Unix program

    • 发布日期:2017-04-03
    • 文件大小:5200
    • 提供者:王涛
  1. fenci

    0下载:
  2. 分词,很有帮助,可以直接用,转移到自己的函数里,免费下载-Word, helpful, and can be transferred to their function, the free download
  3. 所属分类:Search Engine

    • 发布日期:2017-04-04
    • 文件大小:19764
    • 提供者:韩兴凯
  1. ICTCLAS2010CSharpDemo

    0下载:
  2. 中文分词源程序, 中文词法分析是中文信息处理的基础与关键。中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级6次,目前已经升级到了ICTCLAS3.0。ICTCLAS3.0分词速度单机996KB/s,分词精度98.45
  3. 所属分类:Search Engine

    • 发布日期:2017-03-30
    • 文件大小:93050
    • 提供者:Liuying
  1. ShuzhenAnalyzer-1.1.8-jdk1.6.0

    0下载:
  2. 中文分词 ShuzhenAnalyzer 可用于将文档中词进行划分,比较好用-Word cut using java
  3. 所属分类:File Operate

    • 发布日期:2017-03-31
    • 文件大小:836749
    • 提供者:李明
  1. VC2010

    0下载:
  2. VC调用中科院分词2010版组件的最新源码! 中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级8次,目前已经升级到了ICTCLAS2010!-VC call to Word 2010 version of t
  3. 所属分类:Compiler program

    • 发布日期:2017-05-23
    • 文件大小:7228362
    • 提供者:胡名
  1. lucene.net_search

    0下载:
  2. lucene.net 中文分词 分页高月显示
  3. 所属分类:CSharp

    • 发布日期:2017-05-13
    • 文件大小:3362696
    • 提供者:ffff ffff
  1. mySegment

    0下载:
  2. 类库程序,基于词典的简单分词,可分中英文混合的情况-Simple dictionary-based segmentation procedure
  3. 所属分类:Search Engine

    • 发布日期:2017-03-31
    • 文件大小:655921
    • 提供者:shy
  1. fenci

    0下载:
  2. 中文分词,可将文件划分词性,有词库,可添加新词-Use LR analysis of the compiler, may realize the words and grammar, semantics analysi
  3. 所属分类:MultiLanguage

    • 发布日期:2017-05-08
    • 文件大小:1723392
    • 提供者:宋显赫
  1. splitword

    0下载:
  2. 基于VC++6.0的中文分词程序。内含词典。-VC++6.0 based Chinese word segmentation procedure. Embedded dictionary.
  3. 所属分类:Search Engine

    • 发布日期:2017-05-10
    • 文件大小:2136223
    • 提供者:yang
  1. 1

    0下载:
  2. 中文分词在中文信息处理中是最最基础的,无论机器翻译亦或信息检索还是其他相关应用,如果涉及中文,都离不开中文分词,因此中文分词具有极高的地位。中文分词入门最简单应该是最大匹配法了-Chinese word segmentation in Chinese information processing is the most basic, whether in machine translation Yihuo information retrieval, or other related appli
  3. 所属分类:Search Engine

    • 发布日期:2017-04-01
    • 文件大小:60096
    • 提供者:随风
  1. svmcls-(2)

    0下载:
  2. 李荣陆老师做的文本分类器,用中科院分词系统做的,分类方法用的是SVM和K-Rong Lu teachers do text classification, word segmentation system with the Chinese Academy of Sciences to do, classification using a SVM and KNN
  3. 所属分类:Other windows programs

    • 发布日期:2017-05-27
    • 文件大小:10011540
    • 提供者:wulili
  1. ICTCLAS50_Linux_RHAS_64_JNI

    0下载:
  2. 中科院中文分词程序,国内相关领域的的权威.这是Java(JNI)64位版-Institute of Chinese word segmentation program, the domestic authority of the relevant fields, which is Java (JNI) 64-bit version
  3. 所属分类:Linux-Unix program

    • 发布日期:2017-05-26
    • 文件大小:9123458
    • 提供者:三角函数
  1. jieba分词

    0下载:
  2. jieba 的java分词包,一般都是python的包,这个可用于java的jieba分词(Jieba Java word segmentation package, generally Python package, this can be used for the Java Jieba participle)
  3. 所属分类:其他

    • 发布日期:2017-12-16
    • 文件大小:1970176
    • 提供者:xiexie2011
  1. CWSS17.1.1.4

    0下载:
  2. 基于隐马尔科夫模型的中文分词系统,上交ieee专业大一作业,界面一般,主要用于学习,在此分享,注:开发环境python3.5(Based on Hidden Markov model of Chinese word segmentation system, on the IEEE professional freshman job, interface is common, mainly used for learning, in this share, note: development en
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2017-12-18
    • 文件大小:50023424
    • 提供者:Empty_Life
  1. UyghurTextHelper

    0下载:
  2. 进行维吾尔语分词分句功能,用python语言进行基本的维吾尔语语言处理方法(Uyghur word segmentation function)
  3. 所属分类:其他

    • 发布日期:2017-12-29
    • 文件大小:2048
    • 提供者:mayor0312
  1. apache-cxf-3.0.9

    0下载:
  2. 分词分析 软件复用是在软件开发中避免重复劳动的解决方案。Web服务实现了业务级别的软件复用,例如在B2B的集成中,各企业之间通过互相调用Web服务,实现了Web服务的共享,Web服务的使用企业不需要再重新开发其他企业中已经存在的服务。(Segmentation analysis)
  3. 所属分类:其他

    • 发布日期:2017-12-27
    • 文件大小:42935296
    • 提供者:gnitelon
  1. ansj_seg-master

    0下载:
  2. ansj_seg-master中文分词安装包(附带安装说明,详情请点击里面的README.md)(Ansj_seg-master Chinese word segmentation package (attached installation instructions, please click on the details of the README.md))
  3. 所属分类:其他

    • 发布日期:2017-12-21
    • 文件大小:24203264
    • 提供者:flippedkiki
« 1 2 3 4 5 6 7 89 10 11 12 13 ... 50 »
搜珍网 www.dssz.com