CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 搜索资源 - 中文分词

搜索资源列表

  1. fenci

    0下载:
  2. 中文分词 中文搜索引擎中的关键字识辨-Chinese word segmentation in Chinese search engine keywords that identify
  3. 所属分类:MultiLanguage

    • 发布日期:2017-05-13
    • 文件大小:3174095
    • 提供者:zsl
  1. wordsegment1

    0下载:
  2. 中文分词算法,效率很高,使用词典树装搜索进行单词切割,并提供扩充词库的函数!-It s an arithmetc of word segment,it has a very high efficiency!
  3. 所属分类:MultiLanguage

    • 发布日期:2017-05-02
    • 文件大小:771065
    • 提供者:lsc
  1. beiyes

    0下载:
  2. 贝叶斯网络概率中文分词算法,基于概率的分词算法-Bayesian network probability of Chinese word segmentation algorithm, based on the probability of word segmentation algorithm
  3. 所属分类:MultiLanguage

    • 发布日期:2017-04-10
    • 文件大小:1139205
    • 提供者:wangzhen
  1. src

    0下载:
  2. 利用lucene编写的一个简单搜索引擎,能够中文分词。-a simple search engine built with lucene.
  3. 所属分类:Search Engine

    • 发布日期:2017-04-01
    • 文件大小:4783
    • 提供者:杨子靖
  1. qygl

    0下载:
  2. lucene 中文分词公用组件,对搜索引擎开发中中文分词做了很好的封装。-Chinese word segmentation lucene common components, the development of the Chinese search engine has done a very good segmentation of the package.
  3. 所属分类:Java Develop

    • 发布日期:2017-05-13
    • 文件大小:3373517
    • 提供者:徐光
  1. imdict-chinese-analyzer

    1下载:
  2. imdict-chinese-analyzer 是 imdict智能词典 的智能中文分词模块,算法基于隐马尔科夫模型(Hidden Markov Model, HMM),是中国科学院计算技术研究所的ictclas中文分词程序的重新实现(基于Java),可以直接为lucene搜索引擎提供简体中文分词支持。-imdict-chinese-analyzer is a smart imdict Chinese Dictionary smart module segmentation algorithm
  3. 所属分类:MultiLanguage

    • 发布日期:2016-07-06
    • 文件大小:3255959
    • 提供者:王同
  1. mmseg4j-1.7.3

    1下载:
  2. 中文分词技术 MMSeg1.7.3 最新版-Chinese word segmentation technology, the latest version of MMSeg1.7.3
  3. 所属分类:MMS

    • 发布日期:2016-07-06
    • 文件大小:178808
    • 提供者:赵树龙
  1. Dictory

    1下载:
  2. 用B-树作为查找存储结构,对中文单词进行哈希,用最长逆向匹配算法进行中文句段分词,实现中文词典以及分词。中文词典规模为十万八千多词汇。分词的正确率在90 以上。-Use the B-tree as storage structure , and hash the Chinese word while storing or searching. Use the longest reverse matching algorithm to split Chinese sentence to word
  3. 所属分类:MultiLanguage

    • 发布日期:2014-12-28
    • 文件大小:798764
    • 提供者:康维鹏
  1. IKAnalyzer3.1.1StableAllInOne

    0下载:
  2. Lucene 中文分词,很好的 可以随便下压,加油-Lucene Java
  3. 所属分类:Windows Develop

    • 发布日期:2017-04-10
    • 文件大小:1791114
    • 提供者:wc
  1. 33753115ktdictseg_v1.0.01

    0下载:
  2. 中文分词算法,效率很高,使用词典树装搜索进行单词切割,并提供扩充词库的函数-It s an arithmetc of word segment,it has a very high efficiency!
  3. 所属分类:Search Engine

    • 发布日期:2017-03-30
    • 文件大小:37391
    • 提供者:郭刚
  1. worddivise

    0下载:
  2. 中文 分词,-worddivise
  3. 所属分类:Applet

    • 发布日期:2017-05-16
    • 文件大小:4382670
    • 提供者:吴浩
  1. zhengdike

    0下载:
  2. (个人原创)《中文网页自动分类》 牵扯的技术有:分词,统计词频,踢出网页中一些特殊字符(用正则表达式),还有需要提取培训集等等!! 此软件禁止商业活动,版权所属“qyTT论坛--www.qyclass.org/bbs” 本文来自: qyTT论坛 http://www.qyclass.org/bbs 我们的使命:让世界认识qyTT,让qyTT认识世界! 结果分析的思想:就是把得到的词频与建立的词库里每一类进行比较,如果存在一个最大匹配程度,就去这个类作为结果,如果存
  3. 所属分类:Java Develop

    • 发布日期:2017-04-10
    • 文件大小:1490827
    • 提供者:guowei
  1. lucene.net_search

    0下载:
  2. lucene.net 中文分词 分页高月显示
  3. 所属分类:CSharp

    • 发布日期:2017-05-13
    • 文件大小:3362696
    • 提供者:ffff ffff
  1. yard

    0下载:
  2. 一个简单的中文分词程序,用纯java编写,请解压后,在java环境中运行。-A simple Chinese word segmentation program, written in pure java, please unzip, run the java environment.
  3. 所属分类:Java Develop

    • 发布日期:2017-04-10
    • 文件大小:1517143
    • 提供者:星光
  1. dictionary

    0下载:
  2. 基于四字hash的中文分词词典,将此条放在数据库中,利用memcache提高词典索引速度。实现文本词典到数据库中此条的自动转换。-Hash based on four characters of Chinese word dictionary, the clause on the database, dictionary use memcache to improve indexing speed. Text dictionary to the database to achieve the a
  3. 所属分类:WEB(ASP,PHP,...)

    • 发布日期:2017-05-22
    • 文件大小:7166203
    • 提供者:徐向阳
  1. ICTCLAS50_Linux_RHAS_64_JNI

    0下载:
  2. 中科院中文分词程序,国内相关领域的的权威.这是Java(JNI)64位版-Institute of Chinese word segmentation program, the domestic authority of the relevant fields, which is Java (JNI) 64-bit version
  3. 所属分类:Linux-Unix program

    • 发布日期:2017-05-26
    • 文件大小:9123458
    • 提供者:三角函数
  1. CWSS17.1.1.4

    0下载:
  2. 基于隐马尔科夫模型的中文分词系统,上交ieee专业大一作业,界面一般,主要用于学习,在此分享,注:开发环境python3.5(Based on Hidden Markov model of Chinese word segmentation system, on the IEEE professional freshman job, interface is common, mainly used for learning, in this share, note: development en
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2017-12-18
    • 文件大小:50023424
    • 提供者:Empty_Life
  1. fenci

    0下载:
  2. 用NLPIR工具包实现中文分词,很用的中文分词工具。(Implementation of Chinese word segmentation with NLPIR Toolkit.)
  3. 所属分类:Windows编程

    • 发布日期:2017-12-29
    • 文件大小:10413056
    • 提供者:VincentLiu
  1. 24.HMM

    0下载:
  2. 通过hmm实现中文分词,并且能自动发现新词的功能(The Chinese word segmentation is realized by HMM, and the function of new words can be automatically found)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2017-12-31
    • 文件大小:30041088
    • 提供者:幻想达人
  1. 20170314140452_ICTCLAS2016分词系统下载包

    0下载:
  2. ICTCLAS中文分词系统下载包,最新版2017(ICTCLAS Chinese word segmentation system download package, the latest version of 2017)
  3. 所属分类:多国语言处理

    • 发布日期:2018-01-05
    • 文件大小:76056576
    • 提供者:vera1231
« 1 2 3 4 56 7 8 9 10 ... 35 »
搜珍网 www.dssz.com