CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 搜索资源 - 中文分词 算法

搜索资源列表

  1. segmentor_Perl

    0下载:
  2. 中文分词算法。Perl语言编写。wordlist.txt为词库。-Chinese Segmentation. Perl language. Wordlist.txt for the thesaurus.
  3. 所属分类:人工智能/神经网络/遗传算法

    • 发布日期:2008-10-13
    • 文件大小:366941
    • 提供者:kevinmou
  1. findkey.c

    0下载:
  2. 此程序解决的问题:较好的, 并适应短字符串的中文分词算法.根据词库 发现以换行符分隔的众多标题中的 top N 关键字并以此更新词库.是一个分类分词算法 -this procedure to solve the problem : better, and adapt to the short string of Chinese Segmentation. According thesaurus found in the many separate newline heading the to
  3. 所属分类:数值算法/人工智能

    • 发布日期:2008-10-13
    • 文件大小:8751
    • 提供者:刘红周
  1. lunce-splitword

    0下载:
  2. 一个运用于lunce中的中文分词算法源码,与大家共享-a lunce applied to the Chinese word segmentation algorithm source code and share
  3. 所属分类:Windows编程

    • 发布日期:2008-10-13
    • 文件大小:3745
    • 提供者:彭昱
  1. FreeICTCLAS

    0下载:
  2. 中科院ICTCLAS最新free开放源代码,里面有中文分词算法,大家一起共同学习和研究,对搜索引擎中文分词方面有很大用处哦!
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:5276447
    • 提供者:刘俊轩
  1. zhongwenzidongfenciyanjiu

    0下载:
  2. 关于中文分词算法基本研究的介绍,综合的介绍了中文自动分词的原理及一般算法。
  3. 所属分类:软件工程

    • 发布日期:2008-10-13
    • 文件大小:479183
    • 提供者:赵蕾
  1. word_vc

    0下载:
  2. vc++实现的基于字典的中文分词算法,基于贝耶斯网络的概率中文分词算法,以及文本相似程度比较的算法。
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:1139201
    • 提供者:ye wang
  1. ChinesePase

    0下载:
  2. 好用的中文分词算法 好不容易才搞到的 好用的中文分词算法
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:62478
    • 提供者:淡林
  1. segmenter

    1下载:
  2. 一个简单有效的中文分词算法,包含正向最大匹配算法,java实现。
  3. 所属分类:JSP源码/Java

    • 发布日期:2008-10-13
    • 文件大小:1732740
    • 提供者:天行
  1. 最大匹配算法

    0下载:
  2. 中文分词正反向最大匹配算法
  3. 所属分类:源码下载

    • 发布日期:2011-03-20
    • 文件大小:1810392
    • 提供者:chengenjin
  1. 中文网页自动分类器

    1下载:
  2. 利用knn算法实现了一个中文网页自动分类器, 包括网页预处理,ictclas中文分词,基于tf-idf的文本特征表示,基于df的特征选取和基于knn的分类算法,最后通过struts2框架web发布
  3. 所属分类:源码下载

  1. mmseg

    0下载:
  2. MMSEG 中文分词算法 内有说明及例子,源代码-failed to translate
  3. 所属分类:Windows Develop

    • 发布日期:2017-03-30
    • 文件大小:544467
    • 提供者:zyg
  1. RMM

    0下载:
  2. 基于rmm算法(逆向最大匹配)实现的中文分词系统,具体内容是一个mfc工程文件。-Rmm-based algorithm (reverse maximum matching) to achieve the Chinese word segmentation system, specific content is a mfc project file.
  3. 所属分类:Other windows programs

    • 发布日期:2017-05-31
    • 文件大小:13402711
    • 提供者:乐文
  1. imdict-chinese-analyzer

    1下载:
  2. imdict-chinese-analyzer 是 imdict智能词典 的智能中文分词模块,算法基于隐马尔科夫模型(Hidden Markov Model, HMM),是中国科学院计算技术研究所的ictclas中文分词程序的重新实现(基于Java),可以直接为lucene搜索引擎提供简体中文分词支持。-imdict-chinese-analyzer is a smart imdict Chinese Dictionary smart module segmentation algorithm
  3. 所属分类:MultiLanguage

    • 发布日期:2016-07-06
    • 文件大小:3255959
    • 提供者:王同
  1. zdfc

    0下载:
  2. 对中文语句进行分词的一个源码,利用正向匹配算法进行处理-Statements for the Chinese word for a source
  3. 所属分类:CSharp

    • 发布日期:2017-04-01
    • 文件大小:300962
    • 提供者:小松
  1. Dictory

    1下载:
  2. 用B-树作为查找存储结构,对中文单词进行哈希,用最长逆向匹配算法进行中文句段分词,实现中文词典以及分词。中文词典规模为十万八千多词汇。分词的正确率在90 以上。-Use the B-tree as storage structure , and hash the Chinese word while storing or searching. Use the longest reverse matching algorithm to split Chinese sentence to word
  3. 所属分类:MultiLanguage

    • 发布日期:2014-12-28
    • 文件大小:798764
    • 提供者:康维鹏
  1. totsearchc

    0下载:
  2. 淘特站内搜索引擎是由淘特JSP搜索引擎发展而来,系统基于Lucene.Net核心,通过高效的中文分词算法将数据库中内容进行分析、索引并保存至硬盘中。前台搜索时,通过读取索引文件查询,避免了传统数据库查询在高并发及海量数据下的性能问题。因前台搜索不在连接数据库,为不希望数据库放到前台的特殊用户群体提供了数据快速查询解决方案。-Amoy Special Site search engine from the Amoy Te JSP search engine, developed from, sys
  3. 所属分类:Windows Develop

    • 发布日期:2017-04-02
    • 文件大小:373503
    • 提供者:miao
  1. totsearch

    0下载:
  2. 淘特站内搜索引擎是由淘特JSP搜索引擎发展而来,系统基于Lucene.Net核心,通过高效的中文分词算法将数据库中内容进行分析、索引并保存至硬盘中。前台搜索时,通过读取索引文件查询,避免了传统数据库查询在高并发及海量数据下的性能问题。因前台搜索不在连接数据库,为不希望数据库放到前台的特殊用户群体提供了数据快速查询解决方案。 -Amoy Special Site search engine from the Amoy special JSP search engine developed fr
  3. 所属分类:Windows Develop

    • 发布日期:2017-05-02
    • 文件大小:743011
    • 提供者:豆豆
  1. zhengdike

    0下载:
  2. (个人原创)《中文网页自动分类》 牵扯的技术有:分词,统计词频,踢出网页中一些特殊字符(用正则表达式),还有需要提取培训集等等!! 此软件禁止商业活动,版权所属“qyTT论坛--www.qyclass.org/bbs” 本文来自: qyTT论坛 http://www.qyclass.org/bbs 我们的使命:让世界认识qyTT,让qyTT认识世界! 结果分析的思想:就是把得到的词频与建立的词库里每一类进行比较,如果存在一个最大匹配程度,就去这个类作为结果,如果存
  3. 所属分类:Java Develop

    • 发布日期:2017-04-10
    • 文件大小:1490827
    • 提供者:guowei
  1. totsearch

    0下载:
  2. 淘特站内搜索引擎(C#版)基于Lucene.Net核心,通过高效的中文分词算法将数据库中内容进行分析、索引并保存至硬盘中。前台搜索时,通过读取索引文件查询,避免了传统数据库查询在高并发及海量数据下的性能问题。因前台搜索不在连接数据库,为不希望数据库放到前台的特殊用户群体提供了数据快速查询解决方案-Amoy Special Search Engine (C# Edition) Based on Lucene.Net core, through the effective Chinese word
  3. 所属分类:Search Engine

    • 发布日期:2017-03-29
    • 文件大小:611568
    • 提供者:yanghe
  1. HMM-master

    1下载:
  2. 隐马尔科夫模型进行中文分词 模型训练 python HMM_train.py RenMinData.txt_utf8 RenMinData.RenMinData_utf8 为人民日报已经人工分词的预料。 生成三个文件 * prob_start.py 为模型的初始概率 * prob_trans.py 为模型状态转移概率 * prob_emit.py 为发射概率 测试模型效果 python HMM.py reference 维特比算法:(python
  3. 所属分类:其他

    • 发布日期:2020-02-16
    • 文件大小:6432768
    • 提供者:nino123456
« 1 23 4 5 6 7 8 »
搜珍网 www.dssz.com