CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 搜索资源 - 中文 分词 算法

搜索资源列表

  1. k50RVZDojs03

    0下载:
  2. 基于IKAnalyzer分词算法的准商业化Lucene中文分词器
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:789659
    • 提供者:罗晓鸣
  1. IKAnalyzer

    0下载:
  2. IKAnalyzer是中文分词工具,基于lucene2.0版本API开发,实现了以词典分词为基础的正反向全切分算法,是Lucene Analyzer接口的实现,这个是.Net版本,含有源代码
  3. 所属分类:.net编程

    • 发布日期:2008-10-13
    • 文件大小:1905346
    • 提供者:Jingtian Jiang
  1. cidian

    0下载:
  2. 基于最大匹配算法的的中文分词组件,达到很好的分词准确率
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:31957
    • 提供者:大宝
  1. fenCi

    0下载:
  2. 实现中文信息处理中的汉语分词的功能,采用了正向最大和逆向最大的分词算法。
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:3199772
    • 提供者:舒晓明
  1. Chinese-Word-Segment-And-POS-Tagger

    1下载:
  2. 实现了中文分词和词性标注程序。分词方法采用“三词正向最长匹配”。词性标注使用HMM方法,用Viterbi算法实现。“三词正向最长匹配”保持了“正向最长匹配算法”快速的特点,同时提高了分词的准确性。-Chinese word segmentation and implemented procedures for POS tagging. Segmentation Methods, " the longest three-match positive words." POS tag
  3. 所属分类:Speech/Voice recognition/combine

    • 发布日期:2017-05-14
    • 文件大小:4034615
    • 提供者:paul
  1. ChineseSplit

    0下载:
  2. 一个基于VB.NET开发的中文分词及关键词提取系统,采用双向最大匹配、词频统计、快速排序等算法实现。-VB.NET developed based on Chinese word segmentation and Key Extraction System, the largest two-way matching, word frequency statistics, such as quick sort algorithm.
  3. 所属分类:MultiLanguage

    • 发布日期:2017-05-21
    • 文件大小:6472935
    • 提供者:张莉娟
  1. small

    0下载:
  2. 一个测试用的中文分词代码,基于FMM分词算法-Chinese word segment code
  3. 所属分类:MultiLanguage

    • 发布日期:2017-04-01
    • 文件大小:180875
    • 提供者:liwei
  1. C_CPPfds

    0下载:
  2. 中文分词技术属于自然语言处理技术范 畴,是语义理解过程中最初的一个环节。 它 将组成语句的核心词提炼出来供语义分析模 块使用。对于一句话人可以通过自己的知识 来判断哪些是词,哪些不是词。但计算机如 何能理解,其处理过程就称为分词算法。-This is a dictionary of algorithms, algorithmic techniques, data structures, archetypal problems,
  3. 所属分类:MultiLanguage

    • 发布日期:2017-05-15
    • 文件大小:3687864
    • 提供者:wangyao
  1. boosting_src

    0下载:
  2. Boosting中的AdaBoost.M1算法在文本分类中的应用实现。使用ICTCLAS用于中文分词,弱分类器使用Naive Bayes。程序参数使用配置文件的格式。-Application of text classification using AdaBoost.M1. Use ICTCLAS tool in Chinese segment, and use Naive Bayes as the weak classifier. use the config file as the para
  3. 所属分类:Linux-Unix program

    • 发布日期:2017-05-16
    • 文件大小:4137477
    • 提供者:彭卫华
  1. EasySeg

    0下载:
  2. 实现中文分词的最大正向匹配算法,提前输入好文本。-Achieve maximum positive Chinese word matching algorithms, a good text input in advance
  3. 所属分类:MultiLanguage

    • 发布日期:2017-04-01
    • 文件大小:923687
    • 提供者:宋园园
  1. backforwardSegmentationjava

    0下载:
  2. 后向分词算法对中文文本进行简单分词,有Swing界面,适合初学者.-Backforward propergation chinese segmentation. with the visible interface by Swing. It s useful for the new guy.
  3. 所属分类:MultiLanguage

    • 发布日期:2017-04-10
    • 文件大小:1459251
    • 提供者:巴吉拉
  1. textcluster

    0下载:
  2. 实现中文分词并聚类输出,分词算法是自己写的以空格分词,如果有需要高级的分词算法可自己下载相关算法-Realization of the Chinese word segmentation and clustering output
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-08
    • 文件大小:28317
    • 提供者:wangke
  1. seg

    0下载:
  2. C# 中文分词 基于统计的朴素贝叶斯算法-C# ChineseWordSeg
  3. 所属分类:.net

    • 发布日期:2017-03-29
    • 文件大小:3341
    • 提供者:zhang
  1. sMySSeggh

    0下载:
  2. 最短路径法分词程序源码。将中文句子经过原子切分后生成一个有向无环图,然后使用用Dijkstra算法求出由起点到终点的最短路径以实现中文分词。 -The shortest path method segmentation program source code. Chinese sentence After atomic segmentation, to generate a directed acyclic graph, and then use Dijkstra algorithm to
  3. 所属分类:Windows Develop

    • 发布日期:2017-04-04
    • 文件大小:426045
    • 提供者:chenxing1
  1. MyAnalyzer

    0下载:
  2. 简单的中文分词及敏感词检索工具,其中可以任意添加敏感词,并且可以选择使用正向最大匹配算法,逆向最大匹配算法,双向最大匹配算法中的一种进行分词。-Simple Chinese word and sensitive word retrieval tool, which can add any sensitive words, and you can choose to use the forward maximum matching algorithm, reverse maximum matchi
  3. 所属分类:MultiLanguage

    • 发布日期:2017-11-12
    • 文件大小:1325874
    • 提供者:
  1. httpcws-php-demo

    0下载:
  2. php分词 中文分词 分词算法 HTTPCWS-php sub-word Chinese word segmentation segmentation algorithm HTTPCWS
  3. 所属分类:Other systems

    • 发布日期:2017-11-28
    • 文件大小:1862
    • 提供者:陈笑
  1. splitewords

    0下载:
  2. 在对话框中,调用第三方分词工具(ICTCLAS中文分词免费版),实现对中文的分词示例程序,可以对想实现全文搜索算法的中文分词问题提供解决方案。-In the dialog box, call the third-party segmentation tools (word ICTCLAS Chinese free version), the sample program to achieve the segmentation of Chinese text search algorithms C
  3. 所属分类:File Operate

    • 发布日期:2017-11-28
    • 文件大小:4402678
    • 提供者:李明宇
  1. ChineseSegment

    0下载:
  2. 一个完整的中文分词程序,有源码,词典,训练集。算法简洁高效,准确率高。包含了一种将标注语料和词典融合的新型分词方法。将语料分割为2:1为训练集和测试集,加上一个外部词典,准确率可以达到95 。适合入门者学习。也适合需要一个简单分词工具的应用。-A Chinese word segmentation procedures, source, dictionary, the training set. The algorithm is simple and efficient, high accura
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-11-13
    • 文件大小:14581979
    • 提供者:张忠辉
  1. IKAnalyzer3.2.0Stable_bin

    0下载:
  2. IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 -IKAnalyzer is an open source toolkit, Chinese word segm
  3. 所属分类:Other systems

    • 发布日期:2017-11-10
    • 文件大小:1742374
    • 提供者:yw
  1. RMM

    0下载:
  2. 这个是RMM算法,支持正向、逆向最大匹配,是自然语言处理的重要算法之一,只要替代程序中的词库即可。本词库取自1988年人民日报语料材料,算法对中文分词精确度达到90 以上-This is RMM algorithm supports forward, reverse maximum matching, natural language processing algorithm, as long as the alternative procedures thesaurus can. The th
  3. 所属分类:Search Engine

    • 发布日期:2017-11-09
    • 文件大小:251403
    • 提供者:he
« 1 2 3 45 6 »
搜珍网 www.dssz.com