CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 搜索资源 - 中文分词 算法

搜索资源列表

  1. Chinese-Word-Segment-And-POS-Tagger

    1下载:
  2. 实现了中文分词和词性标注程序。分词方法采用“三词正向最长匹配”。词性标注使用HMM方法,用Viterbi算法实现。“三词正向最长匹配”保持了“正向最长匹配算法”快速的特点,同时提高了分词的准确性。-Chinese word segmentation and implemented procedures for POS tagging. Segmentation Methods, " the longest three-match positive words." POS tag
  3. 所属分类:Speech/Voice recognition/combine

    • 发布日期:2017-05-14
    • 文件大小:4034615
    • 提供者:paul
  1. ChineseSplit

    0下载:
  2. 一个基于VB.NET开发的中文分词及关键词提取系统,采用双向最大匹配、词频统计、快速排序等算法实现。-VB.NET developed based on Chinese word segmentation and Key Extraction System, the largest two-way matching, word frequency statistics, such as quick sort algorithm.
  3. 所属分类:MultiLanguage

    • 发布日期:2017-05-21
    • 文件大小:6472935
    • 提供者:张莉娟
  1. IKAnalyzer3.2.8-source

    0下载:
  2. IKAnalyzer的源码包,实现中文分词功能,(1) 采用了特有的“正向迭代最细粒度切分算法”,具有60万字/ 秒的高速处理能力。 (2) 采用了多子处理器分析模式,支持:英文字母( IP 地址、Email、URL )、数字(日期,常用中文数量词,罗马数字,科学计数法),中文词汇(姓名、地名处理)等分词处理 。 (3) 优化的词典存储,更小的内存占用。支持用户词典扩展定义 (4) 针对 Lucene 全文检索优化的查询分析器 IKQueryParser;采用歧义分析算法优化查询关键
  3. 所属分类:Java Develop

    • 发布日期:2017-04-09
    • 文件大小:1197198
    • 提供者:陈雅倩
  1. lucene-3.0.1-src

    0下载:
  2. Lucene算法最新源码包,提供给中文分词器开发者最好的工具!-Lucene algorithm is the latest source package available to the Chinese word device developers the best tools!
  3. 所属分类:Jsp/Servlet

    • 发布日期:2017-06-01
    • 文件大小:14024903
    • 提供者:
  1. IKAnalyzer3.2.0Stable_src

    0下载:
  2. IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 IKAnalyzer3.0特性: 采用了特有的“正向迭代最细粒度切分算法“,具有60万字/秒的高速处理能力。
  3. 所属分类:Jsp/Servlet

    • 发布日期:2017-04-10
    • 文件大小:1094666
    • 提供者:木划
  1. File22

    0下载:
  2. 基于关键词的Web文档自动分类算法研究,文档关键词,语义相似度,聚类算法,知网,拓扑网络图,中文分词-Keyword-based Web Document Classification Algorithm, document keywords, semantic similarity, clustering algorithm, HowNet, topological network diagrams, Chinese word segmentation
  3. 所属分类:software engineering

    • 发布日期:2017-05-10
    • 文件大小:2123798
    • 提供者:王三
  1. small

    0下载:
  2. 一个测试用的中文分词代码,基于FMM分词算法-Chinese word segment code
  3. 所属分类:MultiLanguage

    • 发布日期:2017-04-01
    • 文件大小:180875
    • 提供者:liwei
  1. C_CPPfds

    0下载:
  2. 中文分词技术属于自然语言处理技术范 畴,是语义理解过程中最初的一个环节。 它 将组成语句的核心词提炼出来供语义分析模 块使用。对于一句话人可以通过自己的知识 来判断哪些是词,哪些不是词。但计算机如 何能理解,其处理过程就称为分词算法。-This is a dictionary of algorithms, algorithmic techniques, data structures, archetypal problems,
  3. 所属分类:MultiLanguage

    • 发布日期:2017-05-15
    • 文件大小:3687864
    • 提供者:wangyao
  1. IKAnalyzer_V3.2.8

    0下载:
  2. IK Analyzer是一个开源的,基于java诧言开发的轻量级的中文分词工具包。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IK Analyzer 3.X则发展为面吐Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。-IK Analyzer 3.X
  3. 所属分类:Java Develop

    • 发布日期:2017-04-01
    • 文件大小:715716
    • 提供者:flymoon
  1. boosting_src

    0下载:
  2. Boosting中的AdaBoost.M1算法在文本分类中的应用实现。使用ICTCLAS用于中文分词,弱分类器使用Naive Bayes。程序参数使用配置文件的格式。-Application of text classification using AdaBoost.M1. Use ICTCLAS tool in Chinese segment, and use Naive Bayes as the weak classifier. use the config file as the para
  3. 所属分类:Linux-Unix program

    • 发布日期:2017-05-16
    • 文件大小:4137477
    • 提供者:彭卫华
  1. EasySeg

    0下载:
  2. 实现中文分词的最大正向匹配算法,提前输入好文本。-Achieve maximum positive Chinese word matching algorithms, a good text input in advance
  3. 所属分类:MultiLanguage

    • 发布日期:2017-04-01
    • 文件大小:923687
    • 提供者:宋园园
  1. backforwardSegmentationjava

    0下载:
  2. 后向分词算法对中文文本进行简单分词,有Swing界面,适合初学者.-Backforward propergation chinese segmentation. with the visible interface by Swing. It s useful for the new guy.
  3. 所属分类:MultiLanguage

    • 发布日期:2017-04-10
    • 文件大小:1459251
    • 提供者:巴吉拉
  1. textcluster

    0下载:
  2. 实现中文分词并聚类输出,分词算法是自己写的以空格分词,如果有需要高级的分词算法可自己下载相关算法-Realization of the Chinese word segmentation and clustering output
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-08
    • 文件大小:28317
    • 提供者:wangke
  1. seg

    0下载:
  2. C# 中文分词 基于统计的朴素贝叶斯算法-C# ChineseWordSeg
  3. 所属分类:.net

    • 发布日期:2017-03-29
    • 文件大小:3341
    • 提供者:zhang
  1. sMySSeggh

    0下载:
  2. 最短路径法分词程序源码。将中文句子经过原子切分后生成一个有向无环图,然后使用用Dijkstra算法求出由起点到终点的最短路径以实现中文分词。 -The shortest path method segmentation program source code. Chinese sentence After atomic segmentation, to generate a directed acyclic graph, and then use Dijkstra algorithm to
  3. 所属分类:Windows Develop

    • 发布日期:2017-04-04
    • 文件大小:426045
    • 提供者:chenxing1
  1. MyAnalyzer

    0下载:
  2. 简单的中文分词及敏感词检索工具,其中可以任意添加敏感词,并且可以选择使用正向最大匹配算法,逆向最大匹配算法,双向最大匹配算法中的一种进行分词。-Simple Chinese word and sensitive word retrieval tool, which can add any sensitive words, and you can choose to use the forward maximum matching algorithm, reverse maximum matchi
  3. 所属分类:MultiLanguage

    • 发布日期:2017-11-12
    • 文件大小:1325874
    • 提供者:
  1. httpcws-php-demo

    0下载:
  2. php分词 中文分词 分词算法 HTTPCWS-php sub-word Chinese word segmentation segmentation algorithm HTTPCWS
  3. 所属分类:Other systems

    • 发布日期:2017-11-28
    • 文件大小:1862
    • 提供者:陈笑
  1. ansj_seg-master

    0下载:
  2. 这是一个ictclas的java实现.基本上重写了所有的数据结构和算法.词典是用的开源版的ictclas所提供的.并且进行了部分的人工优化 内存中中文分词每秒钟大约100万字(速度上已经超越ictclas) 文件读取分词每秒钟大约30万字 准确率能达到96 以上-This is a ictclas of java. Basically rewrite all the data structures and algorithms. Dictionary is prov
  3. 所属分类:Java Develop

    • 发布日期:2017-10-30
    • 文件大小:16801760
    • 提供者:王海
  1. splitewords

    0下载:
  2. 在对话框中,调用第三方分词工具(ICTCLAS中文分词免费版),实现对中文的分词示例程序,可以对想实现全文搜索算法的中文分词问题提供解决方案。-In the dialog box, call the third-party segmentation tools (word ICTCLAS Chinese free version), the sample program to achieve the segmentation of Chinese text search algorithms C
  3. 所属分类:File Operate

    • 发布日期:2017-11-28
    • 文件大小:4402678
    • 提供者:李明宇
  1. ChineseSegment

    0下载:
  2. 一个完整的中文分词程序,有源码,词典,训练集。算法简洁高效,准确率高。包含了一种将标注语料和词典融合的新型分词方法。将语料分割为2:1为训练集和测试集,加上一个外部词典,准确率可以达到95 。适合入门者学习。也适合需要一个简单分词工具的应用。-A Chinese word segmentation procedures, source, dictionary, the training set. The algorithm is simple and efficient, high accura
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-11-13
    • 文件大小:14581979
    • 提供者:张忠辉
« 1 2 3 4 56 7 8 »
搜珍网 www.dssz.com