CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 搜索资源 - 分词算法

搜索资源列表

  1. svmcls

    0下载:
  2. 基于KNN+SVM算法的文本分类器,附带权威的分词词库及算法,有界面,程序可正常使用-KNN+ SVM-based text classification algorithm, with the authority of the sub-word thesaurus and algorithm, a interface, the program can be used normally
  3. 所属分类:Windows Develop

    • 发布日期:2017-06-21
    • 文件大小:37651520
    • 提供者:talon
  1. Bayes

    0下载:
  2. 用bayes实现的聚类算法,分词采用的是SharpICTCLAS分词系统 1.0-Achieved using bayes clustering algorithm, word segmentation is used SharpICTCLAS System 1.0
  3. 所属分类:.net

    • 发布日期:2017-06-01
    • 文件大小:13979515
    • 提供者:Fu
  1. boosting_src

    0下载:
  2. Boosting中的AdaBoost.M1算法在文本分类中的应用实现。使用ICTCLAS用于中文分词,弱分类器使用Naive Bayes。程序参数使用配置文件的格式。-Application of text classification using AdaBoost.M1. Use ICTCLAS tool in Chinese segment, and use Naive Bayes as the weak classifier. use the config file as the para
  3. 所属分类:Linux-Unix program

    • 发布日期:2017-05-16
    • 文件大小:4137477
    • 提供者:彭卫华
  1. EasySeg

    0下载:
  2. 实现中文分词的最大正向匹配算法,提前输入好文本。-Achieve maximum positive Chinese word matching algorithms, a good text input in advance
  3. 所属分类:MultiLanguage

    • 发布日期:2017-04-01
    • 文件大小:923687
    • 提供者:宋园园
  1. WordSegment

    0下载:
  2. 用C++开发的分词系统 运用基于哈希的逆向最大匹配算法 基于词典-Word in C development system uses a hash-based reverse maximum matching algorithm is based on dictionary
  3. 所属分类:Data structs

    • 发布日期:2016-08-04
    • 文件大小:334848
    • 提供者:zhuangkun
  1. WordTest

    0下载:
  2. 本文阐述了一个基于K-Nearest Neighbor(KNN)算法的中文网页自动分类系统的体系结构、具体设计和实现过程。系统分成三个模块:中文网页的下载与过滤(王勋完成);KNN算法的训练与分类(黄健完成);算法评估以及分词系统的整合(吴亮完成)。 本人主要是实现算法的评估以及分词系统的整合:分词系统的整合利用爱博汉语分词系统(服务器版本—共享版),将下载下来的中文网页过滤后所得到的txt文件内容进行分词,以便提供给KNN算法进行训练和分类;算法的评估是将KNN算法后所得到的结果进行分析,
  3. 所属分类:Delphi VCL

    • 发布日期:2017-03-23
    • 文件大小:622142
    • 提供者:吴亮
  1. WordSeg

    0下载:
  2. 这是一个分词程序,有正向最大匹配算法,逆向最大匹配算法,正向最小匹配算法。-This is a word segmentation program, there are positive maximal matching algorithm, reverse maximal matching algorithm, positive minimum matching algorithms.
  3. 所属分类:Windows Develop

    • 发布日期:2017-04-03
    • 文件大小:491470
    • 提供者:guizhongyun
  1. seg

    0下载:
  2. C# 中文分词 基于统计的朴素贝叶斯算法-C# ChineseWordSeg
  3. 所属分类:.net

    • 发布日期:2017-03-29
    • 文件大小:3341
    • 提供者:zhang
  1. 20257147knn

    1下载:
  2. knn最近邻算法在给定新文本后,考虑在训练文本集中与该新文本距离最近(最相似)的 K 篇文本,根据这 K 篇文本所属的类别判定新文本所属的类别,具体的算法步骤如下: 一、:根据特征项集合重新描述训练文本向量 二、:在新文本到达后,根据特征词分词新文本,确定新文本的向量表示 三、:在训练文本集中选出与新文本最相似的 K 个文本-knn nearest neighbor algorithm in the given text, to consider in the train
  3. 所属分类:Other systems

    • 发布日期:2017-04-05
    • 文件大小:43017
    • 提供者:千木流云
  1. sMySSeggh

    0下载:
  2. 最短路径法分词程序源码。将中文句子经过原子切分后生成一个有向无环图,然后使用用Dijkstra算法求出由起点到终点的最短路径以实现中文分词。 -The shortest path method segmentation program source code. Chinese sentence After atomic segmentation, to generate a directed acyclic graph, and then use Dijkstra algorithm to
  3. 所属分类:Windows Develop

    • 发布日期:2017-04-04
    • 文件大小:426045
    • 提供者:chenxing1
  1. Rkeyword-choue

    0下载:
  2. 基于逆向最大匹配算法的分词及基于HMM模型的词性标注系统,包括了未登登录词的识别、数据库的添加等内容。(需要手动修改数据库的路径才可以运行) -Based on the segmentation of the reverse maximum matching algorithm and the HMM-based POS tagging system, including unadvertised login word recognition, and add the database co
  3. 所属分类:Windows Develop

    • 发布日期:2017-05-04
    • 文件大小:1262197
    • 提供者:geli
  1. MyAnalyzer

    0下载:
  2. 简单的中文分词及敏感词检索工具,其中可以任意添加敏感词,并且可以选择使用正向最大匹配算法,逆向最大匹配算法,双向最大匹配算法中的一种进行分词。-Simple Chinese word and sensitive word retrieval tool, which can add any sensitive words, and you can choose to use the forward maximum matching algorithm, reverse maximum matchi
  3. 所属分类:MultiLanguage

    • 发布日期:2017-11-12
    • 文件大小:1325874
    • 提供者:
  1. adarrts-02tarr

    0下载:
  2. 双数组辞典生成程序源码。运用双数组实现trie算法,对于不定长度共同前前缀查询情况,比哈希方法更为有效。经常用于分词辞典的制作。 可直接使用。 -The dual array thesaurus program source code is generated. The use of double-array trie algorithm for indefinite length common prefix query before, Bi Haxi method is more effe
  3. 所属分类:Windows Develop

    • 发布日期:2017-11-20
    • 文件大小:230247
    • 提供者:hxb
  1. Stemmer

    0下载:
  2. 在英语中,一个单词常常是另一个单词的“变种”,如:happy=>happiness,这里happy叫做happiness的词干(stem)。在信息检索系统中,我们常常做的一件事,就是在Term规范化过程中,提取词干(stemming),即除去英文单词分词变换形式的结尾。 应用最为广泛的、中等复杂程度的、基于后缀剥离的词干提取算法是波特词干算法,也叫波特词干器(Porter Stemmer)。详见官方网站。比较热门的检索系统包括Lucene、Whoosh等中的词干过滤器就是采用的波
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-11-25
    • 文件大小:3944
    • 提供者:rongzunhe
  1. splitewords

    0下载:
  2. 在对话框中,调用第三方分词工具(ICTCLAS中文分词免费版),实现对中文的分词示例程序,可以对想实现全文搜索算法的中文分词问题提供解决方案。-In the dialog box, call the third-party segmentation tools (word ICTCLAS Chinese free version), the sample program to achieve the segmentation of Chinese text search algorithms C
  3. 所属分类:File Operate

    • 发布日期:2017-11-28
    • 文件大小:4402678
    • 提供者:李明宇
  1. WordStem_20121024

    0下载:
  2. 采用Porter Stemming算法对英文文本进行分词-Preprocessing English text based on Porter Stemming algorithm
  3. 所属分类:MultiLanguage

    • 发布日期:2017-11-19
    • 文件大小:14987
    • 提供者:RekingQin
  1. ChineseSegment

    0下载:
  2. 一个完整的中文分词程序,有源码,词典,训练集。算法简洁高效,准确率高。包含了一种将标注语料和词典融合的新型分词方法。将语料分割为2:1为训练集和测试集,加上一个外部词典,准确率可以达到95 。适合入门者学习。也适合需要一个简单分词工具的应用。-A Chinese word segmentation procedures, source, dictionary, the training set. The algorithm is simple and efficient, high accura
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-11-13
    • 文件大小:14581979
    • 提供者:张忠辉
  1. WordsDividing

    0下载:
  2. 这是一个自己写的分词系统,主要用到的算法有最大前向匹配算法和最大熵。-This is a written word segmentation system, mainly used maximum forward matching algorithm and maximum entropy algorithm.
  3. 所属分类:Windows Develop

    • 发布日期:2017-11-19
    • 文件大小:3192658
    • 提供者:两院
  1. ExtractorDktj131_2012

    0下载:
  2. 基于复杂网络的新闻网页解析算法,实现复杂网络构建及分词功能-Built complex network based on complex network news page parsing algorithm, and the word function
  3. 所属分类:Search Engine

    • 发布日期:2017-11-15
    • 文件大小:909779
    • 提供者:xcx0617
  1. searching

    0下载:
  2. 中文搜索引擎分词关键技术,包括对典型算法和技术的总结介绍,适合初学者-Chinese words splitting short referenece, for the beginner
  3. 所属分类:MultiLanguage

    • 发布日期:2017-11-10
    • 文件大小:763315
    • 提供者:王旺
« 1 2 ... 4 5 6 7 8 910 11 »
搜珍网 www.dssz.com