CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 数值算法/人工智能 搜索资源 - 分词程序

搜索资源列表

  1. 语料库

    2下载:
  2. 一份很重要的语料库,为你的分词程序是一个很好用的资料库文件-a very important corpus, as your segmentation procedure is a very good use of the database file
  3. 所属分类:人工智能/神经网络/遗传算法

    • 发布日期:2008-10-13
    • 文件大小:2860546
    • 提供者:李添
  1. TextCategorization

    0下载:
  2. 基于朴素贝叶斯算法实现的中文文本分类程序。可以对中文文本进行分类识别,使用时先对分类器进行训练,然后进行识别。该Beta版本仅支持对3类文本进行分类,使用简单的中文分词方法,本程序尚不具备实用性,用于算法研究和改进。-based on Bayesian algorithms to achieve the Chinese text classification procedure. Can the Chinese text classification identification, the us
  3. 所属分类:人工智能/神经网络/遗传算法

    • 发布日期:2008-10-13
    • 文件大小:317598
    • 提供者:钱磊
  1. darts-0.2.tar

    0下载:
  2. 双数组辞典生成程序。利用双数组实现trie算法,对于不定长度共同前缀查询情况,比哈希方法更为有效。经常用于分词辞典的制作。-array dictionary-generation procedures. Using two arrays to achieve Trie algorithm for the indefinite length of the inquiry common prefix than Hash methods more effective. Frequently used
  3. 所属分类:数据结构常用算法

    • 发布日期:2015-06-10
    • 文件大小:237927
    • 提供者:姜锋
  1. findkey.c

    0下载:
  2. 此程序解决的问题:较好的, 并适应短字符串的中文分词算法.根据词库 发现以换行符分隔的众多标题中的 top N 关键字并以此更新词库.是一个分类分词算法 -this procedure to solve the problem : better, and adapt to the short string of Chinese Segmentation. According thesaurus found in the many separate newline heading the to
  3. 所属分类:数值算法/人工智能

    • 发布日期:2008-10-13
    • 文件大小:8751
    • 提供者:刘红周
  1. WordClassify

    0下载:
  2. 一个分词程序,c代码,有很详细的注释,便于阅读
  3. 所属分类:人工智能/神经网络/遗传算法

    • 发布日期:2008-10-13
    • 文件大小:4739
    • 提供者:潘耀章
  1. CLucene

    0下载:
  2. clucene 源码,并且增加了自己写的正向最大匹配算法的分词程序。-clucene source code, and increase their own to write the forward maximum matching algorithm for the sub-word program.
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-03-27
    • 文件大小:440298
    • 提供者:yimi
  1. WordPartation2

    0下载:
  2. 中文分词程序 利用最大匹配算法 支持GB2312编码格式的文件-Chinese word segmentation procedure using the maximum matching algorithm to support GB2312 encoding format of the file
  3. 所属分类:Mathimatics-Numerical algorithms

    • 发布日期:2017-04-03
    • 文件大小:199478
    • 提供者:CAlio
  1. GBKhash

    0下载:
  2. 利用了GBK编码的hash表,快速进行汉语分词的自然语言程序-Advantage of the GBK-encoded hash table, fast Chinese word segmentation of natural language program
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-13
    • 文件大小:1964
    • 提供者:海铭
  1. zhongwenfenci

    0下载:
  2. 从后向前的分词程序,采用哈希查找的方式,实现中文分词程序-From back to front of the word program, using the hash to find a way to achieve the Chinese word program
  3. 所属分类:Data structs

    • 发布日期:2017-05-24
    • 文件大小:7905000
    • 提供者:jiacheng
  1. segment

    0下载:
  2. 利用双数组和字典实现了一个中文分词程序,优点是效率高,分词速度快,鲁棒性好。适合搜索引擎分词使用-Pairs of array and dictionary is a Chinese word segmentation procedure, the advantages of high efficiency, segmentation speed, robustness. Word for search engines
  3. 所属分类:Data structs

    • 发布日期:2017-05-04
    • 文件大小:1080636
    • 提供者:Alex
  1. ChineseSegment

    0下载:
  2. 一个完整的中文分词程序,有源码,词典,训练集。算法简洁高效,准确率高。包含了一种将标注语料和词典融合的新型分词方法。将语料分割为2:1为训练集和测试集,加上一个外部词典,准确率可以达到95 。适合入门者学习。也适合需要一个简单分词工具的应用。-A Chinese word segmentation procedures, source, dictionary, the training set. The algorithm is simple and efficient, high accura
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-11-13
    • 文件大小:14581979
    • 提供者:张忠辉
  1. Chinese-WordCut

    0下载:
  2. 这是一个中文分词程序,读入一个Txt文档,可以对里面的段落进行分词-This is a Chinese word segmentation program that reads a Txt document segmentation paragraphs inside
  3. 所属分类:Data structs

    • 发布日期:2017-12-02
    • 文件大小:2431984
    • 提供者:菡菡
  1. hmmWordSegmentation

    0下载:
  2. 这是一个基于hmm模型的句子分词程序,语言是python,目前输入语句不支持标点符号。-This program is for divising a sentence into seperate words base on hmm.
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-11-17
    • 文件大小:10307192
    • 提供者:许少杰
  1. NBclassfier

    0下载:
  2. 贝叶斯情感分类器,基于五倍交叉法来验证。程序可以直接运行,改程序是在基于已经分词的情况下实施的。-Bayesian classifier, emotion to verify five times based on the crossover. Program can be run directly, the program is based on the segmentation of the case.
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-11-23
    • 文件大小:1765176
    • 提供者:刘慧兴
  1. automatic-word-segmentation

    0下载:
  2. 实现一个中文自动分词程序,所使用的编程语言不限 选作:对人名,地名,机构名的识别 下载北大计算语言所标注的99年人民日报分词语料库,构建一个词表 实现正向、逆向最大分词算法-To implement a Chinese automatic word segmentation procedure, used by any programming language Chosen for: the person names, place names, organization name
  3. 所属分类:Compress-Decompress algrithms

    • 发布日期:2017-04-03
    • 文件大小:426197
    • 提供者:黄艳玲
  1. IKAnalyzer

    0下载:
  2. JAVA实现简单客服的机器人系统,分词用系统用IK分词,机器人语言用AIML。程序已经实现java socket服务的建立。实现了中文分词,同义词输出,答案匹配。用到的库有IK、program-ab。搞了一个月的小成果,希望大家能用到。-JAVA simple customer service robotic systems, word by word IK systems, robot language with AIML. Procedures have been implemented t
  3. 所属分类:AI-NN-PR

    • 发布日期:2016-04-14
    • 文件大小:5376000
    • 提供者:su
  1. kmeansClassifier

    0下载:
  2. 该程序实现了keans分类,使用IK分词技术实现分词。-The program implements the k means classification, the use of IK word segmentation technology to achieve word segmentation.
  3. 所属分类:Data Mining

    • 发布日期:2017-05-19
    • 文件大小:5029682
    • 提供者:yuyan
  1. 遗忘算法(词库生成、分词、词权重)演示程序

    0下载:
  2. 通过非主流的遗传算法进行关键词提取,分词的功能(Through the non mainstream genetic algorithm for keyword extraction, word segmentation function)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2017-12-31
    • 文件大小:37695488
    • 提供者:幻想达人
  1. jieba-jieba3k

    1下载:
  2. MATLAB 结巴分词的工具包,用于很多中文分词的模式识别代码程序,利用已有函数工具包提高工作效率,内有安装说明(MATLAB jieba toolkit, used for many Chinese word segmentation pattern recognition code programs, using existing function toolkits to improve work efficiency, with installation instructions)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2018-05-01
    • 文件大小:10193920
    • 提供者:啦丿啦
搜珍网 www.dssz.com