CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 数值算法/人工智能 搜索资源 - 分词

搜索资源列表

  1. fenciPbeiyesi

    0下载:
  2. 第4界中兴捧月时做短信过滤使用的朴素贝叶斯方法的代码,主要是通过计算收到信息分别在收件箱的和垃圾箱的概率是多少来区分短信息所在置信区间。这里短信先经过了分词在算每个此条的概率。-Naive Bayesian method code, the 4th ZTE handful of months do SMS filtering using the received information by calculating how much to distinguish between short in
  3. 所属分类:Algorithm

    • 发布日期:2017-11-28
    • 文件大小:9580
    • 提供者:杨帆
  1. Text-classification

    0下载:
  2. 文本分类之词频统计 分词、词干提取、去停用词、计算词频,有界面-Text classification of word frequency statistics word stemmer, to stop words, calculate word frequency, interface
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-11-29
    • 文件大小:72227
    • 提供者:tonyjaa
  1. Text-Classification_libSVM

    0下载:
  2. 用seg进行分词 输入参数一:输入文本语料所在的文件夹路径。 如 文本文件语料都放在 train//text 文件夹下,则参数为:train//text//* 。 注意:必须每篇文章在一个txt文本中。 输入参数二:输入存储分词后的结果文件所在的文件夹路径:如:result//text。注意:不需要加* 本工具采用了中科院的中文分词工具,ICTCLAS,请自行到ICTCLAS官网下载该工具。并把Data文件夹,Configure.xml,ICTCLAS30.h,ICTCLAS3
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-11-06
    • 文件大小:4230849
    • 提供者:李勇军
  1. hmmWordSegmentation

    0下载:
  2. 这是一个基于hmm模型的句子分词程序,语言是python,目前输入语句不支持标点符号。-This program is for divising a sentence into seperate words base on hmm.
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-11-17
    • 文件大小:10307192
    • 提供者:许少杰
  1. NBclassfier

    0下载:
  2. 贝叶斯情感分类器,基于五倍交叉法来验证。程序可以直接运行,改程序是在基于已经分词的情况下实施的。-Bayesian classifier, emotion to verify five times based on the crossover. Program can be run directly, the program is based on the segmentation of the case.
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-11-23
    • 文件大小:1765176
    • 提供者:刘慧兴
  1. bhav-saar-master

    1下载:
  2. 一种自然语言处理的算法 用于情感分析 将一篇文章以关键字的角度来区别正面负面 已经添加了中文词典,可以对中文使用(请对语料先分词)-A natural language processing algorithm for sentiment analysis will be an article with keywords to distinguish between the positive and negative perspective has been added Chinese dict
  3. 所属分类:数据结构常用算法

    • 发布日期:2013-10-14
    • 文件大小:28100473
    • 提供者:jiang
  1. IK-Analyzer-2012_u6_source

    0下载:
  2. IK Analyzer 2012 中文分词系统源码-source code of IK Analyzer 2012 chinese segmentation
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-09
    • 文件大小:1066095
    • 提供者:yzheng
  1. nlu_project

    0下载:
  2. 采用机器学习的方法进行自然语言处理,对中文进行分词和词性标注。分词采用crf模型,词性标注用hmm模型,解码算法为Vertibi算法。本系统使用java语言编写-Using machine learning methods for natural language processing, carried out on the Chinese word segmentation and POS tagging. Segmentation using crf model, tagging with
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-09
    • 文件大小:2006356
    • 提供者:lipeng
  1. jieba

    2下载:
  2. jieba分词软件,是python下的开源分词软件,里面有使用例子,简单易用-jieba segmentation software, is under the open source python segmentation software, there are examples of the use, easy to use
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-17
    • 文件大小:4697853
    • 提供者:gaozhe
  1. tmsvm_for_win_1.2.0

    0下载:
  2. python svm 中文分词、特征提取、文本分类-python svm
  3. 所属分类:Mathimatics-Numerical algorithms

    • 发布日期:2017-05-25
    • 文件大小:8393259
    • 提供者:
  1. NLPIR-JNI

    0下载:
  2. 这是张华平博士发布NLPIR汉语分词系统(又名ICTCLAS2013).可用于对语料进行分词,预处理.-ictclass word split
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-23
    • 文件大小:7228525
    • 提供者:严灏
  1. GP

    0下载:
  2. 一个简单的中文分词系统,基于正向最大匹配算法和逆向最大匹配算法。-A simple Chinese word segmentation system, based on the forward and reverse maximum matching algorithm maximum matching algorithm.
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-06-03
    • 文件大小:15278996
    • 提供者:董旭
  1. DividWords

    0下载:
  2. 主要利用词典来实现最大匹配算法来实现分词-divid wordss
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-11
    • 文件大小:748
    • 提供者:qiao
  1. automatic-word-segmentation

    0下载:
  2. 实现一个中文自动分词程序,所使用的编程语言不限 选作:对人名,地名,机构名的识别 下载北大计算语言所标注的99年人民日报分词语料库,构建一个词表 实现正向、逆向最大分词算法-To implement a Chinese automatic word segmentation procedure, used by any programming language Chosen for: the person names, place names, organization name
  3. 所属分类:Compress-Decompress algrithms

    • 发布日期:2017-04-03
    • 文件大小:426197
    • 提供者:黄艳玲
  1. FreeICTCLAS

    0下载:
  2. 对中文进行分词,c++实现多中文文本的分词算法-Using java prepared tf* idf results
  3. 所属分类:Algorithm

    • 发布日期:2017-05-13
    • 文件大小:2717670
    • 提供者:静静
  1. HmmPos

    0下载:
  2. 本文主要研究在给定的机械词频词典下的基于字符串匹配的中文分词系统,将一整段文字基本正确的切分成词,并标注上词性。在实现分词的过程中,最重要的两个因素就是分词速度和分词精度。因此,我们以分词速度、分词正确率和分词召回率作为中文分词评测标准,力求达到较高的分词速度和分词精度-word Tagging
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-12
    • 文件大小:2850962
    • 提供者:侯小爱
  1. JRKIM

    0下载:
  2. 自己写的英文无空格的分词代码,只是个小例子,加入了1阶语言模型的分享,仅供参考-English to write their own code word with no spaces, just a small example, adding an order to share language models for reference
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-10
    • 文件大小:2500388
    • 提供者:陈晨
  1. Wordpos

    1下载:
  2. 应用vitorbe实现的分词算法和词性标志,里面有word文档的说明,请大家下载使用,-Application vitorbe achieve segmentation algorithms and speech marks, there are instructions word document, please download, thank you
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-02
    • 文件大小:815850
    • 提供者:陈晨
  1. fenci

    0下载:
  2. 运用正向最大匹配算法和反向最大匹配算法,在已有预料库的基础上实现中文分词-The maximum matching algorithm using forward and reverse maximum matching algorithm, the library has been implemented on the basis of expected Chinese word
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-17
    • 文件大小:4175947
    • 提供者:吴佩
  1. Program1

    0下载:
  2. 这是中文信息处理的分词算法实现,具有很高的正确率和使用价值!这是分词算法的核心内容!具有很高的参考价值。-The text clustering algorithm based on text similarity computing research and implementation, this is an important branch of Chinese information processing.
  3. 所属分类:Data structs

    • 发布日期:2017-05-20
    • 文件大小:5684999
    • 提供者:张明
« 1 2 3 4 56 7 8 »
搜珍网 www.dssz.com