CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 搜索资源 - 中文语料

搜索资源列表

  1. transfer.py.tar

    0下载:
  2. 通过Unicode内码值计算,将中文全角标点符号转换为中文半角标点符号的Python脚本,可用于统一语料中的标点符号全半角。-Code value in Unicode within the Chinese full-width punctuation into Chinese half-width punctuation Python scr ipt can be used for the width of a unified corpus of punctuation.
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-03
    • 文件大小:557
    • 提供者:滑车
  1. identified-in-set

    1下载:
  2. 基于MFCC参数和DTW算法的语音识别算法,对0-9这十个数字的中文发音进行识别。该程序对特定的五个人做集合内的识别,程序中已有语料。-The MFCC parameter and DTW algorithm-based speech recognition algorithm, the 0-9 ten digits Chinese pronunciation recognition. The program on five specific identification collection
  3. 所属分类:Other systems

    • 发布日期:2017-11-23
    • 文件大小:274462
    • 提供者:lemywong
  1. identified-out-of-set

    0下载:
  2. 基于MFCC参数和DTW算法的语音识别算法,对0-9这十个数字的中文发音进行识别。该程序对特定的三个人的声音做训练,并用来识别这三个人之外的30个人的发音,即特定人的集合外的识别,程序中已有语料。-The MFCC parameter and DTW algorithm-based speech recognition algorithm, the 0-9 ten digits Chinese pronunciation recognition. Do training of the progr
  3. 所属分类:Other systems

    • 发布日期:2017-11-16
    • 文件大小:1769309
    • 提供者:lemywong
  1. ChineseSegment

    0下载:
  2. 一个完整的中文分词程序,有源码,词典,训练集。算法简洁高效,准确率高。包含了一种将标注语料和词典融合的新型分词方法。将语料分割为2:1为训练集和测试集,加上一个外部词典,准确率可以达到95 。适合入门者学习。也适合需要一个简单分词工具的应用。-A Chinese word segmentation procedures, source, dictionary, the training set. The algorithm is simple and efficient, high accura
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-11-13
    • 文件大小:14581979
    • 提供者:张忠辉
  1. pfr199801

    0下载:
  2. PFR人民日报标注语料库(版本1.0,下面简称PFR语料库)是在得到人民日报社新闻信息中心许可的条件下,以1998年人民日报语料为对象,由北京大学计算语言学研究所和富士通研究开发中心有限公司共同制作的标注语料库。为了促进中文信息处理研究的发展,我们三方计划公开PFR语料库。作为公开的前期工作,从4月3日起,在我们三方的主页上免费公开PFR语料库1月份的语料,欢迎大家下载。PFR语料库的制作规范参阅《现代汉语语料库加工――词语切分与词性标注规范》。如果您在研究或论文工作中使用PFR语料库,请注明来
  3. 所属分类:MultiLanguage

    • 发布日期:2017-11-05
    • 文件大小:2216152
    • 提供者:icypriest
  1. Text-Classification_libSVM

    0下载:
  2. 用seg进行分词 输入参数一:输入文本语料所在的文件夹路径。 如 文本文件语料都放在 train//text 文件夹下,则参数为:train//text//* 。 注意:必须每篇文章在一个txt文本中。 输入参数二:输入存储分词后的结果文件所在的文件夹路径:如:result//text。注意:不需要加* 本工具采用了中科院的中文分词工具,ICTCLAS,请自行到ICTCLAS官网下载该工具。并把Data文件夹,Configure.xml,ICTCLAS30.h,ICTCLAS3
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-11-06
    • 文件大小:4230849
    • 提供者:李勇军
  1. fenci

    0下载:
  2. 利用HMM,针对《1998年人民日报》语料库进行研究,最终实现了中文语句的自动分词-By HMM, research, and ultimately the Chinese statement for the 1998 People' s Daily " Corpus automatic segmentation
  3. 所属分类:CSharp

    • 发布日期:2017-11-20
    • 文件大小:4230586
    • 提供者:txd
  1. RMM

    0下载:
  2. 这个是RMM算法,支持正向、逆向最大匹配,是自然语言处理的重要算法之一,只要替代程序中的词库即可。本词库取自1988年人民日报语料材料,算法对中文分词精确度达到90 以上-This is RMM algorithm supports forward, reverse maximum matching, natural language processing algorithm, as long as the alternative procedures thesaurus can. The th
  3. 所属分类:Search Engine

    • 发布日期:2017-11-09
    • 文件大小:251403
    • 提供者:he
  1. bhav-saar-master

    1下载:
  2. 一种自然语言处理的算法 用于情感分析 将一篇文章以关键字的角度来区别正面负面 已经添加了中文词典,可以对中文使用(请对语料先分词)-A natural language processing algorithm for sentiment analysis will be an article with keywords to distinguish between the positive and negative perspective has been added Chinese dict
  3. 所属分类:数据结构常用算法

    • 发布日期:2013-10-14
    • 文件大小:28100473
    • 提供者:jiang
  1. ygrx

    0下载:
  2. 这是一个简单的中文分词程序,可以在没有语料库的情况下通过各个词语的相关度将中文词汇抽取出来-A simple Chinese segmentation procedures, speed is also good
  3. 所属分类:Other systems

    • 发布日期:2017-04-14
    • 文件大小:4818
    • 提供者:denisdou
  1. program

    0下载:
  2. 中文分词程序,使用的是1998年的人民日报语料进行的处理,有做相同研究的可以下载使用-Chinese word segmentation program
  3. 所属分类:Console

    • 发布日期:2017-05-09
    • 文件大小:1876029
    • 提供者:仵永栩
  1. automatic-word-segmentation

    0下载:
  2. 实现一个中文自动分词程序,所使用的编程语言不限 选作:对人名,地名,机构名的识别 下载北大计算语言所标注的99年人民日报分词语料库,构建一个词表 实现正向、逆向最大分词算法-To implement a Chinese automatic word segmentation procedure, used by any programming language Chosen for: the person names, place names, organization name
  3. 所属分类:Compress-Decompress algrithms

    • 发布日期:2017-04-03
    • 文件大小:426197
    • 提供者:黄艳玲
  1. natural-language-understanding

    1下载:
  2. 中文分词、自然语言理解、机器学习及语料切分,完整的工程报告。-Chinese word segmentation Natural language understanding of machine learning and data segmentation, a complete project report
  3. 所属分类:Other systems

    • 发布日期:2017-06-15
    • 文件大小:22581975
    • 提供者:张天
  1. aiml-en-us-foundation-alice.snapshot

    0下载:
  2. ALICE问答系统的aiml格式对话语料,比较全的英文问答系统语料,供大家研究使用,可翻译成中文,参考设计中文问答系统。-aiml format dialog data ALICE question answering system, comparison of the whole corpus of English question answering system for everyone to use, can be translated into Chinese, reference d
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-07
    • 文件大小:1442833
    • 提供者:yijing
  1. tc-corpus-answer

    1下载:
  2. 复旦中文文本语料库,共十类文本,未分词,有兴趣可以-Fudan Chinese text corpus
  3. 所属分类:Other Databases

    • 发布日期:2017-04-25
    • 文件大小:53624832
    • 提供者:pico
  1. COAE2014task01

    1下载:
  2. 第六届中文倾向性分析评测(COAE2014)语料资料-Sixth corpus of Chinese tendentious analysis and uation (COAE2014) corpus
  3. 所属分类:Big Data

    • 发布日期:2017-12-11
    • 文件大小:19117462
    • 提供者:吴峰
  1. 自然语言处理课程设计代码

    0下载:
  2. 一、宋词词频统计:语料库:ci.txt 要求:编程序,输入ci,自动分析统计ci.txt,统计宋词的单字词,双字词等。统计后,输出的是单字词和双字词的词典文件。文件中包括相应的词和频度(次数)。 二:宋词自动生成:语料库:ci.txt 要求:输入词牌,基于宋词的词典和宋词的词牌,可以随机或者按照语言模型,自动生成宋词。设计相应的Ui或者Web界面。 四、中文词法分析系统:语料库:1998-01-2003版-带音.txt 要求:根据构建的单词词典和双词词典,用n-gram模型,或者前向最
  3. 所属分类:系统编程

  1. 合工大自然语言处理报告代码

    6下载:
  2. 四、中文词法分析系统 1、实验要求 语料库:1998-01-2003版-带音.txt 要求:根据构建的单词词典和双词词典,用n-gram模型,或者前向最长匹配,或者后向最长匹配等算法,鼓励用更复杂一些的方法来进行,包括隐马尔科夫模型和条件随机场模型。 二、宋词自动生成 1、实验要求 语料库:ci.txt 要求:输入词牌,基于宋词的词典和宋词的词牌,可以随机或者按照语言模型,自动生成宋词。设计相应的Ui或者Web界面。 实现了隐马尔科夫模型分词
  3. 所属分类:人工智能/神经网络/遗传算法

« 1 2»
搜珍网 www.dssz.com