CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 搜索资源 - 中文语料

搜索资源列表

  1. PoS-Tagging-based-on-HMM

    2下载:
  2. 基于隐马尔科夫的中文词性标注系统的C++源代码,包括训练集和测试集语料库,单词量和词性数目都没有写死,可适应任意大的训练和测试数据集,程序已经过优化,一次标注只需要不到10秒的时间。-Based on Hidden Markov of the Chinese part of speech tagging system in C++ source code, including the training set and test set corpus, vocabulary and speech
  3. 所属分类:Windows Develop

    • 发布日期:
    • 文件大小:4439708
    • 提供者:蒋智威
  1. Language_model_learning_in_chinese

    0下载:
  2. 语言模型学习论文-中文 基于最大熵方法的统计语言模型.pdf 基于对话回合衰减的cache语言模型在线自适应研究.pdf 基于Web网页语料构建动态语言模型.pdf 统计语言模型综述.pdf -Language model to study papers- Chinese based on the maximum entropy method of statistical language model. Pdf Round attenuation based on di
  3. 所属分类:Development Research

    • 发布日期:2017-04-10
    • 文件大小:1246519
    • 提供者:wen6860
  1. BootCaT-0.1.2.tar

    1下载:
  2. 此软件是开源软件,主要用于中文信息处理,信息检索。本人主要用于网络获取双语语料库。此软件用perl编写,模块独立性强,在获得收集一些种子网址后,即可用于双语网络获取。-The perl scr ipts included in the BootCaT toolkit implement an iterative procedure to bootstrap specialized corpora and terms from the web, requiring only a list
  3. 所属分类:WEB(ASP,PHP,...)

    • 发布日期:2017-03-29
    • 文件大小:51575
    • 提供者:liwen
  1. SogouT.mini.tar

    0下载:
  2. 百度搜索引擎具有响应速度快、查找结果准确全面、时效性强、无效链接少、符合中文语言特点和中国人使用习惯等优点。 1...这种方法只需对语料中的字组频度进行统计,不需要切分词典,因而又叫做无词典分词法或统计取词方法。但这种方法也有一定- IHTMLDocument3* pHTMLDoc3 HRESULT hr = m_pHTMLDocument2->QueryInterface(IID_IHTMLDocument3, (LPVOID*)&pHTMLDoc3)
  3. 所属分类:Search Engine

    • 发布日期:2017-03-29
    • 文件大小:62317
    • 提供者:xuhaifan
  1. IDFCal

    1下载:
  2. tf-idf程序,朋友写的,很好。对中文句子进行相似度计算,有计算句子权值、排序、两两句子之间的相似度计算。有语料,可以直接运行-tf-idf program, friends wrote, very good. Similarity calculation for Chinese sentences, the sentence weights are calculated, sort, twenty-two similarity between sub-calculation. A corpu
  3. 所属分类:Other windows programs

    • 发布日期:2017-04-05
    • 文件大小:16245
    • 提供者:Shirley
  1. qwvvfg

    0下载:
  2. 基于语料库的中文姓名识别方法研究 本文在大规模语料基础上提取和分析了中文姓氏和名字用字的使用频率,研究了 中文姓名识别的评价函数,动态地建立了姓名识别统计数据表和姓名阅值-Corpus-based Study of Chinese Names Recognition Based on the large-scale extraction and analysis of corpus based on the first and last name in Chinese character
  3. 所属分类:Graph Recognize

    • 发布日期:2017-04-05
    • 文件大小:280298
    • 提供者:张驰
  1. master_thesis

    0下载:
  2. 音乐领域中文实体关系抽取研究 实体关系抽取的任务是从文本中抽取出两个或者多个实体之间预先定义 好的语义关系。本文将实体关系抽取定义为一个分类问题,主要研究内容是 中文音乐领域的实体关系抽取。针对这一问题,本文首先构建了中文音乐实 体关系语料库,然后分别采用了基于序列模式挖掘的无指导的方法和基于特 征提取的有指导的方法来解决这一问题。 -Dissertation for the Master Degree in Engineering urgently needed to de
  3. 所属分类:Development Research

    • 发布日期:2017-05-03
    • 文件大小:1446217
    • 提供者:xz
  1. onTextCategorization

    0下载:
  2. 本文比较研究了在中文文本分类中特征选取方法对分类效果的影响。考察了文档频率DF、信息增 益IG、互信息MI、V2分布CHI 四种不同的特征选取方法。采用支持向量机(SVM) 和KNN两种不同的分类 器以考察不同抽取方法的有效性。实验结果表明, 在英文文本分类中表现良好的特征抽取方法( IG、MI 和 CHI)在不加修正的情况下并不适合中文文本分类。文中从理论上分析了产生差异的原因, 并分析了可能的 矫正方法包括采用超大规模训练语料和采用组合的特征抽取方法。最后通过实验验证组合特征
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-03-30
    • 文件大小:240923
    • 提供者:xz
  1. transfer.py.tar

    0下载:
  2. 通过Unicode内码值计算,将中文全角标点符号转换为中文半角标点符号的Python脚本,可用于统一语料中的标点符号全半角。-Code value in Unicode within the Chinese full-width punctuation into Chinese half-width punctuation Python scr ipt can be used for the width of a unified corpus of punctuation.
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-03
    • 文件大小:557
    • 提供者:滑车
  1. identified-in-set

    1下载:
  2. 基于MFCC参数和DTW算法的语音识别算法,对0-9这十个数字的中文发音进行识别。该程序对特定的五个人做集合内的识别,程序中已有语料。-The MFCC parameter and DTW algorithm-based speech recognition algorithm, the 0-9 ten digits Chinese pronunciation recognition. The program on five specific identification collection
  3. 所属分类:Other systems

    • 发布日期:2017-11-23
    • 文件大小:274462
    • 提供者:lemywong
  1. identified-out-of-set

    0下载:
  2. 基于MFCC参数和DTW算法的语音识别算法,对0-9这十个数字的中文发音进行识别。该程序对特定的三个人的声音做训练,并用来识别这三个人之外的30个人的发音,即特定人的集合外的识别,程序中已有语料。-The MFCC parameter and DTW algorithm-based speech recognition algorithm, the 0-9 ten digits Chinese pronunciation recognition. Do training of the progr
  3. 所属分类:Other systems

    • 发布日期:2017-11-16
    • 文件大小:1769309
    • 提供者:lemywong
  1. ChineseSegment

    0下载:
  2. 一个完整的中文分词程序,有源码,词典,训练集。算法简洁高效,准确率高。包含了一种将标注语料和词典融合的新型分词方法。将语料分割为2:1为训练集和测试集,加上一个外部词典,准确率可以达到95 。适合入门者学习。也适合需要一个简单分词工具的应用。-A Chinese word segmentation procedures, source, dictionary, the training set. The algorithm is simple and efficient, high accura
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-11-13
    • 文件大小:14581979
    • 提供者:张忠辉
  1. pfr199801

    0下载:
  2. PFR人民日报标注语料库(版本1.0,下面简称PFR语料库)是在得到人民日报社新闻信息中心许可的条件下,以1998年人民日报语料为对象,由北京大学计算语言学研究所和富士通研究开发中心有限公司共同制作的标注语料库。为了促进中文信息处理研究的发展,我们三方计划公开PFR语料库。作为公开的前期工作,从4月3日起,在我们三方的主页上免费公开PFR语料库1月份的语料,欢迎大家下载。PFR语料库的制作规范参阅《现代汉语语料库加工――词语切分与词性标注规范》。如果您在研究或论文工作中使用PFR语料库,请注明来
  3. 所属分类:MultiLanguage

    • 发布日期:2017-11-05
    • 文件大小:2216152
    • 提供者:icypriest
  1. Text-Classification_libSVM

    0下载:
  2. 用seg进行分词 输入参数一:输入文本语料所在的文件夹路径。 如 文本文件语料都放在 train//text 文件夹下,则参数为:train//text//* 。 注意:必须每篇文章在一个txt文本中。 输入参数二:输入存储分词后的结果文件所在的文件夹路径:如:result//text。注意:不需要加* 本工具采用了中科院的中文分词工具,ICTCLAS,请自行到ICTCLAS官网下载该工具。并把Data文件夹,Configure.xml,ICTCLAS30.h,ICTCLAS3
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-11-06
    • 文件大小:4230849
    • 提供者:李勇军
  1. fenci

    0下载:
  2. 利用HMM,针对《1998年人民日报》语料库进行研究,最终实现了中文语句的自动分词-By HMM, research, and ultimately the Chinese statement for the 1998 People' s Daily " Corpus automatic segmentation
  3. 所属分类:CSharp

    • 发布日期:2017-11-20
    • 文件大小:4230586
    • 提供者:txd
  1. RMM

    0下载:
  2. 这个是RMM算法,支持正向、逆向最大匹配,是自然语言处理的重要算法之一,只要替代程序中的词库即可。本词库取自1988年人民日报语料材料,算法对中文分词精确度达到90 以上-This is RMM algorithm supports forward, reverse maximum matching, natural language processing algorithm, as long as the alternative procedures thesaurus can. The th
  3. 所属分类:Search Engine

    • 发布日期:2017-11-09
    • 文件大小:251403
    • 提供者:he
  1. bhav-saar-master

    1下载:
  2. 一种自然语言处理的算法 用于情感分析 将一篇文章以关键字的角度来区别正面负面 已经添加了中文词典,可以对中文使用(请对语料先分词)-A natural language processing algorithm for sentiment analysis will be an article with keywords to distinguish between the positive and negative perspective has been added Chinese dict
  3. 所属分类:数据结构常用算法

    • 发布日期:2013-10-14
    • 文件大小:28100473
    • 提供者:jiang
  1. ygrx

    0下载:
  2. 这是一个简单的中文分词程序,可以在没有语料库的情况下通过各个词语的相关度将中文词汇抽取出来-A simple Chinese segmentation procedures, speed is also good
  3. 所属分类:Other systems

    • 发布日期:2017-04-14
    • 文件大小:4818
    • 提供者:denisdou
  1. program

    0下载:
  2. 中文分词程序,使用的是1998年的人民日报语料进行的处理,有做相同研究的可以下载使用-Chinese word segmentation program
  3. 所属分类:Console

    • 发布日期:2017-05-09
    • 文件大小:1876029
    • 提供者:仵永栩
  1. automatic-word-segmentation

    0下载:
  2. 实现一个中文自动分词程序,所使用的编程语言不限 选作:对人名,地名,机构名的识别 下载北大计算语言所标注的99年人民日报分词语料库,构建一个词表 实现正向、逆向最大分词算法-To implement a Chinese automatic word segmentation procedure, used by any programming language Chosen for: the person names, place names, organization name
  3. 所属分类:Compress-Decompress algrithms

    • 发布日期:2017-04-03
    • 文件大小:426197
    • 提供者:黄艳玲
« 1 23 »
搜珍网 www.dssz.com