搜索资源列表
wenbenfenlei
- 中文文本分类的语料库,比较全面,可用于进行分类训练时-Chinese text classification of Corpus, more comprehensive, and can be used for classification of training
onTextCategorization
- 本文比较研究了在中文文本分类中特征选取方法对分类效果的影响。考察了文档频率DF、信息增 益IG、互信息MI、V2分布CHI 四种不同的特征选取方法。采用支持向量机(SVM) 和KNN两种不同的分类 器以考察不同抽取方法的有效性。实验结果表明, 在英文文本分类中表现良好的特征抽取方法( IG、MI 和 CHI)在不加修正的情况下并不适合中文文本分类。文中从理论上分析了产生差异的原因, 并分析了可能的 矫正方法包括采用超大规模训练语料和采用组合的特征抽取方法。最后通过实验验证组合特征
transfer.py.tar
- 通过Unicode内码值计算,将中文全角标点符号转换为中文半角标点符号的Python脚本,可用于统一语料中的标点符号全半角。-Code value in Unicode within the Chinese full-width punctuation into Chinese half-width punctuation Python scr ipt can be used for the width of a unified corpus of punctuation.
ChineseSegment
- 一个完整的中文分词程序,有源码,词典,训练集。算法简洁高效,准确率高。包含了一种将标注语料和词典融合的新型分词方法。将语料分割为2:1为训练集和测试集,加上一个外部词典,准确率可以达到95 。适合入门者学习。也适合需要一个简单分词工具的应用。-A Chinese word segmentation procedures, source, dictionary, the training set. The algorithm is simple and efficient, high accura
Text-Classification_libSVM
- 用seg进行分词 输入参数一:输入文本语料所在的文件夹路径。 如 文本文件语料都放在 train//text 文件夹下,则参数为:train//text//* 。 注意:必须每篇文章在一个txt文本中。 输入参数二:输入存储分词后的结果文件所在的文件夹路径:如:result//text。注意:不需要加* 本工具采用了中科院的中文分词工具,ICTCLAS,请自行到ICTCLAS官网下载该工具。并把Data文件夹,Configure.xml,ICTCLAS30.h,ICTCLAS3
bhav-saar-master
- 一种自然语言处理的算法 用于情感分析 将一篇文章以关键字的角度来区别正面负面 已经添加了中文词典,可以对中文使用(请对语料先分词)-A natural language processing algorithm for sentiment analysis will be an article with keywords to distinguish between the positive and negative perspective has been added Chinese dict
automatic-word-segmentation
- 实现一个中文自动分词程序,所使用的编程语言不限 选作:对人名,地名,机构名的识别 下载北大计算语言所标注的99年人民日报分词语料库,构建一个词表 实现正向、逆向最大分词算法-To implement a Chinese automatic word segmentation procedure, used by any programming language Chosen for: the person names, place names, organization name
aiml-en-us-foundation-alice.snapshot
- ALICE问答系统的aiml格式对话语料,比较全的英文问答系统语料,供大家研究使用,可翻译成中文,参考设计中文问答系统。-aiml format dialog data ALICE question answering system, comparison of the whole corpus of English question answering system for everyone to use, can be translated into Chinese, reference d
COAE2014task01
- 第六届中文倾向性分析评测(COAE2014)语料资料-Sixth corpus of Chinese tendentious analysis and uation (COAE2014) corpus
chinese_text_classification-master
- 文本分类的一个基本项目,用到的是复旦大学中文语料库(a basic project for text classification,I use the corpus from fudan university as my training and testing corpus)
icwb2-data
- NLP中文语料库,backoff语料库,可以用来训练(A wiki (Listeni/ˈ wɪ ki/ WIK-ee) is a website that provides collaborative modification of its content and structure directly the web browser. In a typical wiki, text is written using a simplified markup language an
合工大自然语言处理报告代码
- 四、中文词法分析系统 1、实验要求 语料库:1998-01-2003版-带音.txt 要求:根据构建的单词词典和双词词典,用n-gram模型,或者前向最长匹配,或者后向最长匹配等算法,鼓励用更复杂一些的方法来进行,包括隐马尔科夫模型和条件随机场模型。 二、宋词自动生成 1、实验要求 语料库:ci.txt 要求:输入词牌,基于宋词的词典和宋词的词牌,可以随机或者按照语言模型,自动生成宋词。设计相应的Ui或者Web界面。 实现了隐马尔科夫模型分词