搜索资源列表
soso
- {php mysql 中文全文搜索demo}中文全文搜索目前没有什么好的方法 本例子提供这个产考 先分词 在urlcode编码 然后mysql 全文检索 查询 提供了个思路请多指教 :qq:852790674-www.kurencms.tk
Bayes
- 这是一个利用C#编写的贝叶斯中文文本分类器,分词器使用了ICTCLAS分词器。-failed to translate
Automatic-Chinese-word-segmentation
- 中文信息处理自动分词 支持6种分词方法 中文信息处理 自动分词-Chinese information processing automatic word supports six kinds of sub-word Chinese information processing automatic segmentation
WordTest
- 本文阐述了一个基于K-Nearest Neighbor(KNN)算法的中文网页自动分类系统的体系结构、具体设计和实现过程。系统分成三个模块:中文网页的下载与过滤(王勋完成);KNN算法的训练与分类(黄健完成);算法评估以及分词系统的整合(吴亮完成)。 本人主要是实现算法的评估以及分词系统的整合:分词系统的整合利用爱博汉语分词系统(服务器版本—共享版),将下载下来的中文网页过滤后所得到的txt文件内容进行分词,以便提供给KNN算法进行训练和分类;算法的评估是将KNN算法后所得到的结果进行分析,
backforwardSegmentationjava
- 后向分词算法对中文文本进行简单分词,有Swing界面,适合初学者.-Backforward propergation chinese segmentation. with the visible interface by Swing. It s useful for the new guy.
hanseg
- 1.该程序为基于词典的中文自动分词. 2.程序的运行编译环境是:VC6 3.详细信息请参见本目录下面的中文自动分词文档。-1 The procedure for dictionary-based Chinese automatic word segmentation program run the compiler environment: VC6 For more information please see the catalog below the automatic Chine
TestWordSegment
- 功能组件,是分词系统的核心类 处理中文语句分词-Functional components, segmentation Segmentation System core classes deal with Chinese statement
ChineseStemming
- 采用中科院ICTCLAS分词系统对中文文本进行分词-Preprocessing Chinese text based on ICTCLAS
fenci
- 利用HMM,针对《1998年人民日报》语料库进行研究,最终实现了中文语句的自动分词-By HMM, research, and ultimately the Chinese statement for the 1998 People' s Daily " Corpus automatic segmentation
searching
- 中文搜索引擎分词关键技术,包括对典型算法和技术的总结介绍,适合初学者-Chinese words splitting short referenece, for the beginner
ChinesewordRate
- 统计已分词文件中中文词语出现频率,前提是要有已经完成分词的txt文件。-Statistics frequency of the Chinese word segmentation document
bhav-saar-master
- 一种自然语言处理的算法 用于情感分析 将一篇文章以关键字的角度来区别正面负面 已经添加了中文词典,可以对中文使用(请对语料先分词)-A natural language processing algorithm for sentiment analysis will be an article with keywords to distinguish between the positive and negative perspective has been added Chinese dict
Lucene_segmentation
- 基于Lucene的中文字典分词模块的设计与实现-Lucene-based Chinese dictionary word module design and implementation
nlu_project
- 采用机器学习的方法进行自然语言处理,对中文进行分词和词性标注。分词采用crf模型,词性标注用hmm模型,解码算法为Vertibi算法。本系统使用java语言编写-Using machine learning methods for natural language processing, carried out on the Chinese word segmentation and POS tagging. Segmentation using crf model, tagging with
wuxiao
- 是中文和英文网页的分词等预处理,里面包括例子,结果,文档,代码-Is Chinese and English web pages and other pre-segmentation, which includes examples of the results, documentation, code
0nlu_project
- 本系统使用java语言编写,采用机器学习的方法进行自然语言处理,对中文进行分词和词性标注。分词采用crf模型,词性标注用hmm模型,解码算法为Vertibi算法。-The system uses java language, using machine learning methods for natural language processing, for Chinese word segmentation and POS tagging. Segmentation using crf mod
Lucene
- Lucene中文词频统计,包括分词,统计,排序,运行高效,分词手段使用Lucene封装的类库,操作简便-Lucene Chinese word frequency statistics, including segmentation, statistics, sorting, efficient operation, word means using Lucene library package, easy to operate
automatic-word-segmentation
- 实现一个中文自动分词程序,所使用的编程语言不限 选作:对人名,地名,机构名的识别 下载北大计算语言所标注的99年人民日报分词语料库,构建一个词表 实现正向、逆向最大分词算法-To implement a Chinese automatic word segmentation procedure, used by any programming language Chosen for: the person names, place names, organization name
FreeICTCLAS
- 对中文进行分词,c++实现多中文文本的分词算法-Using java prepared tf* idf results
WordSplit
- 基于中科院分词工具进行封装,实现了一个, 你输入一句中文,以二维字符串数组的形式返回分好的名词、动词、形容词-CAS-based segmentation tool package to achieve one, you enter a word of Chinese, in the form of a two-dimensional array of strings returned good points nouns, verbs, adjectives, etc.