搜索资源列表
svmcls
- 基于KNN+SVM算法的文本分类器,附带权威的分词词库及算法,有界面,程序可正常使用-KNN+ SVM-based text classification algorithm, with the authority of the sub-word thesaurus and algorithm, a interface, the program can be used normally
Bayes
- 用bayes实现的聚类算法,分词采用的是SharpICTCLAS分词系统 1.0-Achieved using bayes clustering algorithm, word segmentation is used SharpICTCLAS System 1.0
boosting_src
- Boosting中的AdaBoost.M1算法在文本分类中的应用实现。使用ICTCLAS用于中文分词,弱分类器使用Naive Bayes。程序参数使用配置文件的格式。-Application of text classification using AdaBoost.M1. Use ICTCLAS tool in Chinese segment, and use Naive Bayes as the weak classifier. use the config file as the para
EasySeg
- 实现中文分词的最大正向匹配算法,提前输入好文本。-Achieve maximum positive Chinese word matching algorithms, a good text input in advance
WordSegment
- 用C++开发的分词系统 运用基于哈希的逆向最大匹配算法 基于词典-Word in C development system uses a hash-based reverse maximum matching algorithm is based on dictionary
WordTest
- 本文阐述了一个基于K-Nearest Neighbor(KNN)算法的中文网页自动分类系统的体系结构、具体设计和实现过程。系统分成三个模块:中文网页的下载与过滤(王勋完成);KNN算法的训练与分类(黄健完成);算法评估以及分词系统的整合(吴亮完成)。 本人主要是实现算法的评估以及分词系统的整合:分词系统的整合利用爱博汉语分词系统(服务器版本—共享版),将下载下来的中文网页过滤后所得到的txt文件内容进行分词,以便提供给KNN算法进行训练和分类;算法的评估是将KNN算法后所得到的结果进行分析,
WordSeg
- 这是一个分词程序,有正向最大匹配算法,逆向最大匹配算法,正向最小匹配算法。-This is a word segmentation program, there are positive maximal matching algorithm, reverse maximal matching algorithm, positive minimum matching algorithms.
seg
- C# 中文分词 基于统计的朴素贝叶斯算法-C# ChineseWordSeg
20257147knn
- knn最近邻算法在给定新文本后,考虑在训练文本集中与该新文本距离最近(最相似)的 K 篇文本,根据这 K 篇文本所属的类别判定新文本所属的类别,具体的算法步骤如下: 一、:根据特征项集合重新描述训练文本向量 二、:在新文本到达后,根据特征词分词新文本,确定新文本的向量表示 三、:在训练文本集中选出与新文本最相似的 K 个文本-knn nearest neighbor algorithm in the given text, to consider in the train
sMySSeggh
- 最短路径法分词程序源码。将中文句子经过原子切分后生成一个有向无环图,然后使用用Dijkstra算法求出由起点到终点的最短路径以实现中文分词。 -The shortest path method segmentation program source code. Chinese sentence After atomic segmentation, to generate a directed acyclic graph, and then use Dijkstra algorithm to
Rkeyword-choue
- 基于逆向最大匹配算法的分词及基于HMM模型的词性标注系统,包括了未登登录词的识别、数据库的添加等内容。(需要手动修改数据库的路径才可以运行) -Based on the segmentation of the reverse maximum matching algorithm and the HMM-based POS tagging system, including unadvertised login word recognition, and add the database co
MyAnalyzer
- 简单的中文分词及敏感词检索工具,其中可以任意添加敏感词,并且可以选择使用正向最大匹配算法,逆向最大匹配算法,双向最大匹配算法中的一种进行分词。-Simple Chinese word and sensitive word retrieval tool, which can add any sensitive words, and you can choose to use the forward maximum matching algorithm, reverse maximum matchi
adarrts-02tarr
- 双数组辞典生成程序源码。运用双数组实现trie算法,对于不定长度共同前前缀查询情况,比哈希方法更为有效。经常用于分词辞典的制作。 可直接使用。 -The dual array thesaurus program source code is generated. The use of double-array trie algorithm for indefinite length common prefix query before, Bi Haxi method is more effe
Stemmer
- 在英语中,一个单词常常是另一个单词的“变种”,如:happy=>happiness,这里happy叫做happiness的词干(stem)。在信息检索系统中,我们常常做的一件事,就是在Term规范化过程中,提取词干(stemming),即除去英文单词分词变换形式的结尾。 应用最为广泛的、中等复杂程度的、基于后缀剥离的词干提取算法是波特词干算法,也叫波特词干器(Porter Stemmer)。详见官方网站。比较热门的检索系统包括Lucene、Whoosh等中的词干过滤器就是采用的波
splitewords
- 在对话框中,调用第三方分词工具(ICTCLAS中文分词免费版),实现对中文的分词示例程序,可以对想实现全文搜索算法的中文分词问题提供解决方案。-In the dialog box, call the third-party segmentation tools (word ICTCLAS Chinese free version), the sample program to achieve the segmentation of Chinese text search algorithms C
WordStem_20121024
- 采用Porter Stemming算法对英文文本进行分词-Preprocessing English text based on Porter Stemming algorithm
ChineseSegment
- 一个完整的中文分词程序,有源码,词典,训练集。算法简洁高效,准确率高。包含了一种将标注语料和词典融合的新型分词方法。将语料分割为2:1为训练集和测试集,加上一个外部词典,准确率可以达到95 。适合入门者学习。也适合需要一个简单分词工具的应用。-A Chinese word segmentation procedures, source, dictionary, the training set. The algorithm is simple and efficient, high accura
WordsDividing
- 这是一个自己写的分词系统,主要用到的算法有最大前向匹配算法和最大熵。-This is a written word segmentation system, mainly used maximum forward matching algorithm and maximum entropy algorithm.
ExtractorDktj131_2012
- 基于复杂网络的新闻网页解析算法,实现复杂网络构建及分词功能-Built complex network based on complex network news page parsing algorithm, and the word function
searching
- 中文搜索引擎分词关键技术,包括对典型算法和技术的总结介绍,适合初学者-Chinese words splitting short referenece, for the beginner