搜索资源列表
JE
- JE中文分词压缩包,应用于网络搜索中的中文分词过程中 -JE Chinese Words Segmentation
NGRAM
- NGRAM中文分词压缩包,应用于网络搜索中的中文分词过程中 -NGRAM Chinese Words Segmentation
ICTCLAS50_Linux_RHAS_32_C
- 中科院发布的中文分词系统,为国内水平最高的中文分词软件,这是最新版-Chinese Academy of Sciences released a Chinese word segmentation system, the highest level for the domestic Chinese word segmentation software, the latest version of the
ICTCLAS50_Linux_RHAS_64_C
- 中科院的中文分词软件,有源码,有调用库的用法.这是64位Linux版-Chinese Academy of Sciences of the Chinese word software, there is source code, call the library with the use of which is 64-bit Linux version
ICTCLAS50_Linux_RHAS_32_JNI
- 中科院中文分词程序,国内相关领域的的权威.这是Java(JNI)32位版-Institute of Chinese word segmentation program, the domestic authority of the relevant fields, which is Java (JNI) 32-bit version
wordsegmentation
- 一种基于自动机的分词方法,可进行中文分词及统计-Based method of automatic machine word
fenci
- 可以进行中文分词,准确率可达95 ,可以满足一般的分词需要-Chinese word can be, up to 95 accuracy, to meet the needs of the general word
Chinese-Lexical-Analysis
- 一种基于层叠隐马模型的汉语词法分析方法,旨在将汉语分词、词性标注、切分排歧和未登录词识别集成到一个完整的理论框架中.-An approach for Chinese 1exical analysis using cascaded hidden Markav model, which aims to incorporate segmentation, part-of-speech tagging, disambiguation and unknown words recognition int
CNSegmenter
- C#开发实例,主要完成中文分词技术,实现自动识别新词,和中文语句的划分-C# development instance, was completed for Chinese word segmentation, automatic identification of new words, and the division of Chinese statement
wordsDivide
- 输入一个词典和待分词的文档,输出按照词典分词后的文档-Enter a word dictionary and a document to be output according to the document after the word dictionary
soso
- {php mysql 中文全文搜索demo}中文全文搜索目前没有什么好的方法 本例子提供这个产考 先分词 在urlcode编码 然后mysql 全文检索 查询 提供了个思路请多指教 :qq:852790674-www.kurencms.tk
shooter_seg
- 开源分词系统,可以自己更改词库词典,加载后即可正常使用-shooter seg
boosting_src
- Boosting中的AdaBoost.M1算法在文本分类中的应用实现。使用ICTCLAS用于中文分词,弱分类器使用Naive Bayes。程序参数使用配置文件的格式。-Application of text classification using AdaBoost.M1. Use ICTCLAS tool in Chinese segment, and use Naive Bayes as the weak classifier. use the config file as the para
Lucene-code-src3.0-
- Lucene3.0原理与分析java版 第一章 全文检索的原本原理 第二章 Lucene 的总体架构 第三章:Lucene 的索引文件格式 第四章:Lucene 索引过程分析 第五章:Lucene 段合并(merge)过程分析 第七章:Lucene 搜索过程解析 第八章:Lucene 的查询语法,JavaCC 及QueryParser 第十章:Lucene 的分词器Analyzer-The first chapter of the full text searc
quanqiefen_fenci
- C#编写的程序,用于实现中文分词中的全切分获取连续单字符串功能。-Programs written in C# for the realization of the full Chinese word segmentation to obtain a continuous function of a single string.
coreseek-4.1-beta.tar
- 基于Sphinx的中文版全文搜索引擎,加入了中文分词功能,全部源码,跨平台支持。-Chinese fulltext search engine base on Sphinx
pp
- 基于机械分词的中文分词技术代码,使用最大概率法去歧义。词典很全。-Chinese word segmentation based on mechanical technology code word, using the maximum probability method to ambiguity. Dictionary is full.
fenci
- 前向最大分词算法,翻译软件的最基本思想。用Java语言开发的程序。-Prior to the maximum segmentation algorithm, translation software, the basic idea. Java language programs.
ICTCLAS50_Windows_32_JNI
- 中文分词的java代码实现,包含详细的使用方法。-Chinese Word of the java implementation
ICTCLAS-Example
- ICTCLAS的分词一个例子,可以使用的,放心大胆-an example of ICTCLAS,available