搜索资源列表
IKAnalyzer_V3.2.8
- IK Analyzer是一个开源的,基于java诧言开发的轻量级的中文分词工具包。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IK Analyzer 3.X则发展为面吐Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。-IK Analyzer 3.X
ICTCLAS50_Linux_RHAS_32_JNI
- 中科院中文分词程序,国内相关领域的的权威.这是Java(JNI)32位版-Institute of Chinese word segmentation program, the domestic authority of the relevant fields, which is Java (JNI) 32-bit version
Lucene-code-src3.0-
- Lucene3.0原理与分析java版 第一章 全文检索的原本原理 第二章 Lucene 的总体架构 第三章:Lucene 的索引文件格式 第四章:Lucene 索引过程分析 第五章:Lucene 段合并(merge)过程分析 第七章:Lucene 搜索过程解析 第八章:Lucene 的查询语法,JavaCC 及QueryParser 第十章:Lucene 的分词器Analyzer-The first chapter of the full text searc
fenci
- 前向最大分词算法,翻译软件的最基本思想。用Java语言开发的程序。-Prior to the maximum segmentation algorithm, translation software, the basic idea. Java language programs.
ICTCLAS50_Windows_32_JNI
- 中文分词的java代码实现,包含详细的使用方法。-Chinese Word of the java implementation
fenci
- 中文分词软件,JAVA源码,利用中科院ICTCLAS实现分词。-chinese words cut
ICTCLAS5.0
- 中文分词软件编程接口说明,很详细很详细。C++,C#,JAVA-Chinese word segmentation software programming interface specification, in detail
javaTermFreq
- java中对英文分词后,去词干后进行词频统计的代码-stastic the frequency of english words after steming and looking up stopword list
CutWords
- 实现搜索引擎中的中文分词技术,JAVA语言实现-Chinese word in the search engine technology
class
- 使用中科院分词系统和林智仁的libsvm进行设计的系统,主要使用java语言进行开发,其他更多的信息查看readme文件-The use of Chinese Academy of Sciences segmentation system and Lin Zhiren libsvm design system, the main use of Java language for the development of other more information, see the readme f
MyICTCLASNew
- 用java写的中文分词系统,绝对能用,欢迎下载-Chinese word segmentation :java
IKAnalyzer2012_u3
- java 分词模块,不带权重, 学习之用, 来自网络- java fenci
FastSeg
- 搜索引擎相关,中文分词算法,java编写-Search engines related, Chinese word segmentation algorithm, written in Java
Tokenizer
- opennlp是自然语言处理的开源工具,它是JAVA写的,可以再Eclipse中直接调用。上传的这写代码实现了英文分词代码的功能。-Opennlp is an open tool for natural language processing. It is written in JAVA. It can be used in Eclipse directly . The code uploaded is used to token English words.
paoding-analysis-2.0.4
- Paoding中文分词是一个使用Java开发的,可结合到Lucene应用中的,为互联网、企业内部网使用的中文搜索引擎分词组件。 Paoding填补了国内中文分词方面开源组件的空白,致力于此并希翼成为互联网网站首选的中文分词开源组件。 Paoding中文分词追求分词的高效率和用户良好体验。-Paoding Chinese word is a Java development can be combined with Lucene applications for the word componen
WordSegmetetion
- java编写的分词小程序 能实现一定范围内的分词功能,可对词库内容进行分类-java wordsegmention
WVTool
- 很好的文本分词工具,很适合java初学者。其中有分词jar文件。-Good text segmentation tool, it is suitable for java beginners. Which took part in the word jar file.
java_participle
- java分词算法的实现的里面有demo,下载直接运行即可看到效果。-java sub-word algorithm there are demo, download and run directly can see the effect.
ansjsun-ansj_seg-fa62737
- 基于JAVA中文分词,为ITEYE开源项目,很好很强大。性能高-JAVA-based Chinese word, very very strong for ITEYE open source project. High-performance
ansj_seg-master
- 这是一个ictclas的java实现.基本上重写了所有的数据结构和算法.词典是用的开源版的ictclas所提供的.并且进行了部分的人工优化 内存中中文分词每秒钟大约100万字(速度上已经超越ictclas) 文件读取分词每秒钟大约30万字 准确率能达到96 以上-This is a ictclas of java. Basically rewrite all the data structures and algorithms. Dictionary is prov