搜索资源列表
paoding-analysis-2[1].0.4-beta
- Paoding中文分词参考手册,Paoding中文分-Paoding
Lucene
- Lucene的基于正向最大匹配分析器,用于中文分词,可将查准率提高-Lucene chinese analyzer based by FMM algorithm
SunMap
- 从底层实现的GIS小项目,具有地图的放大、缩小、平移等常用地图操作功能和查询功能等,可以读取多种常用几何类型的shapefile文件,项目中还含有一个MMSeg中文分词器,适合GIS专业的同学科研使用-GIS from the underlying implementation of small projects, with maps, zoom, pan and other commonly used map operation functions and query functions, y
lucene-2.9.1
- Lucene 应该是最新版本的,主要是分词功能和检索功能特别强大,如果要达到中文分词的功能,需要Paoding与其结合才更好-Should be the latest version of Lucene, mainly sub-word features and retrieval is particularly strong, if you want to achieve the Chinese word segmentation functionality, combined with th
Wordseg
- 该程序是采用的java语言对测试文本进行中文分词-Chinese segmenter
fenci
- 中文分词代码,利用Java写的关于搜索的中文分词-Chinese word segmentation code, the use of Java to write about the Chinese word search
lucene-3.0.1-src
- Lucene算法最新源码包,提供给中文分词器开发者最好的工具!-Lucene algorithm is the latest source package available to the Chinese word device developers the best tools!
hlfc_java_sourcecode
- 海量分词的共享版的java源码,值得学习,对中文分词有很高的精度-Massive word shared version of the java source code, it is worth learning for Chinese word has a high accuracy
IKAnalyzer3.2.0Stable_src
- IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 IKAnalyzer3.0特性: 采用了特有的“正向迭代最细粒度切分算法“,具有60万字/秒的高速处理能力。
PaoDing
- 中文分词软件——庖丁最新版本,可用于文本检索领域的分词等功能的实现-Chinese word segmentation software- Paoding latest version can be used for the sub-text retrieval functions of the realization of the word
IKAnalyzerSearchWord
- IKAnalyzer中文分词,可以实现中文分词,直接用于Lucene-IKAnalyzer Chinese stem
yinghanshuangxiangdianzicidian
- 英汉双向电子词典是数字化的辞书,在载体、编纂方式、设计过程、功能、使用者、查询手段、检索方法等各方面具有词典类软件特性。本课题设计英汉双向电子词典是一种基于Java语言开发的跨平台的词典类工具软件。检索方式采用开源的Lucene全文检索并实现中文分词的功能。具有查询、检索方便、快捷,查询种类齐全,可以即时翻译、准确的、详细地查阅英文、中文单词。同时为各种软件、网络、电子邮件等提供后台支持,从而大大提高了用户的工作效率,拓宽了学习途径。-English-to-Chinese a the book
IKAnalyzer3[1].1.2GA_AllInOne
- lucene 中文分词器 用于构建中文分词-lucene 中文分词器 用于构建中文分词
MU_BLOG-src
- ASP.NET多用户博客系统源码 基于XML+XSLT+AJAX技术构建的多用户博客门户系统,服务器端采用当前最流行的动态网页开发语言ASP.NET(C#) 2.0编写,支持多种数据库,包括SQLSERVER2000\SQLSERVER2005\ORACLE\MYSQL\DB2\ACCESS等,默认使用SQLSERVER2000。DIV+CSS布局,交互方式采用当前最流行的AJAX技术,所有操所在一个页面完成,简洁的主题与皮肤开发技术,更合理的模块化设计,大大减轻了后续开发的难度,使模板开发
PHP_MYSQL
- PHP_MYSQL环境下的中文分词技术研究-PHP_MYSQL environment of Chinese word
ChineseWordsDemo
- 中文分词系统的java源代码,中文分词中文分词中文分词中文分词-Chinese word java
ICTCLAS_JAVA
- 使用汉语分词系统ICTCLAS_JAVA版本进行中文分词、词性标注-Use of Chinese word segmentation system ICTCLAS_JAVA version of Chinese word segmentation, POS tagging
IK_Tokenize
- IK_Analyzer中文分词的实现。输入为某个特定文件夹,工具将该文件夹下所有文件进行分词-Tokenize with IK_Analyzer.
InPutTextFile
- java中文分词系统,很好用的。欢迎下载与修改,并提出宝贵意见。-chinese words splitting system
sse4j
- SSE4J(Spatial Search Engine for Java)是针对地理信息数据源构建的垂直搜索引擎应用接口,是基于Lucene+JTS Topology Suite开源库设计的框架。 规划的SSE4J包含: 1)SSE4J应用开发包 2)SSE4J Webservice应用接口 3)SSE4J工具集 规划的SSE4J包含的功能: 1) POI搜索(名称、地址、类型等关键字搜索;周边搜索) 2)道路搜索、区域搜索 3)地址匹配、