搜索资源列表
IKAnalyzer2
- 使用IKAnalyzer进行中文分词,输入txt文件。逐行分词-Use IKAnalyzer for Chinese word segmentation, enter txt file. Progressive word
WordSegment
- 中文分词,Java版本,词库已经包括,安装JDK后直接运行里面的WordSegment.java就行了。-Chinese Segment of Java, contains dictionary.It is OK that execute the WordSegment.java after install JDK.
Split
- Java实现逆向最大匹配中文分词算法,本程序可以实现较为简单的中文分词-Java implementation reverse maximum matching Chinese word segmentation algorithm, the program can be implemented relatively simple Chinese word segmentation
Fenci
- 中文分词程序源码,包含所用到的词库词典。-Chinese word segmentation program source code, including the use of the thesaurus dictionary.
Data
- 分词所采用的词典文件,对中文分词词库建设有很大的帮忙-help you to chinese segment
fenci
- 基于IKAnalyzer2012的中文分词java代码,可以去除停用词。-The Chinese word segmentation based IKAnalyzer2012 java code, you can remove stop words.
zhongwenfenci-
- 中文分词,
NlPIR
- 中文分词与词频统计 64位 为eclipse工程文件,可直接运行,效果不错-Chinese word and word frequency statistics 64
ExcludeStopWord
- 对一段中文文本经中文分词后,根据停用词表,去除文档中的停用词。-After a period of Chinese text by the Chinese word, according to the stop list, the removal of stop words in the document.
WordSegmentation
- 中文分词划分,包含标点符号,也适用于英文-chinese word segmentation
ictclas4j
- 中文分词器ictclas4j的源码,含有分词器的算法源码,以及案例-Chinese tokenizer ictclas4j source containing the word algorithm source code, as well as case
elasticsearch-analysis-ik-master
- ik是一个中文分词较为成熟的分词器,该文件是分词器的源码-ik is a Chinese word segmentation is more mature, the file is the code word
FenCi
- NLPIR2015中文分词 java 可以加入自定义词典 -chinese segmentation by NLPIR2015 . JAVA source code
搜易站内搜索引擎2.1
- 搜易站内搜索引擎(SearchEasy Site Search Engine)是面向互联网网站的站内搜索解决方案,其针对网站使用数据库搜索性能差,体验差等问题,将搜索引擎技术应用于站内搜索;本系统具备中文分词,智能摘要,关键词高亮等技术,可与数据库无缝集成,目前支持MS SQL 2000/2005,My SQL数据库。 软件基于B/S架构技术,前后端设计精美,操作体验佳。 搜易站内搜索引擎 2.1 修正BUG和新增功能列表:2015-3-28 1,修正授权功能和版本功能表所列功能不匹配
nlpir_ictclas2013_release
- 中科院发布的分词系统,能很好的进行中文分词,词性标注。-Chinese Academy of Sciences released a segmentation system that can be very good for Chinese word segmentation, POS tagging.
909aae2c-4f2c-4771-83e4-6894516f14e1
- 一个中文分词算法,可以实现将分词文本切分成自定义字典中的单词-A Chinese word segmentation algorithm, you can achieve the word segmentation text into a dictionary of words
syzlsearch_v2.6
- 基于Lucene开发的站内搜索解决方案,其集成专为站内搜索设计的细粒度中文分词,有效兼顾搜准和搜全率,无缝支持多种数据库数据汇入索引,支持全站,资讯,博客等多类型同时搜索,支持按相关度/时间检索,支持按时间过滤搜索,同时还有智能提示,相关搜索,搜索历史记录等实用功能。-Based on Lucene development of the station search solution, which is integrated into the search for the design of t
totsearch_v3.3
- 淘特站内搜索引擎是由淘特JSP搜索引擎发展而来,系统基于Lucene.Net核心,通过高效的中文分词算法将数据库中内容进行分析、索引并保存至硬盘中。前台搜索时,通过读取索引文件查询,避免了传统数据库查询在高并发及海量数据下的性能问题。因前台搜索不在连接数据库,为不希望数据库放到前台的特殊用户群体提供了数据快速查询解决方案。 淘特站内搜索引擎(C#版)v3.3更新内容: 1、解决生成的文件链接始终是第一个的错误 2、解决GbK编码搜索程序Default_Gbk.aspx下一页链接错误的
ExtractChinese
- Java编写的一个中文分词功能的代码,能实现中文分词功能-A Chinese word function written in Java code, to achieve the Chinese word function
IK-src
- ik 中文分词功能,使用中文分词,可以自己设置词库。区分于二元分出法-ik Chinese word function, using the Chinese word, you can set your own thesaurus. Separation method to distinguish two yuan