搜索资源列表
chinafenci
- 中文分词,读取txt文档然后给词分类,
fenci
- 这是一款中文分词软件的源代码,用的是Vb语言编写的。-fengyinghua
Wordseg
- 该程序是采用的java语言对测试文本进行中文分词-Chinese segmenter
SphinxV0.9.8.1source
- SphinxV0.9.8.1source.zip VC++ 基于Lucene扩展的支持中文分词的开源搜索引擎 中文用户-Sphinx V0.9.8.1 source.zip VC++ extensions to support Lucene-based Chinese word segmentation in Chinese open source search engine users
dict
- 已处理过的中文分词词典Chinese Word Segment Dictionary,you may need to use it in your CWS program-Chinese Word Segment Dictionary,you may need to use it in your CWS program
fenciserver
- 中文分词程序,实现简单的分词,有简易的智能-Chinese word segmentation program to segment a simple word, there is a simple intelligent
fenci
- 中文分词代码,利用Java写的关于搜索的中文分词-Chinese word segmentation code, the use of Java to write about the Chinese word search
lucene-3.0.1-src
- Lucene算法最新源码包,提供给中文分词器开发者最好的工具!-Lucene algorithm is the latest source package available to the Chinese word device developers the best tools!
hlfc_java_sourcecode
- 海量分词的共享版的java源码,值得学习,对中文分词有很高的精度-Massive word shared version of the java source code, it is worth learning for Chinese word has a high accuracy
sample
- 中文分词,中文词法分析是中文信息处理的基础与关键-Chinese word
IKAnalyzer3.2.0Stable_src
- IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 IKAnalyzer3.0特性: 采用了特有的“正向迭代最细粒度切分算法“,具有60万字/秒的高速处理能力。
totsearchc
- 淘特站内搜索引擎是由淘特JSP搜索引擎发展而来,系统基于Lucene.Net核心,通过高效的中文分词算法将数据库中内容进行分析、索引并保存至硬盘中。前台搜索时,通过读取索引文件查询,避免了传统数据库查询在高并发及海量数据下的性能问题。因前台搜索不在连接数据库,为不希望数据库放到前台的特殊用户群体提供了数据快速查询解决方案。-Amoy Special Site search engine from the Amoy Te JSP search engine, developed from, sys
segChnWord
- 中文分词评测系统,用于评测中文分词的质量,给出准确率等-Chinese word segmentation evaluation system for evaluating the quality of Chinese word segmentation, given the accuracy of such
WebPages_InvertedFile
- 根据中文分词结果生成倒排文档,并将结果输出到文本文件中。-Generate the inverted file based on the result of word-splitting, and output to a text file.
totsearch
- 淘特站内搜索引擎是由淘特JSP搜索引擎发展而来,系统基于Lucene.Net核心,通过高效的中文分词算法将数据库中内容进行分析、索引并保存至硬盘中。前台搜索时,通过读取索引文件查询,避免了传统数据库查询在高并发及海量数据下的性能问题。因前台搜索不在连接数据库,为不希望数据库放到前台的特殊用户群体提供了数据快速查询解决方案。 -Amoy Special Site search engine from the Amoy special JSP search engine developed fr
File22
- 基于关键词的Web文档自动分类算法研究,文档关键词,语义相似度,聚类算法,知网,拓扑网络图,中文分词-Keyword-based Web Document Classification Algorithm, document keywords, semantic similarity, clustering algorithm, HowNet, topological network diagrams, Chinese word segmentation
ChineseWordSegmentation1
- 中文分词-前向最大匹配方法;VS2008环境下实现-Chinese word- the former to the maximum matching method VS2008 environment to achieve
DictSegment
- 一个简单词库,适宜用于文本分词使用。可用基于Lucene的中文分词使用。-A simple thesaurus, suitable for a text word to use. Available in Chinese word segmentation based on Lucene use.
K-PageSearch
- 功能特点 多线程网络蜘蛛 网页定向采集 多语言网页编码自动识别 哈希表网页去重 智能网页正文抽取 基于词库的智能中文分词 中文分词词库管理 海量数据毫秒级全文检索 缓存技术 网页快照 高级搜索 竞价排名 网络蜘蛛-Features multi-threaded web spider web oriented multi-language Web page collection automatic identific
ganzhiji
- 基于感知机的中文分词程序,实现基本的文本分词,正确率高达97 以上-Perceptron-based Chinese word segmentation program to achieve basic text word, the correct rate of 97 or more