搜索资源列表
totsearch
- 淘特站内搜索引擎(C#版)基于Lucene.Net核心,通过高效的中文分词算法将数据库中内容进行分析、索引并保存至硬盘中。前台搜索时,通过读取索引文件查询,避免了传统数据库查询在高并发及海量数据下的性能问题。因前台搜索不在连接数据库,为不希望数据库放到前台的特殊用户群体提供了数据快速查询解决方案-Amoy Special Search Engine (C# Edition) Based on Lucene.Net core, through the effective Chinese word
fencisuanfa
- 用正向最大匹配发实现句子的分词。是基于词典的分词算法。该算法的特点是速度快,准确率高。-Made to achieve a positive match with a maximum sentence segmentation. Dictionary-based segmentation algorithm. The algorithm is characterized by fast and accurately.
liaotianfenci
- 一种基于国标2312(GB2312)汉字编码标准的分词算法,实现的分词效果是分成单个的汉字,可以识别英文、空格、中英文符号和数字等。也称原子分词算法。-Based on GB 2312 (GB2312) Chinese character coding standard segmentation algorithm to achieve the segmentation effect is divided into individual characters, can be identified
FMM
- 自己的写的一个分词算法,希望对需要的人有所帮助吧-Write your own algorithm, a sub-word, hope to help those who need it
small
- 一个测试用的中文分词代码,基于FMM分词算法-Chinese word segment code
C_CPPfds
- 中文分词技术属于自然语言处理技术范 畴,是语义理解过程中最初的一个环节。 它 将组成语句的核心词提炼出来供语义分析模 块使用。对于一句话人可以通过自己的知识 来判断哪些是词,哪些不是词。但计算机如 何能理解,其处理过程就称为分词算法。-This is a dictionary of algorithms, algorithmic techniques, data structures, archetypal problems,
PanGu_Release_V2.3.1.0
- 盘古分词算法,应用于搜索和需要分词的地方,源码-Pangu word segmentation algorithm
ICTCLAS50_Windows_32_JNI
- 中科院开发的中文分词算法,带词性标注等,经典的一个算法-Chinese Academy of Sciences of the Chinese word segmentation algorithm developed, with part of speech tagging, etc., a classic algorithm
ICTCLAS50_Windows_32_C
- C++实现的中文分词算法,可以直接运行,也可以编译运行,还可以添加词典。-C++ of the realization of the Chinese word segmentation algorithm, it can run directly, also can compile operation, also can add dictionary.
worddiv
- 中文分词算法,用正向最大匹配算法实现的中文分词,包裹dao操作数据库。-Chinese word segmentation algorithm, the forward maximum matching algorithm of Chinese word segmentation, wrapped dao operations database.
backforwardSegmentationjava
- 后向分词算法对中文文本进行简单分词,有Swing界面,适合初学者.-Backforward propergation chinese segmentation. with the visible interface by Swing. It s useful for the new guy.
textcluster
- 实现中文分词并聚类输出,分词算法是自己写的以空格分词,如果有需要高级的分词算法可自己下载相关算法-Realization of the Chinese word segmentation and clustering output
Bbeiyessa
- 贝叶斯网络概率中文分词算法,,基于概率的分词算法可直接使用。 -Bayesian network probability Chinese word segmentation algorithm, probability-based segmentation algorithm can be used directly.
dyueerzipa
- 前几天因为好久没发blog了,就拿我毕设中的一段算法凑数,没想到引起非常多人的兴趣。因此就把我的分分词算法单独拎出来做了一个项目叫作DartSplitter。暂时把分词算法的名称叫做树状词库分词法。 -A few days ago because of the long time no hair blog, Take I completed the set for some algorithm to make up the numbers, I did not expect to cause
httpcws-php-demo
- php分词 中文分词 分词算法 HTTPCWS-php sub-word Chinese word segmentation segmentation algorithm HTTPCWS
shootseg-4235
- 基于统计的分词算法 以/为分隔符 分词 C# -Statistics-based segmentation algorithm/word delimiter
totsearch
- 淘特站内搜索引擎(C#版)基于Lucene.Net核心,通过高效的中文分词算法将数据库中内容进行分析、索引并保存至硬盘中。前台搜索时,通过读取索引文件查询,避免了传统数据库查询在高并发及海量数据下的性能问题。因前台搜索不在连接数据库,为不希望数据库放到前台的特殊用户群体提供了数据快速查询解决方案。 -Amoy special stations within the search engine (C# version) is based on Lucene.Net core through e
fencisuanfa
- 正逆向的分词算法 已经测试通过了 里面有完整的源码 和测试程序-Forward and reverse segmentation algorithm has been tested by the complete source code and testing procedures
123897
- n_gram,分词算法,准确率很高 ,值得参考!--n_gram, segmentation algorithm, the accuracy rate is high, and worth considering!-
findleft
- 这个是概率统计最大算法,此算法是分词算法的一种,是自然语言处理中最有效的分词算法之一,本算法精确度达到95 以上-This is the probability statistics algorithm, this algorithm is a sub-word segmentation algorithm is the most effective natural language processing word segmentation algorithm, the algorithm an