搜索资源列表
Chinese-word-segmentation
- 基于n-gram和机器学习的汉语分词算法 理论研究-Chinese word segmentation
Chinese-Word-Segmentation
- 很好的中文分词算法,详细介绍请解压后看注释。字典文件也要放在目录下。-Good Chinese word segmentation algorithm, detailed look after unzip comment. But also on the dictionary file directory.
LBChSeg
- 这是用c++写的一个正向最大匹配中文分词算法,主要实现的是中文的分词,从左向右,实现分词的最大匹配-This is the biggest match using c++ to write a forward maximum matching Chinese word segmentation algorithm, the main achievement is the Chinese word, and left to right, to achieve sub-word
1661a86897bc
- 余弦相似度算法(余弦相似度(cosine similarity)是资讯检索中常用的相似度计算方式,可用来计算文件之间的相似度,也可以计算词汇之间的相似度,更可以计算查询字串与文件之间的相似度。) 这是一个基于Jcseg分词算法的余弦相似度例子,运行com.fenci.test.IKMainTest可以查看运行结果。-please do it by yourself
paoding-analysis-2.0.4-alpha2
- paoding分词算法源码及其lib,使用时需要修改paoding-analysis.jar文件中的dic目录-paoding segmentation algorithm source code and lib, we need to modify paoding-analysis.jar file dic directories use
909aae2c-4f2c-4771-83e4-6894516f14e1
- 一个中文分词算法,可以实现将分词文本切分成自定义字典中的单词-A Chinese word segmentation algorithm, you can achieve the word segmentation text into a dictionary of words
hanlp-1.2.2-sources-
- hanlp源码,包括各种分词算法的实现,比如隐马尔科夫模型,条件随机场模型,N最短模型等,还有语义分析,情感分析等-hanlp source, including a variety of sub achieve segmentation algorithm, such as hidden Markov model, conditional random, N shortest models, as well as semantic analysis, sentiment analysis, e
totsearch_v3.3
- 淘特站内搜索引擎是由淘特JSP搜索引擎发展而来,系统基于Lucene.Net核心,通过高效的中文分词算法将数据库中内容进行分析、索引并保存至硬盘中。前台搜索时,通过读取索引文件查询,避免了传统数据库查询在高并发及海量数据下的性能问题。因前台搜索不在连接数据库,为不希望数据库放到前台的特殊用户群体提供了数据快速查询解决方案。 淘特站内搜索引擎(C#版)v3.3更新内容: 1、解决生成的文件链接始终是第一个的错误 2、解决GbK编码搜索程序Default_Gbk.aspx下一页链接错误的
word
- java 实现简单的分词算法,自动匹配,代码注释详细。-Java to realize automatic word segmentation algorithm is simple, match, code notes in detail.
sentence_split
- 中文分词算法,输出以\作为分隔符,需要词典-Chinese word segmentation algorithm, the output with \ as the delimiter, needs dictionary
dedesplit
- 软件介绍 采用的是一种用最小切分和逆向最大匹配法结合的一种复合分词算法 Tags: 织梦分词算法-Software introduction Using a combination of segmentation with the smallest and reverse maximum matching method a compound word segmentation algorithm Tags: a word segmentation algorithm
fenci
- 中文分词算法双向最大匹配算法基于词典匹配的分词算法-Chinese word segmentation algorithm bidirectional maximum matching algorithm based on dictionary word matching algorithm
dedesplit
- 本站采用的是一种用最小切分和逆向最大匹配法结合的一种复合分词算法,目前对岐义识别还处于初步研究阶段.-Powered by is a composite word segmentation algorithm with a minimum and maximum matching method combined reverse, the current recognition of ambiguity still in the preliminary research stage.
6_29
- 基于逆向匹配的中文分词算法实现,产生词典和测试数据,分词后具有结果分析功能,计算精确度,召回率,F值, -Chinese word segmentation algorithm based on reverse matching, dictionary and test data, with the result after word analysis function, calculation precision and recall rate, F value,
TFIDF
- 经典的中文分词算法 亲测可行,效果一般般,可供小白学习。(Classical Chinese word segmentation algorithm, pro test feasible)
4925660
- 此程序解决的问题 较好的, 并适应短字符串的中文分词算法 根据词库 发现以换行符分隔的众多标题中的 top N 关键字并以此更()
9178839
- 汉语分词算法,包含最大匹配和基于概率的分词算法()
java
- 程序为提取文章关键词的java程序,可以制定关键词和分词算法,可直接使用(Java program for extracting key words)
fenci
- 用Java实现stemming 分词算法(Use Porter stemming algorithm achieve stemming function.)
fenci2
- 可以提供中文分词算法,同时能够支持英文的分词(Chinese and English words stemming algorithm)