搜索资源列表
src_seg(java)
- 一个用java语言编写的中文文本分词算法
je-analysis-1.5.3
- 在java环境下开发的分词源代码,本代码可以通过lucene,nutch调用,实现对中文的分词-Java development environment in the sub-etymology code, this code can be used with lucene, nutch call, the aim is to achieve the Chinese word
LTP
- 哈工大LTP自然语言处理工具的java调用实例,利用jni调用dll,实现中文的分词,词性标注,建立依存树等-HIT LTP natural language processing tool called an instance of java using jni call the dll, to achieve in Chinese word segmentation, POS tagging, the establishment of dependency trees, etc.
paoding_analysis
- 这是一个lucene中文索引程序,采用paoding分词器,包括建立索引和搜索过程。-This is a Chinese lucene index procedure for the segmentation paoding, including indexing and search process.
soso
- {php mysql 中文全文搜索demo}中文全文搜索目前没有什么好的方法 本例子提供这个产考 先分词 在urlcode编码 然后mysql 全文检索 查询 提供了个思路请多指教 :qq:852790674-www.kurencms.tk
ChinesewordRate
- 统计已分词文件中中文词语出现频率,前提是要有已经完成分词的txt文件。-Statistics frequency of the Chinese word segmentation document
0nlu_project
- 本系统使用java语言编写,采用机器学习的方法进行自然语言处理,对中文进行分词和词性标注。分词采用crf模型,词性标注用hmm模型,解码算法为Vertibi算法。-The system uses java language, using machine learning methods for natural language processing, for Chinese word segmentation and POS tagging. Segmentation using crf mod
Twitter-LDA-master
- twitter-LDA算法的JAVA实现,LDA算法针对于微博短文本的改进算法,目前只是简单的英文分词功能,没有中文分词功能,-twitter-LDA algorithm JAVA implementation, LDA algorithm for improved algorithm for short text microblogging, now just a simple English word function, there is no Chinese word function,
php_ext_v0.2
- mfsou PHP扩展现有两个函数:中文分词函数nnabc_fenci();IP地址查询函数nnabc_ipaddr()。 中文分词使用一个函数直接分词,使中文分词更容易更简单;PHP扩展级的IP地址查询函数,查询IP地址速度更快。 演示:查看 http://php.mfsou.com/ 中的 使用说明 中代码演示。-PHP mfsou expansion of the existing two functions: Chinese word segmentation fun
ictclas
- 用java语言实现中文分词去停用词,中科院分词软件ICTCLAS-To achieve the Chinese word to stop word
New-folder
- 自然语言处理中的隐尔可夫马中文分词方法,利用java实现-NLP, using HMM to automatic word segmentation
fenci
- 中文分词算法双向最大匹配算法基于词典匹配的分词算法-Chinese word segmentation algorithm bidirectional maximum matching algorithm based on dictionary word matching algorithm
cws_theano-master
- 中文分词在theano的deep learning的运用,-chinese word segmentetion
FileDemo
- 对文件进行分词的例子.输出带词性的中文分词,已经去掉了停用词.-Examples of the file segmentation output of the Chinese word with POS, has been removed stop words.
Divide
- 使用Java语言,用前向匹配算法与后向匹配算法实现中文分词- The use of Java language, with the forward matching algorithm to achieve the Chinese word segmentation
lucene-unit
- 可以反射自定义索引类型,自定义索引路径-默认类路为上两级下的indexWrite目录,中文分词,自定义搜索Query,分页搜索并缓存一部分数据-Can reflect the custom index type, the index of the custom path- the default class on the road to indexWrite directory, under the two levels of Chinese word segmentation, custom
IKAnalyzer
- IKAnalyzer中文分词,是一种有效的中文分词API-IKAnalyzer Chinese divide
TFIDF
- 经典的中文分词算法 亲测可行,效果一般般,可供小白学习。(Classical Chinese word segmentation algorithm, pro test feasible)
IKAnalyzer2012_u6
- java 搜索引擎中文分词包,拆分中文词组(Java search engine Chinese word segmentation package)
ansj_seg-master
- 基于java语言的ansj中文分词程序,适合语义识别学习者研究用(Ansj Chinese word segmentation program based on Java language, which is suitable for semantic recognition learners to study)