搜索资源列表
CDevideSentence
- 用c++写的分词算法,简单,实用,详情看里面的帮助文件!-using c + + to write the sub-term algorithm is simple, practical, inside look at the details of the help files!
segmentor_Perl
- 中文分词算法。Perl语言编写。wordlist.txt为词库。-Chinese Segmentation. Perl language. Wordlist.txt for the thesaurus.
findkey.c
- 此程序解决的问题:较好的, 并适应短字符串的中文分词算法.根据词库 发现以换行符分隔的众多标题中的 top N 关键字并以此更新词库.是一个分类分词算法 -this procedure to solve the problem : better, and adapt to the short string of Chinese Segmentation. According thesaurus found in the many separate newline heading the to
SQLET_split
- SQLET分词算法,一个C程序,供大家参考。-SQLET segmentation algorithm, a C program, for your reference.
SegmentRAM
- 1.基于luncene倒排索引格式的高性能索引数据访问接口。 2. 实现若干中文分词的的分词算法。-1. Based on luncene inverted index format of high-performance data access interface Index. 2. A number of Chinese word segmentation algorithm of.
lunce-splitword
- 一个运用于lunce中的中文分词算法源码,与大家共享-a lunce applied to the Chinese word segmentation algorithm source code and share
ShootSearch_path_for_bate_1.0
- 一段关于中文信息分类的分词算法,他实现了信息过滤中的分词,为信息过滤的分类打下基础-section on the classification of information in Chinese word segmentation algorithm, he realized the information filtering the word, Information filtering to lay the foundation for the classification
yuer
- 前几天因为好久没发blog了,就拿我毕设中的一段算法凑数,没想到引起很多人的兴趣。因此就把我的分词算法单独拎出来做了一个项目叫作DartSplitter。暂时把分词算法的名称叫做树状词库分词法。 -days ago had not issued because of the blog, I took the completed section based algorithm to make up the numbers. never thought aroused the intere
SW-I
- 汉语分词算法,包含最大匹配和基于概率的分词算法-Chinese word segmentation algorithm, and contains the largest matching probability - based segmentation algorithm
ont_language
- 分词算法的基础,事做搜索引擎的关键,好东西啊
zdfc
- 对中文语句进行分词的一个源码,利用正向匹配算法进行处理-Statements for the Chinese word for a source
Dictory
- 用B-树作为查找存储结构,对中文单词进行哈希,用最长逆向匹配算法进行中文句段分词,实现中文词典以及分词。中文词典规模为十万八千多词汇。分词的正确率在90 以上。-Use the B-tree as storage structure , and hash the Chinese word while storing or searching. Use the longest reverse matching algorithm to split Chinese sentence to word
WordPartation2
- 中文分词程序 利用最大匹配算法 支持GB2312编码格式的文件-Chinese word segmentation procedure using the maximum matching algorithm to support GB2312 encoding format of the file
keyTermExtraction
- 实现了自动分词的功能,以及信息抽取的额功能,非常重要的算法。-Realize the function of automatic segmentation and information extraction of the amount of features, very important algorithms.
RMM
- 逆向最大匹配算法实现分词,分词结果在另一个txt里呈现(Reverse maximum matching algorithm to achieve the word segmentation, word segmentation results in another TXT presentation)
3130383
- 最大概率分词法,这种分词算法能够较好的解决汉语分词中的歧义问题,但分词效率比最大匹配分词算法要低()
ngram模型分词与统计算法
- N-Gram(有时也称为N元模型)是自然语言处理中一个非常重要的概念,通常在NLP中,人们基于一定的语料库,可以利用N-Gram来预计或者评估一个句子是否合理。另外一方面,N-Gram的另外一个作用是用来评估两个字符串之间的差异程度。这是模糊匹配中常用的一种手段。本文将从此开始,进而向读者展示N-Gram在自然语言处理中的各种powerful的应用。(N-Gram (sometimes referred to as N metamodel) is a very important concept
双向最大匹配.py
- 用双向最大匹配算法实现汉语分词。准确率颇高。(Two way maximum matching algorithm is used to realize Chinese word segmentation. The rate of accuracy is quite high.)
HMM-master
- 隐马尔科夫模型进行中文分词 模型训练 python HMM_train.py RenMinData.txt_utf8 RenMinData.RenMinData_utf8 为人民日报已经人工分词的预料。 生成三个文件 * prob_start.py 为模型的初始概率 * prob_trans.py 为模型状态转移概率 * prob_emit.py 为发射概率 测试模型效果 python HMM.py reference 维特比算法:(python
chatbot
- 聊天机器人 原理: 严谨的说叫 ”基于深度学习的开放域生成对话模型“,框架为Keras(Tensorflow的高层包装),方案为主流的RNN(循环神经网络)的变种LSTM(长短期记忆网络)+seq2seq(序列到序列模型),外加算法Attention Mechanism(注意力机制),分词工具为jieba,UI为Tkinter,基于”青云“语料(10万+闲聊对话)训练。 运行环境:python3.6以上,Tensorflow,pandas,numpy,jieba。(Chat Robot