搜索资源列表
fenci
- 分词实验,能够对一句话准确的分辨出中文单词,采用VC6开发-Segmentation experiments, able to accurately identify a word in Chinese word used to develop VC6
theshortest
- 最短路径法分词程序.将中文句子经过原子切分后生成一个有向无环图,然后使用Dijkstra算法求出由起点到终点的-The shortest path segmentation process. After the Chinese sentence after splitting atoms to generate a directed acyclic graph, and then use the Dijkstra algorithm derived from the point of origi
paoding_analysis
- 这是一个lucene中文索引程序,采用paoding分词器,包括建立索引和搜索过程。-This is a Chinese lucene index procedure for the segmentation paoding, including indexing and search process.
ChineseWordSegmentation
- 总结了在过去的十年间中文自动分词技术的进展-the study in automatic Chinese word segmentation ,during the last decade
KSeg4J.1.0
- 简体中文机械分词模块,实现正逆向最大匹配消除歧义,jar封装,可以导入后直接使用-a simplified Chinese segmentation Jar
webSearch
- 迅龙中文Web搜索引擎核心代码 运行环境 Microsoft .NET Framework 2.0 C# 开发 注意:必需步骤 nSearch\xOcx\install.bat 加载分词组件 -迅龙中文Web搜索引擎核心代码
ICTCLASAPIManual
- 中科院中文进行分词并对其词性标注;命名实体识别;新词识别;同时支持用户词典-Chinese Academy of Sciences Chinese word segmentation and POS tagging named entity recognition new word identification At the same time support the user dictionary
ICTCLASWhitePaperRelease
- 中科院中文进行分词的文档,对名字识别能力很强。-Chinese word segmentation, Chinese Academy of Sciences of the document, on a very strong name recognition.
crfzl
- crf相关论文包括 基于多层条件随机场的中文命名实体识别.pdf 基于层叠条件随机场的旅游领域命名实体识别.pdf 基于条件随机场的汉语动宾搭配自动识别.pdf 基于条件随机场的汉语分词研究.pdf 基于条件随机场的命名实体识别研究.pdf 基于条件随机场的中文命名实体识别1.pdf 基于条件随机场的中医命名实体识别.pdf、 条件随机场模型归一化因子的计算方法.pdf-Named entity recognition is one of the fundame
Cfenci
- 用C++编写的中文分词源码,分词的方法.rar-Written using C++ source code of Chinese words, sub-word method. Rar
ctbparser_0.10.tar
- ctbparser是一个开源的中文句法分析工具包,用于分词、词性标注、依存句法分析-ctbparser is an open source Chinese parsing toolkit for Chinese word segmentation, POS tagging, dependency parsing
ctbparser_0.11.tar
- ctbparser是一个开源的中文句法分析工具包,用于分词、词性标注、依存句法分析-ctbparser is an open source Chinese parsing toolkit for Chinese word segmentation, POS tagging, dependency parsing
chinese_lucene
- c#中文分词类库+可用来做搜索引擎分词+准确率90 +支持Lucene.net.rar
windows_JNI_32
- 这是中科院的分词软件,内容很全,有使用说明,及相应的demo,用于中文NLP领域的预处理,非常好!-This is the Chinese Academy of Sciences of the segmentation software, content is very wide, there are instructions for use, and the corresponding demo, pre-processing for Chinese NLP areas, very good!
Chinese-text-categorization-Study
- 本文通过对Bayes、KNN、SVM 应用于中文文本分类进行比较实验研究。 应用ICTCLAS 对中文文档进行分词,在大维数,多数据情况下应用TFIDF 进行 特征选择,并同时利用它实现了对特征项进行加权处理,使文本库中的每个文本 具有统一的、可处理的结构模型。然后通过三类分类算法实现了对权值数据进行 训练和分类。-Based on the Bayes, KNN, SVM applied to compare the Chinese text ca
Web-Chinese
- 中文自动分词技术是中文 Web信息处理的基础。文中以最大匹配法(MM)为基础 ,充分 考虑上下文(MMC) ,在内存中采用二分法进行分词匹配 ,有效地提高了分词的准确率和时效。-Chinese automatic segmentation technology is Chinese Web information processing foundation. The maximal matching method (MM) as the foundation, fully Conside
WekaTest
- weka包+eclipse完成中文语料库分词 分类-weka package+ eclipse complete classification of Chinese word segmentation corpus
WordSeg
- 分词系统,主要是对中文进行分词处理,对初学者有一定的帮助。-Segmentation system is mainly deal with the Chinese word segmentation, there is some help for beginners.
divcns
- 分词实现简单中文最新修正版 分词实现简单中文最新修正版-the realization of simple Chinese word segmentation
Baiduwordsegmentation
- 查询处理与分词是一个中文搜索引擎必不可少的工作,而百度作为一个典型的中文搜索引擎一直强调其“中文处理”方面具有其它搜索引擎所不具有的关键技术和优势。那么我们就来看看百度到底采用了哪些所谓的核心技术。-Query processing and word is essential to a Chinese search engine work, but as a typical Chinese Baidu search engine has always stressed its " Chi