搜索资源列表
softwarecode
- 中文分词是中文信息处理中的重要环节,中文分词技术广泛应用于自动翻译、文本检索、语音识别、文本校对、人工智能以及搜索引擎技术等领域。中文分词算法的选择,中文词库的构建方式,词库中词条的完备性在很大程度上与中文分词系统性能紧密相关。-Chinese word segmentation in Chinese information processing is an important part of Chinese word segmentation technology is widely used
KeyWordTree
- 一个c#编写的中文分词系统,有一个附带的baidu词库-fen ci c#
UseHLSSplit(Fix)
- 中文分词处理,delphi调用海量智能分词库,修改了网上另一个版本的错误。-Chinese word processing, delphi call the massive intelligence points thesaurus, revised the online version of the error to another.
KWICcase
- 实现关键词检索的一个程序,中文分词,自动检索-To achieve keyword search of a program, Chinese word segmentation, automatic search
111
- 中文分词 词库 分次字典中文分词 词库 分次字典- IHTMLDocument3* pHTMLDoc3 HRESULT hr = m_pHTMLDocument2->QueryInterface(IID_IHTMLDocument3, (LPVOID*)&pHTMLDoc3) ASSERT(SUCCEEDED(hr))
max_pro_seg
- 详细介绍了最大概率分词方法的理论和步骤, 帮大家轻松搞定简单的中文分词-the word to introduce the max propability int segmenting
WordPartation2
- 中文分词程序 利用最大匹配算法 支持GB2312编码格式的文件-Chinese word segmentation procedure using the maximum matching algorithm to support GB2312 encoding format of the file
YurowAnalyzer_001
- 中文分词软件,.netframework3.5-Chinese word segmentation software,. Netframework3.5
ICTCLAS2010CSharpDemo
- 中文分词源程序, 中文词法分析是中文信息处理的基础与关键。中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级6次,目前已经升级到了ICTCLAS3.0。ICTCLAS3.0分词速度单机996KB/s,分词精度98.45
ShuzhenAnalyzer-1.1.8-jdk1.6.0
- 中文分词 ShuzhenAnalyzer 可用于将文档中词进行划分,比较好用-Word cut using java
VC2010
- VC调用中科院分词2010版组件的最新源码! 中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级8次,目前已经升级到了ICTCLAS2010!-VC call to Word 2010 version of t
fenci
- 中文分词,可将文件划分词性,有词库,可添加新词-Use LR analysis of the compiler, may realize the words and grammar, semantics analysi
splitword
- 基于VC++6.0的中文分词程序。内含词典。-VC++6.0 based Chinese word segmentation procedure. Embedded dictionary.
1
- 中文分词在中文信息处理中是最最基础的,无论机器翻译亦或信息检索还是其他相关应用,如果涉及中文,都离不开中文分词,因此中文分词具有极高的地位。中文分词入门最简单应该是最大匹配法了-Chinese word segmentation in Chinese information processing is the most basic, whether in machine translation Yihuo information retrieval, or other related appli
ansj_seg-master
- ansj_seg-master中文分词安装包(附带安装说明,详情请点击里面的README.md)(Ansj_seg-master Chinese word segmentation package (attached installation instructions, please click on the details of the README.md))
Desktop
- 可以实现matlab中文分词采用反向最大匹配法可以准确实现分词(Matlab Chinese word segmentation can be achieved, using the reverse maximum matching method, you can accurately achieve word segmentation)
coreseek
- 非常好用的中文分词工具,在网上找了好久才找到的非常好的工具(very good Chinese languag participle tool;I Looking for a very good tool on the Internet for a long time)
ChPreprocess
- 使用jieba包从excel表中读取数据,进行中文分词,预料分析(Using Jieba package for Chinese analysis, expected analysis)
chinese_seg_update
- 中文分词,采用逆向最大匹配方法实现,利用字典作为索引(The Chinese word segmentation is realized by the reverse maximum matching method, and the dictionary is used as the index.)
jieba-jieba3k
- MATLAB 结巴分词的工具包,用于很多中文分词的模式识别代码程序,利用已有函数工具包提高工作效率,内有安装说明(MATLAB jieba toolkit, used for many Chinese word segmentation pattern recognition code programs, using existing function toolkits to improve work efficiency, with installation instructions)