搜索资源列表
fc
- 粉刺的代码,分词程序 ,分词程序-fen cieretretreytytuhhgfhthtrhthththt h
MyWordSpliter1
- java实现的分词程序,Nutch中文分词-java implementation of segmentation procedures
C_CPPfds
- 中文分词技术属于自然语言处理技术范 畴,是语义理解过程中最初的一个环节。 它 将组成语句的核心词提炼出来供语义分析模 块使用。对于一句话人可以通过自己的知识 来判断哪些是词,哪些不是词。但计算机如 何能理解,其处理过程就称为分词算法。-This is a dictionary of algorithms, algorithmic techniques, data structures, archetypal problems,
partition
- 分词系统的实现和测试 基于字符串的分词,根据分词标记提取单个词组-Segmentation system implementation and testing of the sub-string based on word segmentation based on extracting a single phrase marker
scws-1.1.7
- scws,中文分词,开源,机械分词法,简单分词-scws, Chinese word segmentation, open source
fencigongju
- 是一个开发搜索引擎的中文分词工具,如果想做个搜索引擎,可以用这段代码-a tool for Search engine,which is simple if you want to Development a Search engine.you can Applications this code
66
- 自动翻译系统 分词技术 做很智能的,不错真的不错-Automatic translation system word segmentation in a very intelligent, good really good
PanGu_Release_V2.3.1.0
- 盘古分词算法,应用于搜索和需要分词的地方,源码-Pangu word segmentation algorithm
Bayes
- 用bayes实现的聚类算法,分词采用的是SharpICTCLAS分词系统 1.0-Achieved using bayes clustering algorithm, word segmentation is used SharpICTCLAS System 1.0
IKAnalyzer_V3.2.8
- IK Analyzer是一个开源的,基于java诧言开发的轻量级的中文分词工具包。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IK Analyzer 3.X则发展为面吐Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。-IK Analyzer 3.X
divcns
- 分词实现简单中文最新修正版 分词实现简单中文最新修正版-the realization of simple Chinese word segmentation
2011
- 分词,将htm内容区分为tag和text-Word, the htm and text content is divided into tag
zwfc
- 应用中文分词.zip,也就是中文分词,是用E语言来写的,其实也很简单,通过某网站进行的中文分词。-Application of the Chinese word segmentation, also is. Zip Chinese word segmentation, it is to use language to write, E is also very simple, through a web site for a Chinese word segmentation.
Yard0.2.0
- 一个非常好的中文分词,用的是搜狗的词库,非常适合中文方面的分词-A very good Chinese word, using a thesaurus search dogs, ideal for a word in Chinese
bin
- 可以将一段话分成若干个词语,本工具是针对一个翻译公司定制的,要求输入的为一个三列表格的word文档,只对中间的中文分词。-Passage can be divided into several words, this tool is customized for a translation company, asks for a three-column table in word document, only the middle of the Chinese word.
ICTCLAS50_Windows_32_JNI
- 中科院开发的中文分词算法,带词性标注等,经典的一个算法-Chinese Academy of Sciences of the Chinese word segmentation algorithm developed, with part of speech tagging, etc., a classic algorithm
Baiduwordsegmentation
- 查询处理与分词是一个中文搜索引擎必不可少的工作,而百度作为一个典型的中文搜索引擎一直强调其“中文处理”方面具有其它搜索引擎所不具有的关键技术和优势。那么我们就来看看百度到底采用了哪些所谓的核心技术。-Query processing and word is essential to a Chinese search engine work, but as a typical Chinese Baidu search engine has always stressed its " Chi
CJK
- CJK中文分词压缩包,应用于网络搜索技术中的中文分词-CJK Chinese Words Segmentation
CN
- CN中文分词压缩包,应用于网络搜索中的中文分词过程中-CN Chinese Words Segmentation
IK
- IK中文分词压缩包,应用于网络搜索中的中文分词过程中-IKChinese Words Segmentation