搜索资源列表
汉语分词统计
- 分词,针对汉语的分词,根据统计来实现的,可以直接使用目录即可,里面针对联合早报进行的测试,分次统计中可以包括任意目录(系统能承受得了就行),这是帮一个同学做的作业:)用asp。net + xml
多种分词方法
- 含有多个分词算法。毕业设计的时候获得的,希望对大家在汉字处理中能用的到。 ICTCLAS算法,中科院,对名字识别能力很强。VC开发。 CSharp分词,向前匹配加向后最大匹配,C#开发,容易扩展。 小叮咚分词,由后向前最大匹配,C#开发。 xerdoc分词,基于ICTCLAS的Java版本分词。 文本分词词典,分词的词典,可以提供分词数据源。-containing more than Segmentation. Graduation was the time of hope
汉语分词
- 汉语分词系统,对中文语句进行识别,然后分词,是很好的自然语言理解的例子-Chinese word segmentation system, the Chinese phrase for identification, then Word, is a very good natural language understanding examples
小叮咚分词模块
- 小叮呼的分词模块 小叮呼的分词模块-small bite called the Word module called the small bite-term m odule
百度分词词库
- 据说是百度以前用的中文分词词典,希望对大家有一点帮助哈,快下快下-allegedly Baidu before the Chinese word dictionaries, we hope to have a bit of help to Kazakhstan, where fast under fast!
分词模块
- 一个非常有用的分词模块,对研究搜索引擎的人有参考价值-a very useful segmentation module, the study of search engines reference value
分词器
- 迷你分词器,解压缩后,在java环境下运行使用。
中文分词函数库CipSegSDKV1.03
- 东大做中文分词的源代码,主要是用于搜索引擎的中文文本预处理-Tung Chinese-made version of the source code is mainly for the Chinese search engine Hypertext
Delphi实现的简单中文分词v1.1
- Delphi实现的简单中文分词,Delphi实现的简单中文分词-Delphi simple Chinese word Delphi simple Chinese word
基于自动分词的企业文档搜索引擎设计与实现
- 一个关于基于自动分词的企业文档搜索引擎设计与实现的优秀论文
分词程序代码
- 分词程序的源代码-Word program's source code
关于分词规范的探讨(语言文字应用
- 分词规范的探诫坟-Word standardized detection commandment graves
20170314140452_ICTCLAS2016分词系统下载包
- 这是调试好的分词系统,下载后可直接运行,不过需要经常更新data包(This is a good word segmentation system, can be downloaded directly run)
分词
- oracle 分词 自带分词,有两种方式(oracle ctx package use to do sth)
自然语言处理NPL-最大概率分词算法
- 自然语言处理NLP,最大概率分词算法,带有详细说明文档(Natural Language Processing NLP, maximum probability segmentation algorithm)
jieba分词
- 分词出差的武器的呼气和对区华东区希望成为(xwijidwdjdowslkmxkszmwksww)
汉语分词20140928
- cltclas中文分词工具包,可以进行分词,词性标注等等(Cltclas Chinese word segmentation kit, can be participle, part of speech tagging, and so on)
基于mmseg算法的一个轻量级中文分词器
- 基于mmseg算法的一个轻量级开源中文分词器(A lightweight open source Chinese word segmentation based on the mmseg algorithm)
完整的站内搜索引擎(Lucene.Net+盘古分词)
- 盘古分词法+全站搜索功能DEMO,仅供参考。(Pangu Word Segmentation + Full Station Search Function DEMO, for reference only)
基于哈工大pyltp分词的文章排序python程序
- 哈工大pyltp分词程序,并实现简单的文章排序功能,此为医疗问答系统项目的一个关键程序,希望能有所帮助。