搜索资源列表
SogouT.mini.tar
- 百度搜索引擎具有响应速度快、查找结果准确全面、时效性强、无效链接少、符合中文语言特点和中国人使用习惯等优点。 1...这种方法只需对语料中的字组频度进行统计,不需要切分词典,因而又叫做无词典分词法或统计取词方法。但这种方法也有一定- IHTMLDocument3* pHTMLDoc3 HRESULT hr = m_pHTMLDocument2->QueryInterface(IID_IHTMLDocument3, (LPVOID*)&pHTMLDoc3)
ccred
- 词典网ccred.cn提供的汉字查询工具,词库包括汉字的基本部首笔画查询,有拼音、部首、笔画、五笔、笔顺、部件分触目等功能,有关于汉字的基本解释、详细解释、常用词组、康熙字典、说文解字等。-Network Query Tool kanji dictionary ccred.cn offer, including the basic strokes of Chinese characters thesaurus query, pinyin, radical, stroke, stroke, str
PHPkz_v0.2
- NNABC PHP扩展现有两个函数:中文分词函数nnabc_fenci();IP地址查询函数nnabc_ipaddr()。 中文分词使用一个函数直接分词,使中文分词更容易更简单。 PHP扩展级的IP地址查询函数,查询IP地址速度更快。 -NNABC PHP extension of the existing two functions: Chinese word function nnabc_fenci () IP address query function nnabc_ipaddr ().
PanGu4LuceneV2.1.1.0
- Lucene.net是Lucene的.net移植版本,是一个开源的全文检索引擎开发包,它不是一个完整的全文检索引擎,而是一个全文检索引擎的架构,提供了完整的查询引擎和索引引擎。开发人员可以基于Lucene.net实现全文检索的功能。本代码基于lucene.net实现中文全文检索(Chinese fulltext search based on lucene.net)
coreseek-3.2.14.tar
- 全文检索,可用于中文分词检索,是基于sphinx的开源。(Full text retrieval, which can be used in Chinese word segmentation, is open source based on sphinx.)
ZEPPXFY
- 基于中文分词的bbs源程序,具有很好的全站信息检索功能,()
pyltp
- 调用哈工大的语言云平台lpt进行中文分词处理,支持自定义词典(Word segregation is the process that cutting the string of natural language into words.you can use this to syncopate words)