CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 Internet/网络编程 搜索资源 - 分词

搜索资源列表

  1. zya0132_freebbssearch

    0下载:
  2. 基于中文分词的bbs源程序。具有很好的全站信息检索功能。-based on the Chinese word of bulletin board source. With good station information retrieval functions.
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:519684
    • 提供者:sasf
  1. lzsearch

    0下载:
  2. 用javascrip编写的分词系统 可以解决现在许多网站中文搜索支持不好的问题 无解压密码 -javascrip prepared with the sub-term system can solve many Web sites now support Chinese search the problems without extracting passwords
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:887114
    • 提供者:钱真明
  1. ChineseSegmenter

    0下载:
  2. 中文分词java版 基本词典,分次效果很不错的-Chinese word java version of the basic dictionary, graded very good results
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:1615264
    • 提供者:许文强
  1. chentian.fenci

    0下载:
  2. 实现了基于词库的nutch中文分词,这一部分是其中的dll文件-realized based on the thesaurus nutch Chinese word, this part is one of the dll file
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:2403424
    • 提供者:冯凡立
  1. firtex_beta102_src

    0下载:
  2. FirteX介绍 功能: 支持增量索引,差量索引,多字段索引,提供了3种前向索引方式; 支持纯文本,HTML,PDF等文件格式; 提供快速中文分词; 从底层到高层,提供了多种索引访问接口,灵活自由地使用索引文件; 提供丰富的检索语法,支持多字段检索,日期范围检索,检索结果自定义排序等。 性能: 在Pentium 4 2.8G 2GRAM的机器上超过200Mb每分钟的索引速度 在近7G的索引文件(100G网页,11G纯文本的索引)上检索,仅使用十几M内存在数毫
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:13796524
    • 提供者:阮正
  1. ChineseTokenizer20060426

    0下载:
  2. 分词文件,是一个比较简单词库.简单的说就是个强大的搜索-word document is a relatively simple thesaurus. Simply means that the powerful search
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:1005629
    • 提供者:杨占成
  1. sousyinqing

    0下载:
  2. 搜索引擎技术的研究论文,本文阐述了搜索引擎的基本原理,着重分析了中文分词的设计与实现。-search engine technology research papers, the paper deals with the search engine's basic principles focused on analysis of the Chinese word Design and Implementation.
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:45678
    • 提供者:季节
  1. KWICcase

    0下载:
  2. 实现关键词检索的一个程序,中文分词,自动检索-To achieve keyword search of a program, Chinese word segmentation, automatic search
  3. 所属分类:WinSock-NDIS

    • 发布日期:2017-03-30
    • 文件大小:4928
    • 提供者:shawn
  1. 111

    0下载:
  2. 中文分词 词库 分次字典中文分词 词库 分次字典- IHTMLDocument3* pHTMLDoc3 HRESULT hr = m_pHTMLDocument2->QueryInterface(IID_IHTMLDocument3, (LPVOID*)&pHTMLDoc3) ASSERT(SUCCEEDED(hr))
  3. 所属分类:Search Engine

    • 发布日期:2017-04-10
    • 文件大小:1414
    • 提供者:xuhaifan
  1. fenci

    0下载:
  2. 一个简单的基于词典分词的程序,lucene的分词程序不少,但有时候并不需要复杂的功能,只是需要简单的根据指定的词典分词。代码简单,可以作为学习参考-A simple dictionary-based word process, lucene procedures for sub-word a lot, but sometimes does not require complex functions, but only require a simple dictionary word accord
  3. 所属分类:Search Engine

    • 发布日期:2017-03-25
    • 文件大小:56112
    • 提供者:strayly
  1. 33753115ktdictseg_v1.0.01

    0下载:
  2. 中文分词算法,效率很高,使用词典树装搜索进行单词切割,并提供扩充词库的函数-It s an arithmetc of word segment,it has a very high efficiency!
  3. 所属分类:Search Engine

    • 发布日期:2017-03-30
    • 文件大小:37391
    • 提供者:郭刚
  1. SharpICTCLAS

    0下载:
  2. ICTCLAS分词的总体流程包括:1)初步分词;2)词性标注;3)人名、地名识别;4)重新分词;5)重新词性标注这五步。就第一步分词而言,又细分成:1)原子切分;2)找出原子之间所有可能的组词方案;3)N-最短路径中文词语粗分三步。 在所有内容中,词典库的读取是最基本的功能。ICTCLAS中词典存放在Data目录中,常用的词典包括coreDict.dct(词典库)、BigramDict.dct(词与词间的关联库)、nr.dct(人名库)、ns.dct(地名库)、tr.dct(翻译人名库
  3. 所属分类:Search Engine

    • 发布日期:2017-04-09
    • 文件大小:1964863
    • 提供者:ounata
  1. fenci

    0下载:
  2. 分词,很有帮助,可以直接用,转移到自己的函数里,免费下载-Word, helpful, and can be transferred to their function, the free download
  3. 所属分类:Search Engine

    • 发布日期:2017-04-04
    • 文件大小:19764
    • 提供者:韩兴凯
  1. ICTCLAS2010CSharpDemo

    0下载:
  2. 中文分词源程序, 中文词法分析是中文信息处理的基础与关键。中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级6次,目前已经升级到了ICTCLAS3.0。ICTCLAS3.0分词速度单机996KB/s,分词精度98.45
  3. 所属分类:Search Engine

    • 发布日期:2017-03-30
    • 文件大小:93050
    • 提供者:Liuying
  1. mySegment

    0下载:
  2. 类库程序,基于词典的简单分词,可分中英文混合的情况-Simple dictionary-based segmentation procedure
  3. 所属分类:Search Engine

    • 发布日期:2017-03-31
    • 文件大小:655921
    • 提供者:shy
  1. splitword

    0下载:
  2. 基于VC++6.0的中文分词程序。内含词典。-VC++6.0 based Chinese word segmentation procedure. Embedded dictionary.
  3. 所属分类:Search Engine

    • 发布日期:2017-05-10
    • 文件大小:2136223
    • 提供者:yang
  1. 1

    0下载:
  2. 中文分词在中文信息处理中是最最基础的,无论机器翻译亦或信息检索还是其他相关应用,如果涉及中文,都离不开中文分词,因此中文分词具有极高的地位。中文分词入门最简单应该是最大匹配法了-Chinese word segmentation in Chinese information processing is the most basic, whether in machine translation Yihuo information retrieval, or other related appli
  3. 所属分类:Search Engine

    • 发布日期:2017-04-01
    • 文件大小:60096
    • 提供者:随风
  1. SemanticFR(软件大赛版)

    0下载:
  2. 抓取网页,对语句进行分词处理,进行语义分析,对网页内容进行基于语义的过滤(Crawl web pages, word segmentation, semantic analysis, semantic filtering of web content)
  3. 所属分类:网络编程

    • 发布日期:2017-12-27
    • 文件大小:11557888
    • 提供者:周蛋蛋
  1. paoding-analysis-2.0.4-beta

    0下载:
  2. paoding-dic-home.properties是庖丁解牛中文分词的配置文件 庖丁解牛分词器是基于lucene的中文分词系统的软件。(Paoding-dic-home.properties is Chinese Paodingjieniu participle configuration file Is Chinese Paodingjieniu segmentation segmentation system based on the Lucene software.)
  3. 所属分类:网络编程

    • 发布日期:2018-04-21
    • 文件大小:6108160
    • 提供者:Alex灬XiaoD
  1. jieba-0.38

    0下载:
  2. jieba 分词,用在Python中,对中文文本进行分词(Jieba participle, used in Python to segment Chinese text;)
  3. 所属分类:网络编程

    • 发布日期:2018-05-01
    • 文件大小:7388160
    • 提供者:risiding
« 1 23 4 5 6 7 8 »
搜珍网 www.dssz.com