CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 Internet/网络编程 搜索引擎 搜索资源 - 分词

搜索资源列表

  1. 小叮咚分词模块

    0下载:
  2. 小叮呼的分词模块 小叮呼的分词模块-small bite called the Word module called the small bite-term m odule
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:733289
    • 提供者:侯沛东
  1. 百度分词词库

    0下载:
  2. 据说是百度以前用的中文分词词典,希望对大家有一点帮助哈,快下快下-allegedly Baidu before the Chinese word dictionaries, we hope to have a bit of help to Kazakhstan, where fast under fast!
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:416489
    • 提供者:王国金
  1. 分词模块

    0下载:
  2. 一个非常有用的分词模块,对研究搜索引擎的人有参考价值-a very useful segmentation module, the study of search engines reference value
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:733553
    • 提供者:杨登峰
  1. 中文分词函数库CipSegSDKV1.03

    1下载:
  2. 东大做中文分词的源代码,主要是用于搜索引擎的中文文本预处理-Tung Chinese-made version of the source code is mainly for the Chinese search engine Hypertext
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:661149
    • 提供者:刘斌
  1. Delphi实现的简单中文分词v1.1

    0下载:
  2. Delphi实现的简单中文分词,Delphi实现的简单中文分词-Delphi simple Chinese word Delphi simple Chinese word
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:505741
    • 提供者:鸿飞
  1. 庖丁分词工具

    0下载:
  2. 一个流行的java分词程序。
  3. 所属分类:搜索引擎

    • 发布日期:2010-11-10
    • 文件大小:6109005
    • 提供者:gjf_matt
  1. 本程序可以实现对已有网页的信息提取和分词

    0下载:
  2. 本程序可以实现对已有网页的信息提取和分词,结果会导入叫做res.txt的文件中。本程序是开发搜索引擎的前期工作。-This procedure can be achieved on existing Web information extraction and segmentation, the results into a file called res.txt. This program is the development of the preliminary work the searc
  3. 所属分类:搜索引擎

    • 发布日期:2017-03-23
    • 文件大小:1004275
    • 提供者:风云漂泊
  1. Chinesewordsegmentationalgorithm

    0下载:
  2. 中文分词算法,跟金山词霸一样,当鼠标移动到语句上时,能自动分割词语-Chinese word segmentation algorithm with the same PowerWord, when the mouse moved to sentence when the words automatically partition
  3. 所属分类:Search Engine

    • 发布日期:2017-05-15
    • 文件大小:3766150
    • 提供者:云梦若
  1. Codes_and_Application

    0下载:
  2. 中科院的的分词工具,应该是分中文用的,效率不错-Chinese Academy of Sciences of the sub-word tools, should be used at the Chinese, the efficiency of a good
  3. 所属分类:Search Engine

    • 发布日期:2017-05-11
    • 文件大小:2740161
    • 提供者:chanfangliang
  1. css

    0下载:
  2. 用VISUAL C++编写的中文分词系统C-Using VISUAL C++ Prepared Chinese word segmentation system C
  3. 所属分类:Search Engine

    • 发布日期:2017-04-03
    • 文件大小:37365
    • 提供者:zsl
  1. include

    0下载:
  2. 用VISUAL C++编写的中文分词系统中的INCULDE算法-Using VISUAL C++ Prepared Chinese word segmentation system INCULDE algorithm
  3. 所属分类:Search Engine

    • 发布日期:2017-04-01
    • 文件大小:36158
    • 提供者:zsl
  1. utils

    0下载:
  2. 用VISUAL C++编写的中文分词系统 UTILS算法-Using VISUAL C++ Prepared Chinese word segmentation system Utils algorithm
  3. 所属分类:Search Engine

    • 发布日期:2017-03-29
    • 文件大小:24620
    • 提供者:zsl
  1. NLuke0.12

    0下载:
  2. 这是一个基于网络的,扩展了lunce的一个搜索分词工具-This is a web-based, expanded lunce participle of a search tool
  3. 所属分类:Search Engine

    • 发布日期:2017-04-25
    • 文件大小:218334
    • 提供者:elvin
  1. SentenceSplit

    0下载:
  2. 中文分词组件。小型搜索引擎用中文分词组件, 内带词库-Sentence Split
  3. 所属分类:Search Engine

    • 发布日期:2017-05-13
    • 文件大小:587676
    • 提供者:白水
  1. src

    0下载:
  2. 利用lucene编写的一个简单搜索引擎,能够中文分词。-a simple search engine built with lucene.
  3. 所属分类:Search Engine

    • 发布日期:2017-04-01
    • 文件大小:4783
    • 提供者:杨子靖
  1. SearchEngine

    0下载:
  2. C#+Lucene.Net开发完成的一个自定义WEB搜索引擎,本项目实现了分词、模糊索引,加以Lucene.Net内部核心功能共同实现了搜索机制引擎-C#+ Lucene.Net developed a custom WEB search engine, the project achieved a sub-word, fuzzy indexing, Lucene.Net be the core function of the internal search mechanism to achie
  3. 所属分类:Search Engine

    • 发布日期:2017-05-19
    • 文件大小:5300285
    • 提供者:tony
  1. UseHLSSplit(Fix)

    0下载:
  2. 中文分词处理,delphi调用海量智能分词库,修改了网上另一个版本的错误。-Chinese word processing, delphi call the massive intelligence points thesaurus, revised the online version of the error to another.
  3. 所属分类:Search Engine

    • 发布日期:2017-05-24
    • 文件大小:7747835
    • 提供者:匹夫
  1. 111

    0下载:
  2. 中文分词 词库 分次字典中文分词 词库 分次字典- IHTMLDocument3* pHTMLDoc3 HRESULT hr = m_pHTMLDocument2->QueryInterface(IID_IHTMLDocument3, (LPVOID*)&pHTMLDoc3) ASSERT(SUCCEEDED(hr))
  3. 所属分类:Search Engine

    • 发布日期:2017-04-10
    • 文件大小:1414
    • 提供者:xuhaifan
  1. fenci

    0下载:
  2. 一个简单的基于词典分词的程序,lucene的分词程序不少,但有时候并不需要复杂的功能,只是需要简单的根据指定的词典分词。代码简单,可以作为学习参考-A simple dictionary-based word process, lucene procedures for sub-word a lot, but sometimes does not require complex functions, but only require a simple dictionary word accord
  3. 所属分类:Search Engine

    • 发布日期:2017-03-25
    • 文件大小:56112
    • 提供者:strayly
  1. 33753115ktdictseg_v1.0.01

    0下载:
  2. 中文分词算法,效率很高,使用词典树装搜索进行单词切割,并提供扩充词库的函数-It s an arithmetc of word segment,it has a very high efficiency!
  3. 所属分类:Search Engine

    • 发布日期:2017-03-30
    • 文件大小:37391
    • 提供者:郭刚
« 12 3 4 5 6 »
搜珍网 www.dssz.com