CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 Internet/网络编程 搜索资源 - 分词

搜索资源列表

  1. ExtractorDktj131_2012

    0下载:
  2. 基于复杂网络的新闻网页解析算法,实现复杂网络构建及分词功能-Built complex network based on complex network news page parsing algorithm, and the word function
  3. 所属分类:Search Engine

    • 发布日期:2017-11-15
    • 文件大小:909779
    • 提供者:xcx0617
  1. RMM

    0下载:
  2. 这个是RMM算法,支持正向、逆向最大匹配,是自然语言处理的重要算法之一,只要替代程序中的词库即可。本词库取自1988年人民日报语料材料,算法对中文分词精确度达到90 以上-This is RMM algorithm supports forward, reverse maximum matching, natural language processing algorithm, as long as the alternative procedures thesaurus can. The th
  3. 所属分类:Search Engine

    • 发布日期:2017-11-09
    • 文件大小:251403
    • 提供者:he
  1. findleft

    0下载:
  2. 这个是概率统计最大算法,此算法是分词算法的一种,是自然语言处理中最有效的分词算法之一,本算法精确度达到95 以上-This is the probability statistics algorithm, this algorithm is a sub-word segmentation algorithm is the most effective natural language processing word segmentation algorithm, the algorithm an
  3. 所属分类:Search Engine

    • 发布日期:2017-11-09
    • 文件大小:404972
    • 提供者:he
  1. php_chinese

    0下载:
  2. php中文分词词库,用php纯代码书写的,支持敏感词,关键词过滤,还可以给词添加自定义属性(词频、权重、高亮显示)入口操作简单易于整合。-php Chinese word thesaurus, written in pure code with php support sensitive word, keyword filtering, you can also add custom attributes to the word (word frequency, weight, highligh
  3. 所属分类:WinSock-NDIS

    • 发布日期:2017-05-11
    • 文件大小:2370885
    • 提供者:小林
  1. fenci

    0下载:
  2. 使用机器学期学习已有文本的中文分词,然后再对新文本进行分词的代码。-Using machine semester existing text of the Chinese word, and then the new code word text.
  3. 所属分类:Search Engine

    • 发布日期:2017-03-30
    • 文件大小:835924
    • 提供者:管毅舟
  1. MapTest

    0下载:
  2. 倒排索引,此程序,运用ICTClas分词工具实现的中文分词,并建立倒排索引输出到指定文件。-Inverted index, this procedure, use ICTClas segmentation tool to achieve the Chinese word segmentation and indexing inverted output to the specified file.
  3. 所属分类:WinSock-NDIS

    • 发布日期:2017-04-11
    • 文件大小:822
    • 提供者:forsdth
  1. test

    0下载:
  2. 分享一段asp站内类似百度引擎的模糊搜索代码 早在N年前就有网友问过:类似百度的站内模糊搜索怎样才能实现?最近工作需要,做了一个 asp 站内搜索。要求完全匹配的关键词要排在前面,关键词要模糊匹配。在网上搜了半天没有找到需要的代码,只好自己编写,现在分享给有需要的人。 功能介绍: 1、利用分词技术,先把关键词拆分为多个词组。如:“搜索炼药师”,拆分为:“搜索”、“索炼”、“炼药”、“药师”等多个词组。 2、如:数据库标题字段完全匹配“搜索炼药师”的排在前面,数据库标题字段模糊匹配
  3. 所属分类:Web Server

    • 发布日期:2017-03-30
    • 文件大小:74946
    • 提供者:邓王子
  1. fenci_v1.0_utf8

    0下载:
  2. 本程序利用数学算法简单实现了文章分词的功能,页面清洁、简单。-the program use math to
  3. 所属分类:P2P

    • 发布日期:2017-05-10
    • 文件大小:2372982
    • 提供者:吴建明
  1. 567657

    0下载:
  2. SCWS是Simple Chinese Word Segmentation的首字母缩写(即:简易中文分词系统)。 这是一套基于词频词典的机械式中文分词引擎,它能将一整段的中文文本基本正确地切分成词。 词是中文的最小语素单位,但在书写时并不像英语会在词之间用空格分开, 所以如何准确并快速分词一直是中文分词的攻关难点。 -SCWS initials Simple Chinese Word Segmentation abbreviations (ie: Simple Chinese
  3. 所属分类:Browser Client

    • 发布日期:2017-04-09
    • 文件大小:435267
    • 提供者:hudy
  1. search

    0下载:
  2. cygwin平台下实现的分词搜索,将输入文本分词后关键字检索-cygwin search
  3. 所属分类:Linux Network

    • 发布日期:2017-05-03
    • 文件大小:598514
    • 提供者:林金金
  1. SearchEngine

    2下载:
  2. dySE 是个开源的 Java 小型搜索引擎。该搜索引擎分为三个模块:爬虫模块、预处理模块和搜索模块。其中详细阐述了: 多线程页面爬取、正文内容提取、文本提取、分词、索引建立、快照等功能的实现。-dySE is an open source Java small search engines. The search engine is divided into three modules: crawler module, pretreatment module and search module
  3. 所属分类:Search Engine

    • 发布日期:2015-05-13
    • 文件大小:2616320
    • 提供者:武广
  1. syzlsearch_v3.1

    0下载:
  2. 基于Lucene开发的站内搜索解决方案,其集成专为站内搜索设计的细粒度中文分词,有效兼顾搜准和搜全率,无缝支持多种数据库数据汇入索引,支持全站,资讯,博客等多类型同时搜索,支持按相关度/时间检索,支持按时间过滤搜索,同时还有智能提示,相关搜索,搜索历史记录等实用功能。-Based on the development of the station within the Lucene search solutions, integrated site search designed specifi
  3. 所属分类:Web Server

    • 发布日期:2017-05-14
    • 文件大小:3504141
    • 提供者:q1
  1. LogAnlanlyze

    1下载:
  2. 基于Hadoop的日志分析系统,流量分析、用户区域分析、使用数据仓库Hive存储查询,Hbase存储,分词等-Hadoop-based log analysis system, traffic analysis, user-regional analysis, data warehouse storage Hive queries, Hbase storage, word, etc.
  3. 所属分类:Cloud Computing

    • 发布日期:2017-05-11
    • 文件大小:2466686
    • 提供者:
  1. kms3

    0下载:
  2. 任意聚合成员搜索引擎、分类搜索快速建立行业网站群组搜索引擎、缓存技术静态化搜索、中文智能分词技术、广告管理、WAP移动搜索;后台程序采用多线程调用成员引擎,大大提高搜索速度、性能和系统负载能力。 -Any aggregation member search engine, category search quickly establish industry group of websites search engine, caching static search, Chinese intell
  3. 所属分类:Web Server

    • 发布日期:2017-05-03
    • 文件大小:876130
    • 提供者:chenwang
  1. kms_v3.1

    1下载:
  2. 元搜索引擎(MetaSearch)的特点是把多个独立搜索引擎的搜索结果整合、控制、优化,再把搜索结果输出到客户端。元搜索引擎不需要庞大的网页数据库,而能够搜索到更加丰富、准确的内容。K-MetaSearch是由Kwindsoft自主研发的元搜索引擎产品。主要功能特点:任意聚合成员搜索引擎、分类搜索快速建立行业网站群组搜索引擎、缓存技术静态化搜索、中文智能分词技术、广告管理、WAP移动搜索;后台程序采用多线程调用成员引擎,大大提高搜索速度、性能和系统负载能力。-Meta search engine
  3. 所属分类:Web Server

    • 发布日期:2017-04-29
    • 文件大小:487691
    • 提供者:lq
  1. wwwsqldesigner-2.7

    0下载:
  2. 这是一套基于词频词典的机械式中文分词引擎,它能将一整段的中文文本基本正确地切分成词。 词是中文的最小语素单位,但在书写时并不像英语会在词之间用空格分开, 所以如何准确并快速分词一直是中文分词的攻关难点。-This is a dictionary-based word frequency mechanical Chinese word segmentation engine, it will be a whole section of the Chinese text of the basic r
  3. 所属分类:Web Server

    • 发布日期:2017-04-30
    • 文件大小:112644
    • 提供者:张群
  1. dedesplit

    0下载:
  2. 本站采用的是一种用最小切分和逆向最大匹配法结合的一种复合分词算法,目前对岐义识别还处于初步研究阶段.-Powered by is a composite word segmentation algorithm with a minimum and maximum matching method combined reverse, the current recognition of ambiguity still in the preliminary research stage.
  3. 所属分类:Web Server

    • 发布日期:2017-05-06
    • 文件大小:676767
    • 提供者:vhnd
  1. WordSegment

    0下载:
  2. 大家可以试用一下。如果平时使用过程中发现有一些分词不正确,可以到 http://www.easyustc.com/fenci/build_sqlite.php 来修正字典,帮助我们优化字典。同时你也可以在这里下载最新的字典版本。 -You can try. If you usually use process found that some word is not correct, it can be corrected to http://www.easyustc.com/fenci/buil
  3. 所属分类:Web Server

    • 发布日期:2017-05-23
    • 文件大小:6843193
    • 提供者:ckuuu
  1. wordpress-seo

    0下载:
  2. 什么是中文分词众所周知,英文是以词为单位的,词和词之间是靠空格隔开,而中文是以字为单位,句子中所有的字连起来才能描述一个意思。例如,英文句子I ama student,用中文则为:“我是一个学生”。-What is the Chinese word is known, is based on English words separated by spaces between words and word as a unit, and the Chinese as words, sentences
  3. 所属分类:Web Server

    • 发布日期:2017-05-04
    • 文件大小:74696
    • 提供者:fhnon
  1. fenci

    0下载:
  2. 专业提供中文分词PHP扩展和中文词库。使中文分词,全文搜索不再是难点,一个php函数即完成分词。然后即可把分词后的结果存储,再使用sphinx,Lucene等进行索引搜索了-Professional Chinese word segmentation PHP extension and Chinese thesaurus. So that Chinese word segmentation, full-text search is no longer a difficult point, a p
  3. 所属分类:Web Server

    • 发布日期:2017-05-07
    • 文件大小:1508453
    • 提供者:lrru
« 1 2 3 4 5 6 78 »
搜珍网 www.dssz.com