CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 搜索资源 - 中文分词

搜索资源列表

  1. elasticsearch-analysis-ik-master

    0下载:
  2. ik是一个中文分词较为成熟的分词器,该文件是分词器的源码-ik is a Chinese word segmentation is more mature, the file is the code word
  3. 所属分类:Java Develop

    • 发布日期:2017-05-13
    • 文件大小:3285534
    • 提供者:huangke
  1. Chinese-Word-Segmentation

    0下载:
  2. 很好的中文分词算法,详细介绍请解压后看注释。字典文件也要放在目录下。-Good Chinese word segmentation algorithm, detailed look after unzip comment. But also on the dictionary file directory.
  3. 所属分类:Algorithm

    • 发布日期:2017-05-09
    • 文件大小:1876986
    • 提供者:zyt
  1. cppjieba-master

    0下载:
  2. 中文分词功能,采用统计学习算法来实现,准确率较高-Chinese word function, using statistical learning algorithms to achieve high accuracy
  3. 所属分类:Data structs

    • 发布日期:2017-05-25
    • 文件大小:8361942
    • 提供者:liweiqing
  1. HLDLL-for-VB

    0下载:
  2. 海量分词的for VB版本,值得学习,对中文分词有很高的精度-Massive word for VB version, it is worth learning, have the very high accuracy of Chinese participle
  3. 所属分类:.net

    • 发布日期:2017-04-02
    • 文件大小:57722
    • 提供者:hzj
  1. FenCi

    0下载:
  2. NLPIR2015中文分词 java 可以加入自定义词典 -chinese segmentation by NLPIR2015 . JAVA source code
  3. 所属分类:Java Develop

    • 发布日期:2017-05-26
    • 文件大小:9687630
    • 提供者:wangmingqiang
  1. LBChSeg

    0下载:
  2. 这是用c++写的一个正向最大匹配中文分词算法,主要实现的是中文的分词,从左向右,实现分词的最大匹配-This is the biggest match using c++ to write a forward maximum matching Chinese word segmentation algorithm, the main achievement is the Chinese word, and left to right, to achieve sub-word
  3. 所属分类:Other systems

    • 发布日期:2017-05-16
    • 文件大小:3811238
    • 提供者:李好
  1. 搜易站内搜索引擎2.1

    0下载:
  2. 搜易站内搜索引擎(SearchEasy Site Search Engine)是面向互联网网站的站内搜索解决方案,其针对网站使用数据库搜索性能差,体验差等问题,将搜索引擎技术应用于站内搜索;本系统具备中文分词,智能摘要,关键词高亮等技术,可与数据库无缝集成,目前支持MS SQL 2000/2005,My SQL数据库。 软件基于B/S架构技术,前后端设计精美,操作体验佳。 搜易站内搜索引擎 2.1 修正BUG和新增功能列表:2015-3-28 1,修正授权功能和版本功能表所列功能不匹配
  3. 所属分类:ASPX.NET源码

  1. sphinx-chinese-2.2.1

    0下载:
  2. PHP全文检索引擎--sphinx中文分词包-sphinx chinese support
  3. 所属分类:Other systems

    • 发布日期:2017-05-22
    • 文件大小:6568242
    • 提供者:wwf
  1. nlpir_ictclas2013_release

    0下载:
  2. 中科院发布的分词系统,能很好的进行中文分词,词性标注。-Chinese Academy of Sciences released a segmentation system that can be very good for Chinese word segmentation, POS tagging.
  3. 所属分类:Java Develop

    • 发布日期:2017-05-25
    • 文件大小:7777169
    • 提供者:刘贵林
  1. fenci

    0下载:
  2. 适用于中文分词处理,运行环境为vc++6.0-Suitable for Chinese word processing, operating environment vc++ 6.0
  3. 所属分类:Windows Develop

    • 发布日期:2017-04-29
    • 文件大小:9673
    • 提供者:月天
  1. 093031fenci

    0下载:
  2. 这是一个中文分词系统,ICTALAS,非常经典的分词源码,欢迎下载。-This is a system of Chinese segmentation,ICTALAS,and it s very classical.It s my hornor to download this resource,thank you.
  3. 所属分类:software engineering

    • 发布日期:2017-05-10
    • 文件大小:2458044
    • 提供者:赵世超
  1. 909aae2c-4f2c-4771-83e4-6894516f14e1

    0下载:
  2. 一个中文分词算法,可以实现将分词文本切分成自定义字典中的单词-A Chinese word segmentation algorithm, you can achieve the word segmentation text into a dictionary of words
  3. 所属分类:Jsp/Servlet

    • 发布日期:2017-04-28
    • 文件大小:15653
    • 提供者:lhs
  1. ICTCLAS50_Windows_64_JNI

    0下载:
  2. 中科院ictclas中文分词器 中科院ictclas中文分词器-CAS ictclas Chinese word segment CAS ictclas Chinese word segment
  3. 所属分类:Other windows programs

    • 发布日期:2017-05-27
    • 文件大小:9230896
    • 提供者:stardj
  1. IKAnalyzer

    0下载:
  2. IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 -IKAnalyzer is an open source, lightweight java-based de
  3. 所属分类:Compress-Decompress algrithms

    • 发布日期:2017-05-09
    • 文件大小:1741741
    • 提供者:黄生
  1. Project2

    0下载:
  2. 分词实验程序,通过读取txt中的中文词典,根据词典中的词语对文本进行中文分词-Word segmentation experiments, by reading the Chinese dictionary in txt, according to the words in the dictionary to Chinese word segmentation
  3. 所属分类:Other systems

    • 发布日期:2017-05-09
    • 文件大小:1573042
    • 提供者:
  1. syzlsearch_v2.5

    0下载:
  2. 基于Lucene开发的站内搜索解决方案,其集成专为站内搜索设计的细粒度中文分词,有效兼顾搜准和搜全率,无缝支持多种数据库数据汇入索引,支持全站,资讯,博客等多类型同时搜索,支持按相关度/时间检索,支持按时间过滤搜索-Based on Lucene development of the station search solution, its integration is designed for the station search and design of fine-grained Chin
  3. 所属分类:ActiveX-DCOM-ATL

    • 发布日期:2017-05-14
    • 文件大小:3478449
    • 提供者:Lily
  1. Chinese-configuration-parameters

    0下载:
  2. coreseek-3.2.13兼容sphinx-0.9.9的配置,可以不经修改,即可直接使用。不过,为了更好的针对中文进行检索,则需要使用coreseek新增的配置参数,设置中文分词。-coreseek-3.2.13 sphinx-0.9.9 is compatible with the configuration, it can without modification, can be used directly. However, in order to better search for
  3. 所属分类:Software Testing

    • 发布日期:2017-04-12
    • 文件大小:1461
    • 提供者:郭治
  1. syzlsearch_v2.6

    0下载:
  2. 基于Lucene开发的站内搜索解决方案,其集成专为站内搜索设计的细粒度中文分词,有效兼顾搜准和搜全率,无缝支持多种数据库数据汇入索引,支持全站,资讯,博客等多类型同时搜索,支持按相关度/时间检索,支持按时间过滤搜索,同时还有智能提示,相关搜索,搜索历史记录等实用功能。-Based on Lucene development of the station search solution, which is integrated into the search for the design of t
  3. 所属分类:WEB(ASP,PHP,...)

    • 发布日期:2017-05-14
    • 文件大小:3479297
    • 提供者:bmpudn66
  1. search

    0下载:
  2. 中文分词与搜索引擎
  3. 所属分类:Project Design

    • 发布日期:2017-04-30
    • 文件大小:27612
    • 提供者:volin
  1. totsearch_v3.3

    0下载:
  2. 淘特站内搜索引擎是由淘特JSP搜索引擎发展而来,系统基于Lucene.Net核心,通过高效的中文分词算法将数据库中内容进行分析、索引并保存至硬盘中。前台搜索时,通过读取索引文件查询,避免了传统数据库查询在高并发及海量数据下的性能问题。因前台搜索不在连接数据库,为不希望数据库放到前台的特殊用户群体提供了数据快速查询解决方案。 淘特站内搜索引擎(C#版)v3.3更新内容: 1、解决生成的文件链接始终是第一个的错误 2、解决GbK编码搜索程序Default_Gbk.aspx下一页链接错误的
  3. 所属分类:WEB(ASP,PHP,...)

    • 发布日期:2017-05-11
    • 文件大小:2264097
    • 提供者:zzpudn1
« 1 2 ... 21 22 23 24 25 2627 28 29 30 31 ... 35 »
搜珍网 www.dssz.com