CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 搜索资源 - 中文分词

搜索资源列表

  1. chinafenci

    0下载:
  2. 中文分词,读取txt文档然后给词分类,
  3. 所属分类:Search Engine

    • 发布日期:2017-03-30
    • 文件大小:19372
    • 提供者:yuchunhui
  1. fenci

    0下载:
  2. 这是一款中文分词软件的源代码,用的是Vb语言编写的。-fengyinghua
  3. 所属分类:Other systems

    • 发布日期:2017-04-03
    • 文件大小:3184
    • 提供者:冯英华
  1. Wordseg

    0下载:
  2. 该程序是采用的java语言对测试文本进行中文分词-Chinese segmenter
  3. 所属分类:Java Develop

    • 发布日期:2017-04-01
    • 文件大小:2642
    • 提供者:caomengsi
  1. SphinxV0.9.8.1source

    0下载:
  2. SphinxV0.9.8.1source.zip VC++ 基于Lucene扩展的支持中文分词的开源搜索引擎 中文用户-Sphinx V0.9.8.1 source.zip VC++ extensions to support Lucene-based Chinese word segmentation in Chinese open source search engine users
  3. 所属分类:Search Engine

    • 发布日期:2017-03-24
    • 文件大小:957518
    • 提供者:stoneseu
  1. dict

    0下载:
  2. 已处理过的中文分词词典Chinese Word Segment Dictionary,you may need to use it in your CWS program-Chinese Word Segment Dictionary,you may need to use it in your CWS program
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-03-31
    • 文件大小:635225
    • 提供者:zhaoyilin
  1. fenciserver

    0下载:
  2. 中文分词程序,实现简单的分词,有简易的智能-Chinese word segmentation program to segment a simple word, there is a simple intelligent
  3. 所属分类:MultiLanguage

    • 发布日期:2017-04-10
    • 文件大小:1698691
    • 提供者:李庆文
  1. fenci

    0下载:
  2. 中文分词代码,利用Java写的关于搜索的中文分词-Chinese word segmentation code, the use of Java to write about the Chinese word search
  3. 所属分类:Java Develop

    • 发布日期:2017-05-08
    • 文件大小:1693936
    • 提供者:tom
  1. lucene-3.0.1-src

    0下载:
  2. Lucene算法最新源码包,提供给中文分词器开发者最好的工具!-Lucene algorithm is the latest source package available to the Chinese word device developers the best tools!
  3. 所属分类:Jsp/Servlet

    • 发布日期:2017-06-01
    • 文件大小:14024903
    • 提供者:
  1. hlfc_java_sourcecode

    0下载:
  2. 海量分词的共享版的java源码,值得学习,对中文分词有很高的精度-Massive word shared version of the java source code, it is worth learning for Chinese word has a high accuracy
  3. 所属分类:Java Develop

    • 发布日期:2017-04-09
    • 文件大小:4960
    • 提供者:留洋
  1. sample

    0下载:
  2. 中文分词,中文词法分析是中文信息处理的基础与关键-Chinese word
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-30
    • 文件大小:12574058
    • 提供者:jingwei
  1. IKAnalyzer3.2.0Stable_src

    0下载:
  2. IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 IKAnalyzer3.0特性: 采用了特有的“正向迭代最细粒度切分算法“,具有60万字/秒的高速处理能力。
  3. 所属分类:Jsp/Servlet

    • 发布日期:2017-04-10
    • 文件大小:1094666
    • 提供者:木划
  1. totsearchc

    0下载:
  2. 淘特站内搜索引擎是由淘特JSP搜索引擎发展而来,系统基于Lucene.Net核心,通过高效的中文分词算法将数据库中内容进行分析、索引并保存至硬盘中。前台搜索时,通过读取索引文件查询,避免了传统数据库查询在高并发及海量数据下的性能问题。因前台搜索不在连接数据库,为不希望数据库放到前台的特殊用户群体提供了数据快速查询解决方案。-Amoy Special Site search engine from the Amoy Te JSP search engine, developed from, sys
  3. 所属分类:Windows Develop

    • 发布日期:2017-04-02
    • 文件大小:373503
    • 提供者:miao
  1. segChnWord

    0下载:
  2. 中文分词评测系统,用于评测中文分词的质量,给出准确率等-Chinese word segmentation evaluation system for evaluating the quality of Chinese word segmentation, given the accuracy of such
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-08
    • 文件大小:3452
    • 提供者:miaoer
  1. WebPages_InvertedFile

    0下载:
  2. 根据中文分词结果生成倒排文档,并将结果输出到文本文件中。-Generate the inverted file based on the result of word-splitting, and output to a text file.
  3. 所属分类:Data structs

    • 发布日期:2017-05-17
    • 文件大小:4790673
    • 提供者:王啊
  1. totsearch

    0下载:
  2. 淘特站内搜索引擎是由淘特JSP搜索引擎发展而来,系统基于Lucene.Net核心,通过高效的中文分词算法将数据库中内容进行分析、索引并保存至硬盘中。前台搜索时,通过读取索引文件查询,避免了传统数据库查询在高并发及海量数据下的性能问题。因前台搜索不在连接数据库,为不希望数据库放到前台的特殊用户群体提供了数据快速查询解决方案。 -Amoy Special Site search engine from the Amoy special JSP search engine developed fr
  3. 所属分类:Windows Develop

    • 发布日期:2017-05-02
    • 文件大小:743011
    • 提供者:豆豆
  1. File22

    0下载:
  2. 基于关键词的Web文档自动分类算法研究,文档关键词,语义相似度,聚类算法,知网,拓扑网络图,中文分词-Keyword-based Web Document Classification Algorithm, document keywords, semantic similarity, clustering algorithm, HowNet, topological network diagrams, Chinese word segmentation
  3. 所属分类:software engineering

    • 发布日期:2017-05-10
    • 文件大小:2123798
    • 提供者:王三
  1. ChineseWordSegmentation1

    0下载:
  2. 中文分词-前向最大匹配方法;VS2008环境下实现-Chinese word- the former to the maximum matching method VS2008 environment to achieve
  3. 所属分类:MultiLanguage

    • 发布日期:2017-04-07
    • 文件大小:937692
    • 提供者:孙伟
  1. DictSegment

    0下载:
  2. 一个简单词库,适宜用于文本分词使用。可用基于Lucene的中文分词使用。-A simple thesaurus, suitable for a text word to use. Available in Chinese word segmentation based on Lucene use.
  3. 所属分类:Other systems

    • 发布日期:2017-04-05
    • 文件大小:2598
    • 提供者:rjgc0501
  1. K-PageSearch

    1下载:
  2. 功能特点 多线程网络蜘蛛 网页定向采集 多语言网页编码自动识别 哈希表网页去重 智能网页正文抽取 基于词库的智能中文分词 中文分词词库管理 海量数据毫秒级全文检索 缓存技术 网页快照 高级搜索 竞价排名 网络蜘蛛-Features multi-threaded web spider web oriented multi-language Web page collection automatic identific
  3. 所属分类:Other systems

    • 发布日期:2017-05-13
    • 文件大小:3360302
    • 提供者:洋洋
  1. ganzhiji

    0下载:
  2. 基于感知机的中文分词程序,实现基本的文本分词,正确率高达97 以上-Perceptron-based Chinese word segmentation program to achieve basic text word, the correct rate of 97 or more
  3. 所属分类:Windows Develop

    • 发布日期:2016-05-04
    • 文件大小:5156864
    • 提供者:王宏
« 1 2 ... 10 11 12 13 14 1516 17 18 19 20 ... 35 »
搜珍网 www.dssz.com