CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 搜索资源 - 分词

搜索资源列表

  1. JE

    0下载:
  2. JE中文分词压缩包,应用于网络搜索中的中文分词过程中 -JE Chinese Words Segmentation
  3. 所属分类:Java Develop

    • 发布日期:2017-04-01
    • 文件大小:943584
    • 提供者:yang
  1. NGRAM

    0下载:
  2. NGRAM中文分词压缩包,应用于网络搜索中的中文分词过程中 -NGRAM Chinese Words Segmentation
  3. 所属分类:Java Develop

    • 发布日期:2017-04-04
    • 文件大小:58028
    • 提供者:yang
  1. ICTCLAS50_Linux_RHAS_32_C

    0下载:
  2. 中科院发布的中文分词系统,为国内水平最高的中文分词软件,这是最新版-Chinese Academy of Sciences released a Chinese word segmentation system, the highest level for the domestic Chinese word segmentation software, the latest version of the
  3. 所属分类:Linux Network

    • 发布日期:2016-01-25
    • 文件大小:9476096
    • 提供者:三角函数
  1. ICTCLAS50_Linux_RHAS_64_C

    0下载:
  2. 中科院的中文分词软件,有源码,有调用库的用法.这是64位Linux版-Chinese Academy of Sciences of the Chinese word software, there is source code, call the library with the use of which is 64-bit Linux version
  3. 所属分类:Embeded Linux

    • 发布日期:2017-05-26
    • 文件大小:9441674
    • 提供者:三角函数
  1. ICTCLAS50_Linux_RHAS_32_JNI

    0下载:
  2. 中科院中文分词程序,国内相关领域的的权威.这是Java(JNI)32位版-Institute of Chinese word segmentation program, the domestic authority of the relevant fields, which is Java (JNI) 32-bit version
  3. 所属分类:Linux-Unix program

    • 发布日期:2017-05-26
    • 文件大小:9116780
    • 提供者:三角函数
  1. wordsegmentation

    0下载:
  2. 一种基于自动机的分词方法,可进行中文分词及统计-Based method of automatic machine word
  3. 所属分类:MultiLanguage

    • 发布日期:2017-04-10
    • 文件大小:1551736
    • 提供者:lynn
  1. fenci

    0下载:
  2. 可以进行中文分词,准确率可达95 ,可以满足一般的分词需要-Chinese word can be, up to 95 accuracy, to meet the needs of the general word
  3. 所属分类:Java Develop

    • 发布日期:2017-05-18
    • 文件大小:5005927
    • 提供者:ruchengsen
  1. Chinese-Lexical-Analysis

    0下载:
  2. 一种基于层叠隐马模型的汉语词法分析方法,旨在将汉语分词、词性标注、切分排歧和未登录词识别集成到一个完整的理论框架中.-An approach for Chinese 1exical analysis using cascaded hidden Markav model, which aims to incorporate segmentation, part-of-speech tagging, disambiguation and unknown words recognition int
  3. 所属分类:software engineering

    • 发布日期:2017-04-02
    • 文件大小:768743
    • 提供者:王辉
  1. CNSegmenter

    0下载:
  2. C#开发实例,主要完成中文分词技术,实现自动识别新词,和中文语句的划分-C# development instance, was completed for Chinese word segmentation, automatic identification of new words, and the division of Chinese statement
  3. 所属分类:Graph Recognize

    • 发布日期:2017-05-14
    • 文件大小:3329343
    • 提供者:dingding
  1. wordsDivide

    0下载:
  2. 输入一个词典和待分词的文档,输出按照词典分词后的文档-Enter a word dictionary and a document to be output according to the document after the word dictionary
  3. 所属分类:MultiLanguage

    • 发布日期:2017-05-16
    • 文件大小:4415684
    • 提供者:tong
  1. soso

    0下载:
  2. {php mysql 中文全文搜索demo}中文全文搜索目前没有什么好的方法 本例子提供这个产考 先分词 在urlcode编码 然后mysql 全文检索 查询 提供了个思路请多指教 :qq:852790674-www.kurencms.tk
  3. 所属分类:WEB(ASP,PHP,...)

    • 发布日期:2017-05-10
    • 文件大小:2373903
    • 提供者:curlmen
  1. shooter_seg

    0下载:
  2. 开源分词系统,可以自己更改词库词典,加载后即可正常使用-shooter seg
  3. 所属分类:CSharp

    • 发布日期:2017-05-06
    • 文件大小:1034979
    • 提供者:siliscar
  1. boosting_src

    0下载:
  2. Boosting中的AdaBoost.M1算法在文本分类中的应用实现。使用ICTCLAS用于中文分词,弱分类器使用Naive Bayes。程序参数使用配置文件的格式。-Application of text classification using AdaBoost.M1. Use ICTCLAS tool in Chinese segment, and use Naive Bayes as the weak classifier. use the config file as the para
  3. 所属分类:Linux-Unix program

    • 发布日期:2017-05-16
    • 文件大小:4137477
    • 提供者:彭卫华
  1. Lucene-code-src3.0-

    0下载:
  2. Lucene3.0原理与分析java版 第一章 全文检索的原本原理 第二章 Lucene 的总体架构 第三章:Lucene 的索引文件格式 第四章:Lucene 索引过程分析 第五章:Lucene 段合并(merge)过程分析 第七章:Lucene 搜索过程解析 第八章:Lucene 的查询语法,JavaCC 及QueryParser 第十章:Lucene 的分词器Analyzer-The first chapter of the full text searc
  3. 所属分类:Java Develop

    • 发布日期:2017-05-15
    • 文件大小:4047691
    • 提供者:fenghaoqing
  1. quanqiefen_fenci

    0下载:
  2. C#编写的程序,用于实现中文分词中的全切分获取连续单字符串功能。-Programs written in C# for the realization of the full Chinese word segmentation to obtain a continuous function of a single string.
  3. 所属分类:CSharp

    • 发布日期:2017-04-07
    • 文件大小:3862
    • 提供者:zhusd
  1. coreseek-4.1-beta.tar

    0下载:
  2. 基于Sphinx的中文版全文搜索引擎,加入了中文分词功能,全部源码,跨平台支持。-Chinese fulltext search engine base on Sphinx
  3. 所属分类:Other Databases

    • 发布日期:2017-05-26
    • 文件大小:9157146
    • 提供者:三角函数
  1. pp

    0下载:
  2. 基于机械分词的中文分词技术代码,使用最大概率法去歧义。词典很全。-Chinese word segmentation based on mechanical technology code word, using the maximum probability method to ambiguity. Dictionary is full.
  3. 所属分类:MultiLanguage

    • 发布日期:2017-04-02
    • 文件大小:32254
    • 提供者:刘谋鑫
  1. fenci

    0下载:
  2. 前向最大分词算法,翻译软件的最基本思想。用Java语言开发的程序。-Prior to the maximum segmentation algorithm, translation software, the basic idea. Java language programs.
  3. 所属分类:Java Develop

    • 发布日期:2017-04-13
    • 文件大小:1655
    • 提供者:白玉娇龙
  1. ICTCLAS50_Windows_32_JNI

    0下载:
  2. 中文分词的java代码实现,包含详细的使用方法。-Chinese Word of the java implementation
  3. 所属分类:Other windows programs

    • 发布日期:2017-05-26
    • 文件大小:9080282
    • 提供者:蔡佳鹏
  1. ICTCLAS-Example

    0下载:
  2. ICTCLAS的分词一个例子,可以使用的,放心大胆-an example of ICTCLAS,available
  3. 所属分类:CSharp

    • 发布日期:2017-03-30
    • 文件大小:2045
    • 提供者:王先生
« 1 2 ... 37 38 39 40 41 4243 44 45 46 47 ... 50 »
搜珍网 www.dssz.com