CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 搜索资源 - 分词程序

搜索资源列表

  1. ChineseWordsDemo

    0下载:
  2. LingPipe(开源自然语言处理的Java开源工具包) 中文分词java程序-LingPipe (open source natural language processing toolkit in Java open source) Chinese word segmentation procedure java
  3. 所属分类:Java Develop

    • 发布日期:2017-04-11
    • 文件大小:1213
    • 提供者:wjd
  1. fenci

    0下载:
  2. 自己下载一个语料库,根据程序,计算权重,然后对语料库进行分词-Download a corpus itself, according to the procedures for calculating the weights, and then carried out on sub-word corpus
  3. 所属分类:MultiLanguage

    • 发布日期:2017-05-07
    • 文件大小:1047358
    • 提供者:张国
  1. TDHCursorFactory

    0下载:
  2. 是一个使用Perl语言编写的一个开源文本挖掘的程序。其中涉及了众多文本挖掘的技术,如文本聚类、分词、索引,搜索引擎、字典等等。-Perl is a language to use an open source text mining process. Involving a large number of text mining technologies, such as text clustering, segmentation, indexing, search engines, dicti
  3. 所属分类:Search Engine

    • 发布日期:2017-03-31
    • 文件大小:395241
    • 提供者:wy
  1. paoding_analysis

    0下载:
  2. 这是一个lucene中文索引程序,采用paoding分词器,包括建立索引和搜索过程。-This is a Chinese lucene index procedure for the segmentation paoding, including indexing and search process.
  3. 所属分类:Java Develop

    • 发布日期:2017-05-12
    • 文件大小:2901493
    • 提供者:jamy
  1. CutwordShort

    0下载:
  2. 用于搜索引擎上的切词程序,可以获得比较好的分词结果。运行速度可以达到约500k词/s(笔记本上)-For the search engine on the segmentation procedure can be the result of a better word. Running speed of about 800k words/s (notebook)
  3. 所属分类:Search Engine

    • 发布日期:2017-04-08
    • 文件大小:877736
    • 提供者:梁国欢
  1. F2_6764

    1下载:
  2. 端点检测是指用数字处理技术来找出语音信号中的各种段落(如音素、音节、词素、词等)的始点和终点的位置。语音段起止端点检测是语音分析、语音合成和语音识别中的一个必要环节。传统的端点检测方法是从wav文件中获取语音采样,将其分帧并计算短时能量和过零率参数,然后进行端点检测。这种工作方式被称为离线处理方法 ,无法实现语音信号的实时处理,对于语音信号分析具有一定的局限性。本文通过开发ActiveX控件,在MATLAB环境下将其嵌入到figure窗口中,以GUI程序的方式使用,实现语音信号端点检测的实时处
  3. 所属分类:Speech/Voice recognition/combine

    • 发布日期:2017-03-26
    • 文件大小:30403
    • 提供者:cike
  1. Test Class By SVM

    2下载:
  2. 支持向量机实现的文本分类程序,过程如下,首先使用分词工具分词,这里使用的是计算所的分词工具,从而保证分词是最优秀的,接下来使用国际效率最高的文本IFIDF向量生成工具生成文本相量,最后使用台湾林智恒的效率最高的SVM实现软件包libsvm实现训练和分类,可以这么说,该文本分类是同类中效率最高最准确的-text classfication source code use 3 technology.words sementation,vector gerneration,and libsvm too
  3. 所属分类:中文信息处理

    • 发布日期:2013-08-07
    • 文件大小:18636809
    • 提供者:111111
  1. Wordseg

    0下载:
  2. 该程序是采用的java语言对测试文本进行中文分词-Chinese segmenter
  3. 所属分类:Java Develop

    • 发布日期:2017-04-01
    • 文件大小:2642
    • 提供者:caomengsi
  1. textcluster

    2下载:
  2. java文本聚类程序代码文件,实现文本聚类功能,分词。-text clustering java code files to achieve text clustering features, sub-word.
  3. 所属分类:Java Develop

    • 发布日期:2016-11-08
    • 文件大小:8705
    • 提供者:wang
  1. fenciqiusedic

    0下载:
  2. 用java写的分词器,可以利用此程序分析一段话中的单词,根据词典的不同,分析的结果也不同-Using java to write the word breaker, you can take advantage of this program analysis passage of the word, according to the dictionary is different from results of the analysis are also different
  3. 所属分类:Java Develop

    • 发布日期:2017-05-09
    • 文件大小:1838721
    • 提供者:付乾良
  1. luceneCH2

    0下载:
  2. 亲自测试成功的《开发自己的搜索引擎》第二章,以及一个分词器的测试程序。-Personally successfully tested a " to develop its own search engine" second chapter, as well as a word breaker testing procedures.
  3. 所属分类:Search Engine

    • 发布日期:2017-04-09
    • 文件大小:1278705
    • 提供者:dea
  1. u2.0

    0下载:
  2. 演示:http://u2.71116.com/ 下载:http://u2.71116.com/u2.0.rar 2.0更新 1.程序模板分离 2.网站自动截图 3.关键字分词加强 4.网站百度:收录 快照 谷歌:收录 PR每天更新缓存 5.站长工具 6.统计方式改进 7.部分数据缓存处理 安装说明: 配置好 /config.inc.php 建好相关数据库后 执行 /install.php 安装数据库 后台:admin.php
  3. 所属分类:Other systems

    • 发布日期:2017-03-27
    • 文件大小:589841
    • 提供者:htgg
  1. 11111111

    0下载:
  2. 从一段文章中分词,标注词出现的次数,程序短小精练,有利于学习使用,谢谢!-Carved from a piece of writing words, mark the number of times the word appears, the program short and concise, is conducive to learning to use, thank you!
  3. 所属分类:Windows Develop

    • 发布日期:2017-05-23
    • 文件大小:7259877
    • 提供者:li zhi
  1. fenci

    0下载:
  2. 帮组我们实现中文分词,程序较为粗糙,请见谅,-Help us to achieve Chinese word group, the program is more rough, please forgive me,
  3. 所属分类:Search Engine

    • 发布日期:2017-05-11
    • 文件大小:2598345
    • 提供者:罗成
  1. TokenizerTest2011

    0下载:
  2. C# 分词演示程序 TokenizerTest2011.rar
  3. 所属分类:Search Engine

    • 发布日期:2017-04-10
    • 文件大小:1010
    • 提供者:henry
  1. ngrams

    1下载:
  2. 自然语言处理相关程序,有关分词的和词频统计-Natural language processing procedures, the statistical segmentation and word frequency
  3. 所属分类:MultiLanguage

    • 发布日期:2017-05-18
    • 文件大小:4769666
    • 提供者:Marvin
  1. memrial

    0下载:
  2. 用java实现的一个类似于记事本的小程序。 实现功能添加记录、查询记录、修改记录、删除记录。无按钮,全由快捷键操作,这是根据本人的需求设置的。包含的技术,IK分词技术,lucence搜索技术,文件操作(容易修改为扩展为BDB轻量级数据库)-Use Java a similar to realize the notepad small programs.Functions added records, inquires the record, modify records, deleting
  3. 所属分类:Other windows programs

    • 发布日期:2017-05-16
    • 文件大小:4327866
    • 提供者:刘平浪
  1. Chinese_wordspliter

    0下载:
  2. 使用正向最大匹配法的中文分词器 分别读入待分词文本文件及字典文件后,将经处理后的结果输出至另一文件予以保存。所用待分词文件样例约有字符184万个,处理时间在11s左右。程序使用C++语言编写。-Using the forward maximum matching device of Chinese words segmentation, respectively, to be read into the text file and dictionary file, the result will
  3. 所属分类:MultiLanguage

    • 发布日期:2017-03-30
    • 文件大小:165800
    • 提供者:aptiva0985
  1. svmcls

    0下载:
  2. 基于KNN+SVM算法的文本分类器,附带权威的分词词库及算法,有界面,程序可正常使用-KNN+ SVM-based text classification algorithm, with the authority of the sub-word thesaurus and algorithm, a interface, the program can be used normally
  3. 所属分类:Windows Develop

    • 发布日期:2017-06-21
    • 文件大小:37651520
    • 提供者:talon
  1. boosting_src

    0下载:
  2. Boosting中的AdaBoost.M1算法在文本分类中的应用实现。使用ICTCLAS用于中文分词,弱分类器使用Naive Bayes。程序参数使用配置文件的格式。-Application of text classification using AdaBoost.M1. Use ICTCLAS tool in Chinese segment, and use Naive Bayes as the weak classifier. use the config file as the para
  3. 所属分类:Linux-Unix program

    • 发布日期:2017-05-16
    • 文件大小:4137477
    • 提供者:彭卫华
« 1 2 ... 6 7 8 9 10 1112 13 14 15 »
搜珍网 www.dssz.com