CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 搜索资源 - 分词算法

搜索资源列表

  1. acmfudaojiaocheng

    0下载:
  2. 问题规模化是近来信息学竞赛的一个新趋势,它意在通过扩大数据量来增加算法设计和编程实现的难度,这就向信息学竞赛的选手提出了更高层次的要求,本文试图探索一些解决此类问题的普遍性的策略。开始,本文给出了“规模化”一词的定义,并据此将其分为横向扩展和纵向扩展两种类型,分别进行论述。在探讨横向扩展问题的解决时本文是以谋划策略的“降维”思想为主要对象的;而重点讨论的是纵向扩展问题的解决,先提出了两种策略——分解法和精简法,然后结合一个具体例子研究“剪枝”在规模化问题中的应用。问题规模化是信息学竞赛向实际运用
  3. 所属分类:Development Research

    • 发布日期:2017-04-25
    • 文件大小:421848
    • 提供者:feiying
  1. dtw

    0下载:
  2. 用matlab实现特定人的单个词识别,采用dtw算法,主要用到了语音端点检测、语音分帧、梅尔倒谱系数等,文件中含有0-9个输入模版语音,作为参考模版信号。-Using matlab to achieve a specific person single word recognition, using dtw algorithm, mainly used in the voice activity detection, voice sub-frame, Mel Cepstral, etc., do
  3. 所属分类:matlab

    • 发布日期:2017-04-01
    • 文件大小:806560
    • 提供者:ruanxioafei
  1. class

    0下载:
  2. 中文文本分类可以对已经分好词的文本进行分类,先自己导入数据,用libsvm中的svm进行分类和预测,特征用tfidf算法,还利用卡方检验进行了特征选择,可自行设定阈值-text mining
  3. 所属分类:JavaScript

    • 发布日期:2017-05-25
    • 文件大小:8218442
    • 提供者:徐振敬
  1. cppjieba-master

    0下载:
  2. 中文分词功能,采用统计学习算法来实现,准确率较高-Chinese word function, using statistical learning algorithms to achieve high accuracy
  3. 所属分类:Data structs

    • 发布日期:2017-05-25
    • 文件大小:8361942
    • 提供者:liweiqing
  1. IKAnalyzer

    0下载:
  2. IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 -IKAnalyzer is an open source, lightweight java-based de
  3. 所属分类:Compress-Decompress algrithms

    • 发布日期:2017-05-09
    • 文件大小:1741741
    • 提供者:黄生
  1. WebPage

    0下载:
  2. 网页分析提取文本信息,网页分词,利用Trie树实现算法-Web analytics extract text, page segmentation, use of Trie tree algorithm
  3. 所属分类:GUI Develop

    • 发布日期:2017-05-11
    • 文件大小:2222099
    • 提供者:祁丹蕊
  1. Twitter-LDA-master

    0下载:
  2. twitter-LDA算法的JAVA实现,LDA算法针对于微博短文本的改进算法,目前只是简单的英文分词功能,没有中文分词功能,-twitter-LDA algorithm JAVA implementation, LDA algorithm for improved algorithm for short text microblogging, now just a simple English word function, there is no Chinese word function,
  3. 所属分类:Java Develop

    • 发布日期:2017-06-14
    • 文件大小:21889688
    • 提供者:张勇
  1. divide

    2下载:
  2. 采用正向最大匹配算法实现中文分词,基于matlab2013编程-MATLAB code
  3. 所属分类:数据结构常用算法

    • 发布日期:2017-04-26
    • 文件大小:619
    • 提供者:sun
  1. Divide

    0下载:
  2. 使用Java语言,用前向匹配算法与后向匹配算法实现中文分词- The use of Java language, with the forward matching algorithm to achieve the Chinese word segmentation
  3. 所属分类:Java Develop

    • 发布日期:2017-05-20
    • 文件大小:5243071
    • 提供者:张甲佳
  1. fenciledebeiyesi

    1下载:
  2. 中文文本分词系统+基于贝叶斯算法的文本分类源码,用matlab实现。-Chinese word segmentation system+ based on Bayes text classification source code, using matlab implementation.
  3. 所属分类:Data Mining

    • 发布日期:2017-05-05
    • 文件大小:16803
    • 提供者:刘伟
  1. 123

    0下载:
  2. 分词处理算法 自己写的一点小程序 仅供参考-Word segmentation algorithm to write their own small procedures for reference only
  3. 所属分类:Other windows programs

    • 发布日期:2017-05-05
    • 文件大小:16996
    • 提供者:霍春美
  1. Sogou-character-porfile

    0下载:
  2. 介绍人物标签处理的过程,从数据采集,分词,预处理,算法选择以及结果展示方面来介绍相关过程。-This paper introduces the process of character label processing, and introduces the process of data acquisition, word segmentation, preprocessing, algorithm selection and result display.
  3. 所属分类:Data Mining

    • 发布日期:2017-12-12
    • 文件大小:586154
    • 提供者:张陶
  1. matlab程序

    1下载:
  2. 用于计算中文分词的正向最大匹配算法、基于matlab语言的设计(Forward maximum matching algorithm for computing Chinese word segmentation.)
  3. 所属分类:Windows编程

    • 发布日期:2017-12-26
    • 文件大小:234496
    • 提供者:ly206452
  1. HanLP-1.3.4_20170616

    0下载:
  2. 目前流行的,中文分词核心软件包!可以实现多种算法的分词结果!(Chinese word segment package)
  3. 所属分类:其他

    • 发布日期:2017-12-31
    • 文件大小:9088000
    • 提供者:ZFNotes
  1. CRF++-0.54

    0下载:
  2. 该工具可以进行中文自然语言处理,辅助我们进行分词,词语标注开发工作。是目前最流行的自然语言处理工具。该工具基于判别式算法完成。(This tool can be used in Chinese natural language processing, which can help us to carry out word segmentation and label development work. It is the most popular natural language process
  3. 所属分类:

    • 发布日期:2018-01-06
    • 文件大小:468992
    • 提供者:我是大龙
  1. Alice

    0下载:
  2. 支持中文的alice,中文分词采用的是mmseg算法(alice with mmseg support chinese,need download mmseg4j.jar.)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2018-04-28
    • 文件大小:2290688
    • 提供者:亮亮1987
  1. DeepLearning

    0下载:
  2. 用于分词,深度学习算法,使用了RNN神经网络,可以进行参数设置(Used for participle, depth learning algorithm)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2018-04-28
    • 文件大小:846848
    • 提供者:good berry
  1. tfidf算法

    0下载:
  2. 简单计算文档中分好词的词TFIDF值,用于提取文章的关键词。(Simple calculation of TFIDF values used to extract Key words of articles)
  3. 所属分类:知识挖掘

    • 发布日期:2018-04-29
    • 文件大小:1024
    • 提供者:素素星星
  1. sensity-word-filter

    0下载:
  2. 敏感词过滤,使用dfa算法+ik分词实现敏感词过滤(UHFdtysgfdsadfasdfasfdasfasfdasfdsadfdahgfds)
  3. 所属分类:Java编程

    • 发布日期:2018-04-18
    • 文件大小:284672
    • 提供者:技术分享a
  1. 合工大自然语言处理报告代码

    6下载:
  2. 四、中文词法分析系统 1、实验要求 语料库:1998-01-2003版-带音.txt 要求:根据构建的单词词典和双词词典,用n-gram模型,或者前向最长匹配,或者后向最长匹配等算法,鼓励用更复杂一些的方法来进行,包括隐马尔科夫模型和条件随机场模型。 二、宋词自动生成 1、实验要求 语料库:ci.txt 要求:输入词牌,基于宋词的词典和宋词的词牌,可以随机或者按照语言模型,自动生成宋词。设计相应的Ui或者Web界面。 实现了隐马尔科夫模型分词
  3. 所属分类:人工智能/神经网络/遗传算法

« 1 2 ... 9 10 11 12 13 1415 »
搜珍网 www.dssz.com