CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 数值算法/人工智能 搜索资源 - 分词

搜索资源列表

  1. THULAC_lite_java_v1

    0下载:
  2. 中文文本分词 词频统计,分词,去掉停词。 仅支持UTF-8编码-Chinese text segmentation To get the word frequency, word segmentation, remove stop words. Support only UTF-8 encoding
  3. 所属分类:Mathimatics-Numerical algorithms

    • 发布日期:2017-05-04
    • 文件大小:473812
    • 提供者:Sharon
  1. NLPLibSVM

    0下载:
  2. libsvm分词训练集的java版本。包括libsvm.jar以及训练集样本-Libsvm version of the Java word segmentation training set. Including libsvm.jar and training set samples
  3. 所属分类:Data Mining

    • 发布日期:2017-05-06
    • 文件大小:767045
    • 提供者:Sharon
  1. ICTCLAS

    0下载:
  2. 中科院的中文分词系统ICTCLAS,eclipse直接引入项目就可以用,已经测试过很好用的。- Chinese Academy of Sciences Chinese word breaker ICTCLAS, eclipse introduced directly into the project can be used, it has been tested very good use.
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-25
    • 文件大小:8677428
    • 提供者:王刚
  1. divide

    2下载:
  2. 采用正向最大匹配算法实现中文分词,基于matlab2013编程-MATLAB code
  3. 所属分类:数据结构常用算法

    • 发布日期:2017-04-26
    • 文件大小:619
    • 提供者:sun
  1. ICTCLAS_api

    0下载:
  2. 用于为指定文本进行分词操作。按照不同的词性进行分词。-Used to specify the text for the operation of word segmentation. According to different parts of speech.
  3. 所属分类:Data Mining

    • 发布日期:2017-05-13
    • 文件大小:2999387
    • 提供者:sunlin
  1. kmeansClassifier

    0下载:
  2. 该程序实现了keans分类,使用IK分词技术实现分词。-The program implements the k means classification, the use of IK word segmentation technology to achieve word segmentation.
  3. 所属分类:Data Mining

    • 发布日期:2017-05-19
    • 文件大小:5029682
    • 提供者:yuyan
  1. fenciledebeiyesi

    1下载:
  2. 中文文本分词系统+基于贝叶斯算法的文本分类源码,用matlab实现。-Chinese word segmentation system+ based on Bayes text classification source code, using matlab implementation.
  3. 所属分类:Data Mining

    • 发布日期:2017-05-05
    • 文件大小:16803
    • 提供者:刘伟
  1. NLP-speech-tagging

    0下载:
  2. 基于隐马尔可夫模型的中文分词、词性标注、命名实体识别-Based on Chinese word hidden Markov model, speech tagging, named entity recognition
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-05
    • 文件大小:73064
    • 提供者:Orange
  1. Sogou-character-porfile

    0下载:
  2. 介绍人物标签处理的过程,从数据采集,分词,预处理,算法选择以及结果展示方面来介绍相关过程。-This paper introduces the process of character label processing, and introduces the process of data acquisition, word segmentation, preprocessing, algorithm selection and result display.
  3. 所属分类:Data Mining

    • 发布日期:2017-12-12
    • 文件大小:586154
    • 提供者:张陶
  1. 2_simplifyweibo

    0下载:
  2. 20万情感语料 已经分词了 20万情感语料 已经分词了-200 thousand, the emotional corpus has been participle
  3. 所属分类:Big Data

    • 发布日期:2017-12-18
    • 文件大小:6825984
    • 提供者:kirotoa
  1. jieba for Python

    0下载:
  2. jieba分词功能在python中的实现方法(The Method of jieba for word-split in python)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2017-12-28
    • 文件大小:24576
    • 提供者:老顾
  1. jieba

    0下载:
  2. 将句子分成很小的独立词,来提取信息,对照数据字典得到有用的关键信息,进行智能筛选题目或回答问题。(The sentence is divided into very small independent words to extract information, and the data dictionary is used to obtain useful key information.)
  3. 所属分类:数学计算

    • 发布日期:2018-01-02
    • 文件大小:1024
    • 提供者:京城阿祖
  1. 3130383

    0下载:
  2. 最大概率分词法,这种分词算法能够较好的解决汉语分词中的歧义问题,但分词效率比最大匹配分词算法要低()
  3. 所属分类:数值算法/人工智能

    • 发布日期:2018-01-07
    • 文件大小:67584
    • 提供者:Gustavy
  1. 9178839

    0下载:
  2. 汉语分词算法,包含最大匹配和基于概率的分词算法()
  3. 所属分类:大数据

    • 发布日期:2018-01-07
    • 文件大小:43008
    • 提供者:Eclis
  1. kctp

    0下载:
  2. 此代码实现数据的预处理,包括分词、去符号、去停用词等。(This code realizes the preprocessing of data, including participle, symbol, stop words, etc.)
  3. 所属分类:数据挖掘

    • 发布日期:2018-04-20
    • 文件大小:175104
    • 提供者:zm29657900
  1. textclustering-master

    0下载:
  2. 对于大文本进行挖掘聚类,该方法不考虑文字词语出现的频率信息,考虑上下文语境,将所有的字根据预定义的特征进行词位特征学习,获得一个训练模型。然后对待分字符串的每一个字进行词位标注,最后根据词位定义获得最终的分词结果。(Digging for large text clustering, the method does not consider the text word frequency of information, considering the context, all the words
  3. 所属分类:数据挖掘

    • 发布日期:2018-04-21
    • 文件大小:15491072
    • 提供者:富贵再三123
  1. Alice

    0下载:
  2. 支持中文的alice,中文分词采用的是mmseg算法(alice with mmseg support chinese,need download mmseg4j.jar.)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2018-04-28
    • 文件大小:2290688
    • 提供者:亮亮1987
  1. DeepLearning

    0下载:
  2. 用于分词,深度学习算法,使用了RNN神经网络,可以进行参数设置(Used for participle, depth learning algorithm)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2018-04-28
    • 文件大小:846848
    • 提供者:good berry
  1. 文本分类_监管处罚Rcode

    0下载:
  2. NLP分词,本代码可以用于切割中文关键词,实现信息归类(NLP participle, this code can be used to cut Chinese key words, the realization of information classification)
  3. 所属分类:matlab例程

    • 发布日期:2018-04-29
    • 文件大小:1024
    • 提供者:he-he
  1. text_classification_AI100-master

    0下载:
  2. 实现LSTM情感分析,中文,用到结巴分词,LSTM模型,环境python3.0(Achieve LSTM sentiment analysis, Chinese, use stuttering participle, LSTM model, environment python3.0)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2018-05-04
    • 文件大小:4885504
    • 提供者:而近乎于
« 1 2 3 4 5 6 78 »
搜珍网 www.dssz.com