CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 数值算法/人工智能 数学计算/工程计算 搜索资源 - 分词

搜索资源列表

  1. Bayes_1

    1下载:
  2. 首先,对CATEGORY中的txt文件分类; 其次,对多个txt文件中的英文文本进行分词; 最后,通过贝叶斯公式进行分类;-First, in the txt file CATEGORY classification Secondly, multiple txt files in English text word Finally, by Bayes formula to be classified
  3. 所属分类:Algorithm

    • 发布日期:2017-04-03
    • 文件大小:411491
    • 提供者:guangyu
  1. vb

    0下载:
  2. 连接数据库 分词 去除停用词 计算权重值-Connect to the database to remove stop words word weighted value
  3. 所属分类:Algorithm

    • 发布日期:2017-04-16
    • 文件大小:32360
    • 提供者:眭亚键
  1. chen

    0下载:
  2. 在非线性科学中,“混沌”这个词的含义和本意相似但又不完全一致,非线性科学中的混沌现象指的是一种确定的但不可预测的运动状态。它的外在表现和纯粹的随机运动很相似,即都不可预测。但和随机运动不同的是,混沌运动在动力学上是确定的,它的不可预测性是来源于运动的不稳定性。或者说混沌系统对无限小的初值变动和微绕也具于敏感性,无论多小的扰动在长时间以后,也会使系统彻底偏离原来的演化方向。混沌现象是自然界中的普遍现象,天气变化就是一个典型的混沌运动。混沌现象的一个著名表述就是蝴蝶效应:南美洲一只蝴蝶扇一扇翅膀,就
  3. 所属分类:Algorithm

    • 发布日期:2017-03-29
    • 文件大小:6920
    • 提供者:lemon
  1. fenciPbeiyesi

    0下载:
  2. 第4界中兴捧月时做短信过滤使用的朴素贝叶斯方法的代码,主要是通过计算收到信息分别在收件箱的和垃圾箱的概率是多少来区分短信息所在置信区间。这里短信先经过了分词在算每个此条的概率。-Naive Bayesian method code, the 4th ZTE handful of months do SMS filtering using the received information by calculating how much to distinguish between short in
  3. 所属分类:Algorithm

    • 发布日期:2017-11-28
    • 文件大小:9580
    • 提供者:杨帆
  1. FreeICTCLAS

    0下载:
  2. 对中文进行分词,c++实现多中文文本的分词算法-Using java prepared tf* idf results
  3. 所属分类:Algorithm

    • 发布日期:2017-05-13
    • 文件大小:2717670
    • 提供者:静静
  1. InformationGain

    0下载:
  2. 使用java实现的信息增益算法,附带了一些训练样本,已经进行了分词-Java algorithm using information gain realized, with some training samples have been carried out participle
  3. 所属分类:Algorithm

    • 发布日期:2017-04-07
    • 文件大小:58705
    • 提供者:helong
  1. pythonsample

    0下载:
  2. 自然语言处理的例子,可以实现分词和新词发现,中文预处理也支持。用python写的-Examples of natural language processing can be achieved segmentation and new words found Chinese pretreatment also supported. Written with python
  3. 所属分类:Algorithm

    • 发布日期:2017-05-30
    • 文件大小:12347364
    • 提供者:王锡爵
  1. Chinese-Word-Segmentation

    0下载:
  2. 很好的中文分词算法,详细介绍请解压后看注释。字典文件也要放在目录下。-Good Chinese word segmentation algorithm, detailed look after unzip comment. But also on the dictionary file directory.
  3. 所属分类:Algorithm

    • 发布日期:2017-05-09
    • 文件大小:1876986
    • 提供者:zyt
  1. HanLP-1.2.7

    0下载:
  2. HanLP是一个致力于向生产环境普及NLP技术的开源Java工具包,支持中文分词(N-最短路分词、CRF分词、索引分词、用户自定义词典、词性标注),命名实体识别(中国人名、音译人名、日本人名、地名、实体机构名识别),关键词提取,自动摘要,短语提取,拼音转换,简繁转换,文本推荐,依存句法分析(MaxEnt依存句法分析、神经网络依存句法分析)。-HanLP is a dedicated to popularize NLP technology to production environment of
  3. 所属分类:Algorithm

    • 发布日期:2017-06-14
    • 文件大小:22308798
    • 提供者:黄灿奕
  1. jieba

    0下载:
  2. 将句子分成很小的独立词,来提取信息,对照数据字典得到有用的关键信息,进行智能筛选题目或回答问题。(The sentence is divided into very small independent words to extract information, and the data dictionary is used to obtain useful key information.)
  3. 所属分类:数学计算

    • 发布日期:2018-01-02
    • 文件大小:1024
    • 提供者:京城阿祖
搜珍网 www.dssz.com