CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 数值算法/人工智能 人工智能/神经网络/遗传算法 搜索资源 - word segmentation

搜索资源列表

  1. 汉语分词

    0下载:
  2. 汉语分词系统,对中文语句进行识别,然后分词,是很好的自然语言理解的例子-Chinese word segmentation system, the Chinese phrase for identification, then Word, is a very good natural language understanding examples
  3. 所属分类:人工智能/神经网络/遗传算法

    • 发布日期:2008-10-13
    • 文件大小:2.14mb
    • 提供者:邬源
  1. TextCategorization

    0下载:
  2. 基于朴素贝叶斯算法实现的中文文本分类程序。可以对中文文本进行分类识别,使用时先对分类器进行训练,然后进行识别。该Beta版本仅支持对3类文本进行分类,使用简单的中文分词方法,本程序尚不具备实用性,用于算法研究和改进。-based on Bayesian algorithms to achieve the Chinese text classification procedure. Can the Chinese text classification identification, the us
  3. 所属分类:人工智能/神经网络/遗传算法

    • 发布日期:2008-10-13
    • 文件大小:310.15kb
    • 提供者:钱磊
  1. word_segment

    0下载:
  2. 基于Java的全文文本檢測與分割 (word segmentation)-Java-based version of the transcr ipt detection and segmentation (word segmentation)
  3. 所属分类:人工智能/神经网络/遗传算法

    • 发布日期:2008-10-13
    • 文件大小:62kb
    • 提供者:Siu BB
  1. TestSeg

    0下载:
  2. Chinese Word segmentation
  3. 所属分类:人工智能/神经网络/遗传算法

    • 发布日期:2014-01-15
    • 文件大小:6.39mb
    • 提供者:呂俊宏
  1. WordSeg

    0下载:
  2. 利用最大匹配法进行汉语句子的分词 最大匹配算法是最常用的分词算法,简单实用正确率可达到80%以上-the maximum matching method for the Chinese Sentence Word maximum matching algorithm is the most commonly used word segmentation algorithm, simple and practical accuracy rate can reach more than 80%
  3. 所属分类:人工智能/神经网络/遗传算法

    • 发布日期:2008-10-13
    • 文件大小:72.47kb
    • 提供者:廖剑
  1. ProbWordSeg

    0下载:
  2. 最大概率分词法,这种分词算法能够较好的解决汉语分词中的歧义问题,但分词效率比最大匹配分词算法要低-greatest probability points accidence, Segmentation algorithm can be used to solve the Chinese word segmentation of Ambiguity, but Word efficient than the largest matching segmentation algorithm lower
  3. 所属分类:人工智能/神经网络/遗传算法

    • 发布日期:2008-10-13
    • 文件大小:85.69kb
    • 提供者:廖剑
  1. softwarecode

    0下载:
  2. 中文分词是中文信息处理中的重要环节,中文分词技术广泛应用于自动翻译、文本检索、语音识别、文本校对、人工智能以及搜索引擎技术等领域。中文分词算法的选择,中文词库的构建方式,词库中词条的完备性在很大程度上与中文分词系统性能紧密相关。-Chinese word segmentation in Chinese information processing is an important part of Chinese word segmentation technology is widely used
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-03-27
    • 文件大小:889.96kb
    • 提供者:李东升
  1. GBKhash

    0下载:
  2. 利用了GBK编码的hash表,快速进行汉语分词的自然语言程序-Advantage of the GBK-encoded hash table, fast Chinese word segmentation of natural language program
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-13
    • 文件大小:1.92kb
    • 提供者:海铭
  1. segChnWord

    0下载:
  2. 中文分词评测系统,用于评测中文分词的质量,给出准确率等-Chinese word segmentation evaluation system for evaluating the quality of Chinese word segmentation, given the accuracy of such
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-08
    • 文件大小:3.37kb
    • 提供者:miaoer
  1. ICTCLAS50_Windows_32_JNI

    0下载:
  2. 中科院开发的中文分词算法,带词性标注等,经典的一个算法-Chinese Academy of Sciences of the Chinese word segmentation algorithm developed, with part of speech tagging, etc., a classic algorithm
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-26
    • 文件大小:8.66mb
    • 提供者:吴东
  1. textcluster

    0下载:
  2. 实现中文分词并聚类输出,分词算法是自己写的以空格分词,如果有需要高级的分词算法可自己下载相关算法-Realization of the Chinese word segmentation and clustering output
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-08
    • 文件大小:27.65kb
    • 提供者:wangke
  1. chinese-analyzer

    0下载:
  2. 主要是对自然语言进行分析,支持中文分词。对中文进行识别-Natural language analysis, support for Chinese word segmentation. Identification of Chinese
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-28
    • 文件大小:10.43mb
    • 提供者:王萍
  1. CrfDeocder-windows-source

    0下载:
  2. 中文分词,利用条件随机场进行分词,里面有VC6写的和VC8写的两种。-Chinese word segmentation using conditional random field segmentation, which VC6 and VC8 write two.
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-12-05
    • 文件大小:2.27mb
    • 提供者:gongxinchen
  1. ChineseSegment

    0下载:
  2. 一个完整的中文分词程序,有源码,词典,训练集。算法简洁高效,准确率高。包含了一种将标注语料和词典融合的新型分词方法。将语料分割为2:1为训练集和测试集,加上一个外部词典,准确率可以达到95 。适合入门者学习。也适合需要一个简单分词工具的应用。-A Chinese word segmentation procedures, source, dictionary, the training set. The algorithm is simple and efficient, high accura
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-11-13
    • 文件大小:13.91mb
    • 提供者:张忠辉
  1. Text-Classification_libSVM

    0下载:
  2. 用seg进行分词 输入参数一:输入文本语料所在的文件夹路径。 如 文本文件语料都放在 train//text 文件夹下,则参数为:train//text//* 。 注意:必须每篇文章在一个txt文本中。 输入参数二:输入存储分词后的结果文件所在的文件夹路径:如:result//text。注意:不需要加* 本工具采用了中科院的中文分词工具,ICTCLAS,请自行到ICTCLAS官网下载该工具。并把Data文件夹,Configure.xml,ICTCLAS30.h,ICTCLAS3
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-11-06
    • 文件大小:4.03mb
    • 提供者:李勇军
  1. nlu_project

    0下载:
  2. 采用机器学习的方法进行自然语言处理,对中文进行分词和词性标注。分词采用crf模型,词性标注用hmm模型,解码算法为Vertibi算法。本系统使用java语言编写-Using machine learning methods for natural language processing, carried out on the Chinese word segmentation and POS tagging. Segmentation using crf model, tagging with
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-09
    • 文件大小:1.91mb
    • 提供者:lipeng
  1. GP

    0下载:
  2. 一个简单的中文分词系统,基于正向最大匹配算法和逆向最大匹配算法。-A simple Chinese word segmentation system, based on the forward and reverse maximum matching algorithm maximum matching algorithm.
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-06-03
    • 文件大小:14.57mb
    • 提供者:董旭
  1. AI

    0下载:
  2. 这是人工智能自然语言分析的基础,中文分词实现代码,适合于人工智能的初学者-This is the basis of analysis of the natural language of artificial intelligence, Chinese word segmentation implementation code, suitable for beginners of artificial intelligence
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-17
    • 文件大小:172.35kb
    • 提供者:俞梁华
  1. CWSS17.1.1.4

    0下载:
  2. 基于隐马尔科夫模型的中文分词系统,上交ieee专业大一作业,界面一般,主要用于学习,在此分享,注:开发环境python3.5(Based on Hidden Markov model of Chinese word segmentation system, on the IEEE professional freshman job, interface is common, mainly used for learning, in this share, note: development en
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2017-12-18
    • 文件大小:47.71mb
    • 提供者:Empty_Life
  1. 24.HMM

    0下载:
  2. 通过hmm实现中文分词,并且能自动发现新词的功能(The Chinese word segmentation is realized by HMM, and the function of new words can be automatically found)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2017-12-31
    • 文件大小:28.65mb
    • 提供者:幻想达人
« 12 »
搜珍网 www.dssz.com