CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 数值算法/人工智能 搜索资源 - 分词

搜索资源列表

  1. 多种分词方法

    0下载:
  2. 含有多个分词算法。毕业设计的时候获得的,希望对大家在汉字处理中能用的到。 ICTCLAS算法,中科院,对名字识别能力很强。VC开发。 CSharp分词,向前匹配加向后最大匹配,C#开发,容易扩展。 小叮咚分词,由后向前最大匹配,C#开发。 xerdoc分词,基于ICTCLAS的Java版本分词。 文本分词词典,分词的词典,可以提供分词数据源。-containing more than Segmentation. Graduation was the time of hope
  3. 所属分类:人工智能/神经网络/遗传算法

    • 发布日期:2008-10-13
    • 文件大小:20833489
    • 提供者:阿瑟多幅
  1. 汉语分词

    0下载:
  2. 汉语分词系统,对中文语句进行识别,然后分词,是很好的自然语言理解的例子-Chinese word segmentation system, the Chinese phrase for identification, then Word, is a very good natural language understanding examples
  3. 所属分类:人工智能/神经网络/遗传算法

    • 发布日期:2008-10-13
    • 文件大小:2240540
    • 提供者:邬源
  1. 分词语料库

    2下载:
  2. 文本分词\分类的语料库
  3. 所属分类:数值算法/人工智能

  1. CSW50中文分词组件

    0下载:
  2. 非常经典的中文分词组件CSW50
  3. 所属分类:数值算法/人工智能

    • 发布日期:2008-11-27
    • 文件大小:3937644
    • 提供者:jedison
  1. FreeICTCLAS

    0下载:
  2. ictclas c++版源代码,适用于C++语言的学习和中文分词算法的研究。-ictclas c++ version of the source code for C++ language learning and Chinese word segmentation algorithm.
  3. 所属分类:Mathimatics-Numerical algorithms

    • 发布日期:2017-05-11
    • 文件大小:2657727
    • 提供者:gaowei
  1. worddivision

    0下载:
  2. 自己写的一个关于智能分词算法的文件. 对于想研究搜索引擎的朋友来说必不可少-a algorithm about word division
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-08
    • 文件大小:1752468
    • 提供者:zhangpan
  1. softwarecode

    0下载:
  2. 中文分词是中文信息处理中的重要环节,中文分词技术广泛应用于自动翻译、文本检索、语音识别、文本校对、人工智能以及搜索引擎技术等领域。中文分词算法的选择,中文词库的构建方式,词库中词条的完备性在很大程度上与中文分词系统性能紧密相关。-Chinese word segmentation in Chinese information processing is an important part of Chinese word segmentation technology is widely used
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-03-27
    • 文件大小:911314
    • 提供者:李东升
  1. NewsCluster

    0下载:
  2. 一个新闻聚类工具,其中包括了新闻采集、新闻分词与特征向量计算,新闻聚类,显示界面共4个组件-A news clustering tools, including news gathering, news Segmentation and feature vector computing, information clustering, display interface, a total of four components
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-27
    • 文件大小:9509072
    • 提供者:chensd
  1. WordPartation2

    0下载:
  2. 中文分词程序 利用最大匹配算法 支持GB2312编码格式的文件-Chinese word segmentation procedure using the maximum matching algorithm to support GB2312 encoding format of the file
  3. 所属分类:Mathimatics-Numerical algorithms

    • 发布日期:2017-04-03
    • 文件大小:199478
    • 提供者:CAlio
  1. GBKhash

    0下载:
  2. 利用了GBK编码的hash表,快速进行汉语分词的自然语言程序-Advantage of the GBK-encoded hash table, fast Chinese word segmentation of natural language program
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-13
    • 文件大小:1964
    • 提供者:海铭
  1. CWSS17.1.1.4

    0下载:
  2. 基于隐马尔科夫模型的中文分词系统,上交ieee专业大一作业,界面一般,主要用于学习,在此分享,注:开发环境python3.5(Based on Hidden Markov model of Chinese word segmentation system, on the IEEE professional freshman job, interface is common, mainly used for learning, in this share, note: development en
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2017-12-18
    • 文件大小:50023424
    • 提供者:Empty_Life
  1. RMM

    0下载:
  2. 逆向最大匹配算法实现分词,分词结果在另一个txt里呈现(Reverse maximum matching algorithm to achieve the word segmentation, word segmentation results in another TXT presentation)
  3. 所属分类:数值算法/人工智能

    • 发布日期:2017-12-31
    • 文件大小:12288
    • 提供者:lanlingzijue
  1. 24.HMM

    0下载:
  2. 通过hmm实现中文分词,并且能自动发现新词的功能(The Chinese word segmentation is realized by HMM, and the function of new words can be automatically found)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2017-12-31
    • 文件大小:30041088
    • 提供者:幻想达人
  1. 遗忘算法(词库生成、分词、词权重)演示程序

    0下载:
  2. 通过非主流的遗传算法进行关键词提取,分词的功能(Through the non mainstream genetic algorithm for keyword extraction, word segmentation function)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2017-12-31
    • 文件大小:37695488
    • 提供者:幻想达人
  1. segmentation

    0下载:
  2. 对文本进行分词,使用停用词表去除停用词,标点等。(segmentation, and deleting stop words and punctuations.)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2018-04-22
    • 文件大小:6144
    • 提供者:Nobody_knows
  1. ansj_seg-master

    0下载:
  2. 一个很好的中文分词工具,其中使用了CRF做词性标注以及新词发现(A good Chinese word segmentation tool, in which CRF is used for part of speech tagging and new word discovery.)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2018-04-22
    • 文件大小:25285632
    • 提供者:Xxxl
  1. 双向最大匹配.py

    0下载:
  2. 用双向最大匹配算法实现汉语分词。准确率颇高。(Two way maximum matching algorithm is used to realize Chinese word segmentation. The rate of accuracy is quite high.)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2018-04-30
    • 文件大小:1024
    • 提供者:feng4251
  1. jieba-jieba3k

    1下载:
  2. MATLAB 结巴分词的工具包,用于很多中文分词的模式识别代码程序,利用已有函数工具包提高工作效率,内有安装说明(MATLAB jieba toolkit, used for many Chinese word segmentation pattern recognition code programs, using existing function toolkits to improve work efficiency, with installation instructions)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2018-05-01
    • 文件大小:10193920
    • 提供者:啦丿啦
  1. CWS_LSTM-master

    1下载:
  2. 使用python实现的分词,使用长短期记忆神经网络。(Using Python to implement participle, use long term memory neural network.)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2021-02-16
    • 文件大小:54272
    • 提供者:HazzTry
  1. jieba分词.net源码

    0下载:
  2. 该项目是jieba分词组件的.net版本源码实现,生成的库可以使用,分词也较好
  3. 所属分类:人工智能/神经网络/遗传算法

« 12 3 4 5 6 7 8 »
搜珍网 www.dssz.com