CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 搜索资源 - 分词算法

搜索资源列表

  1. CDevideSentence

    0下载:
  2. 用c++写的分词算法,简单,实用,详情看里面的帮助文件!-using c + + to write the sub-term algorithm is simple, practical, inside look at the details of the help files!
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:91579
    • 提供者:徐科
  1. segmentor_Perl

    0下载:
  2. 中文分词算法。Perl语言编写。wordlist.txt为词库。-Chinese Segmentation. Perl language. Wordlist.txt for the thesaurus.
  3. 所属分类:人工智能/神经网络/遗传算法

    • 发布日期:2008-10-13
    • 文件大小:366941
    • 提供者:kevinmou
  1. findkey.c

    0下载:
  2. 此程序解决的问题:较好的, 并适应短字符串的中文分词算法.根据词库 发现以换行符分隔的众多标题中的 top N 关键字并以此更新词库.是一个分类分词算法 -this procedure to solve the problem : better, and adapt to the short string of Chinese Segmentation. According thesaurus found in the many separate newline heading the to
  3. 所属分类:数值算法/人工智能

    • 发布日期:2008-10-13
    • 文件大小:8751
    • 提供者:刘红周
  1. SQLET_split

    0下载:
  2. SQLET分词算法,一个C程序,供大家参考。-SQLET segmentation algorithm, a C program, for your reference.
  3. 所属分类:其它

    • 发布日期:2008-10-13
    • 文件大小:779251
    • 提供者:白乔
  1. SegmentRAM

    0下载:
  2. 1.基于luncene倒排索引格式的高性能索引数据访问接口。 2. 实现若干中文分词的的分词算法。-1. Based on luncene inverted index format of high-performance data access interface Index. 2. A number of Chinese word segmentation algorithm of.
  3. 所属分类:其它

    • 发布日期:2008-10-13
    • 文件大小:5045029
    • 提供者:陈厚道
  1. lunce-splitword

    0下载:
  2. 一个运用于lunce中的中文分词算法源码,与大家共享-a lunce applied to the Chinese word segmentation algorithm source code and share
  3. 所属分类:Windows编程

    • 发布日期:2008-10-13
    • 文件大小:3745
    • 提供者:彭昱
  1. ShootSearch_path_for_bate_1.0

    0下载:
  2. 一段关于中文信息分类的分词算法,他实现了信息过滤中的分词,为信息过滤的分类打下基础-section on the classification of information in Chinese word segmentation algorithm, he realized the information filtering the word, Information filtering to lay the foundation for the classification
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:298435
    • 提供者:朱振方
  1. yuer

    0下载:
  2. 前几天因为好久没发blog了,就拿我毕设中的一段算法凑数,没想到引起很多人的兴趣。因此就把我的分词算法单独拎出来做了一个项目叫作DartSplitter。暂时把分词算法的名称叫做树状词库分词法。 -days ago had not issued because of the blog, I took the completed section based algorithm to make up the numbers. never thought aroused the intere
  3. 所属分类:软件工程

    • 发布日期:2008-10-13
    • 文件大小:2661
    • 提供者:于明
  1. SW-I

    0下载:
  2. 汉语分词算法,包含最大匹配和基于概率的分词算法-Chinese word segmentation algorithm, and contains the largest matching probability - based segmentation algorithm
  3. 所属分类:Windows编程

    • 发布日期:2008-10-13
    • 文件大小:54342
    • 提供者:godtroop
  1. ont_language

    0下载:
  2. 分词算法的基础,事做搜索引擎的关键,好东西啊
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:1089306
    • 提供者:zhuxingyin
  1. zdfc

    0下载:
  2. 对中文语句进行分词的一个源码,利用正向匹配算法进行处理-Statements for the Chinese word for a source
  3. 所属分类:CSharp

    • 发布日期:2017-04-01
    • 文件大小:300962
    • 提供者:小松
  1. Dictory

    1下载:
  2. 用B-树作为查找存储结构,对中文单词进行哈希,用最长逆向匹配算法进行中文句段分词,实现中文词典以及分词。中文词典规模为十万八千多词汇。分词的正确率在90 以上。-Use the B-tree as storage structure , and hash the Chinese word while storing or searching. Use the longest reverse matching algorithm to split Chinese sentence to word
  3. 所属分类:MultiLanguage

    • 发布日期:2014-12-28
    • 文件大小:798764
    • 提供者:康维鹏
  1. WordPartation2

    0下载:
  2. 中文分词程序 利用最大匹配算法 支持GB2312编码格式的文件-Chinese word segmentation procedure using the maximum matching algorithm to support GB2312 encoding format of the file
  3. 所属分类:Mathimatics-Numerical algorithms

    • 发布日期:2017-04-03
    • 文件大小:199478
    • 提供者:CAlio
  1. keyTermExtraction

    0下载:
  2. 实现了自动分词的功能,以及信息抽取的额功能,非常重要的算法。-Realize the function of automatic segmentation and information extraction of the amount of features, very important algorithms.
  3. 所属分类:Java Develop

    • 发布日期:2017-05-18
    • 文件大小:4982056
    • 提供者:祝美莲
  1. RMM

    0下载:
  2. 逆向最大匹配算法实现分词,分词结果在另一个txt里呈现(Reverse maximum matching algorithm to achieve the word segmentation, word segmentation results in another TXT presentation)
  3. 所属分类:数值算法/人工智能

    • 发布日期:2017-12-31
    • 文件大小:12288
    • 提供者:lanlingzijue
  1. 3130383

    0下载:
  2. 最大概率分词法,这种分词算法能够较好的解决汉语分词中的歧义问题,但分词效率比最大匹配分词算法要低()
  3. 所属分类:数值算法/人工智能

    • 发布日期:2018-01-07
    • 文件大小:67584
    • 提供者:Gustavy
  1. ngram模型分词与统计算法

    0下载:
  2. N-Gram(有时也称为N元模型)是自然语言处理中一个非常重要的概念,通常在NLP中,人们基于一定的语料库,可以利用N-Gram来预计或者评估一个句子是否合理。另外一方面,N-Gram的另外一个作用是用来评估两个字符串之间的差异程度。这是模糊匹配中常用的一种手段。本文将从此开始,进而向读者展示N-Gram在自然语言处理中的各种powerful的应用。(N-Gram (sometimes referred to as N metamodel) is a very important concept
  3. 所属分类:其他

    • 发布日期:2018-01-07
    • 文件大小:28672
    • 提供者:天云之剑
  1. 双向最大匹配.py

    0下载:
  2. 用双向最大匹配算法实现汉语分词。准确率颇高。(Two way maximum matching algorithm is used to realize Chinese word segmentation. The rate of accuracy is quite high.)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2018-04-30
    • 文件大小:1024
    • 提供者:feng4251
  1. HMM-master

    1下载:
  2. 隐马尔科夫模型进行中文分词 模型训练 python HMM_train.py RenMinData.txt_utf8 RenMinData.RenMinData_utf8 为人民日报已经人工分词的预料。 生成三个文件 * prob_start.py 为模型的初始概率 * prob_trans.py 为模型状态转移概率 * prob_emit.py 为发射概率 测试模型效果 python HMM.py reference 维特比算法:(python
  3. 所属分类:其他

    • 发布日期:2020-02-16
    • 文件大小:6432768
    • 提供者:nino123456
  1. chatbot

    2下载:
  2. 聊天机器人 原理: 严谨的说叫 ”基于深度学习的开放域生成对话模型“,框架为Keras(Tensorflow的高层包装),方案为主流的RNN(循环神经网络)的变种LSTM(长短期记忆网络)+seq2seq(序列到序列模型),外加算法Attention Mechanism(注意力机制),分词工具为jieba,UI为Tkinter,基于”青云“语料(10万+闲聊对话)训练。 运行环境:python3.6以上,Tensorflow,pandas,numpy,jieba。(Chat Robot
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2021-03-23
    • 文件大小:57974784
    • 提供者:白子画灬
« 1 2 34 5 6 7 8 9 10 ... 15 »
搜珍网 www.dssz.com