CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 搜索资源 - 中文分词

搜索资源列表

  1. SogouT.mini.tar

    0下载:
  2. 百度搜索引擎具有响应速度快、查找结果准确全面、时效性强、无效链接少、符合中文语言特点和中国人使用习惯等优点。 1...这种方法只需对语料中的字组频度进行统计,不需要切分词典,因而又叫做无词典分词法或统计取词方法。但这种方法也有一定- IHTMLDocument3* pHTMLDoc3 HRESULT hr = m_pHTMLDocument2->QueryInterface(IID_IHTMLDocument3, (LPVOID*)&pHTMLDoc3)
  3. 所属分类:Search Engine

    • 发布日期:2017-03-29
    • 文件大小:62317
    • 提供者:xuhaifan
  1. class

    0下载:
  2. 中文文本分类可以对已经分好词的文本进行分类,先自己导入数据,用libsvm中的svm进行分类和预测,特征用tfidf算法,还利用卡方检验进行了特征选择,可自行设定阈值-text mining
  3. 所属分类:JavaScript

    • 发布日期:2017-05-25
    • 文件大小:8218442
    • 提供者:徐振敬
  1. PMl-IR

    0下载:
  2. Blog信息源和信息量的广泛增长给中文文本分类带来了新的挑战。本文提出了—种基于PMI—IR算法的四种情感分类方法来对Blog文本进行情感分类。该方法以情感词语为中心,通过搜索引擎返回的结果来计算文本 中的情感要素和背景情感词之问的点互信息值,从而对文本进行情感分类。该方法在国家语言资源监测与研究中心网络媒体语言分中-心2008年度的Blog语料和COAE2008的语料上分别进行了测试。与传统方法相比准确率和召回率都有了较大的提高。-Development ofBIog texts info
  3. 所属分类:software engineering

    • 发布日期:2017-05-03
    • 文件大小:677334
    • 提供者:guwei
  1. phpanalysis2.0.tar

    1下载:
  2. PHPAnalysis是目前广泛使用的中文分词类,使用反向匹配模式分词,因此兼容编码更广泛,现将其变量与常用函数详解如下: 一、比较重要的成员变量 $resultType = 1 生成的分词结果数据类型(1 为全部, 2为 词典词汇及单个中日韩简繁字符及英文, 3 为词典词汇及英文) 这个变量一般用 SetResultType( $rstype ) 这方法进行设置。 $notSplitLen =
  3. 所属分类:其他

    • 发布日期:2017-12-31
    • 文件大小:2915328
    • 提供者:MEISENN
  1. CRF++-0.54

    0下载:
  2. 该工具可以进行中文自然语言处理,辅助我们进行分词,词语标注开发工作。是目前最流行的自然语言处理工具。该工具基于判别式算法完成。(This tool can be used in Chinese natural language processing, which can help us to carry out word segmentation and label development work. It is the most popular natural language process
  3. 所属分类:

    • 发布日期:2018-01-06
    • 文件大小:468992
    • 提供者:我是大龙
  1. zh_lstm

    1下载:
  2. lstm做情感分类,中文,用到豆瓣影评,结巴分词,lstm模型,环境python3做编码处理。(lstm for sentiment analyse)
  3. 所属分类:其他

    • 发布日期:2018-01-08
    • 文件大小:2048
    • 提供者:小神仙
  1. 文本分类_监管处罚Rcode

    0下载:
  2. NLP分词,本代码可以用于切割中文关键词,实现信息归类(NLP participle, this code can be used to cut Chinese key words, the realization of information classification)
  3. 所属分类:matlab例程

    • 发布日期:2018-04-29
    • 文件大小:1024
    • 提供者:he-he
  1. text_classification_AI100-master

    0下载:
  2. 实现LSTM情感分析,中文,用到结巴分词,LSTM模型,环境python3.0(Achieve LSTM sentiment analysis, Chinese, use stuttering participle, LSTM model, environment python3.0)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2018-05-04
    • 文件大小:4885504
    • 提供者:而近乎于
  1. kmeans

    1下载:
  2. jieba分词将中文文本进行分词处理,将分词后的结果使用word2vec转化成词向量,使用kmeans将中文文本进行聚类(Jieba participle segmenting Chinese text, transforming the result of word segmentation into word vector using word2vec, and clustering Chinese text using kmeans.)
  3. 所属分类:matlab例程

    • 发布日期:2018-12-06
    • 文件大小:3072
    • 提供者:zxy0308
  1. 云网论坛

    1下载:
  2. 云网论坛CWBBS2.5相比2.4RC版变化很大,文章发布、网站群部署、论坛界面DIV+CSS等都有了很大的提高。 2.5更新如下: CMS 1、目录管理改进为ajax方式,防止刷新,操作更方便,并且避免树形节点较多时打开慢的问题 2、增加fckeditor中的中文字体 3、修改fckeditor分页符 4、一个文章能同时发至多个栏目,取消原来的专题功能 5、增加用户组登录和发贴排行 6、改造文章发布编辑器中的上传文件及falsh,使之能够显示上传进度,并同时上传多个文件 7
  3. 所属分类:JSP源码/Java

  1. lda

    1下载:
  2. 建立文本主题模型,中文结巴分词,一致性分数计算(lda model ,jieba,co score)
  3. 所属分类:文章/文档

    • 发布日期:2021-04-12
    • 文件大小:739328
    • 提供者:bubl
  1. 合工大自然语言处理报告代码

    6下载:
  2. 四、中文词法分析系统 1、实验要求 语料库:1998-01-2003版-带音.txt 要求:根据构建的单词词典和双词词典,用n-gram模型,或者前向最长匹配,或者后向最长匹配等算法,鼓励用更复杂一些的方法来进行,包括隐马尔科夫模型和条件随机场模型。 二、宋词自动生成 1、实验要求 语料库:ci.txt 要求:输入词牌,基于宋词的词典和宋词的词牌,可以随机或者按照语言模型,自动生成宋词。设计相应的Ui或者Web界面。 实现了隐马尔科夫模型分词
  3. 所属分类:人工智能/神经网络/遗传算法

« 1 2 ... 30 31 32 33 34 35»
搜珍网 www.dssz.com