CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 文档资料 搜索资源 - 分词

搜索资源列表

  1. chineseworkshop

    1下载:
  2. 分词字典,分词必用,包含更新功能,可更新词库,含21万词和专业词库
  3. 所属分类:软件工程

    • 发布日期:2014-01-18
    • 文件大小:4022606
    • 提供者:wzz
  1. baidu

    2下载:
  2. 中文信息处理的分词词库,百度分词词库,用于中文信息处理的词库分析和源程序链接
  3. 所属分类:软件工程

    • 发布日期:2008-10-13
    • 文件大小:416440
    • 提供者:张莉
  1. WeDataMine

    0下载:
  2. Web挖掘技术在搜索引擎中的应用与实现 介绍了PageRange , 结构挖掘器 , 页面分析器,中文分词等技术
  3. 所属分类:软件工程

    • 发布日期:2008-10-13
    • 文件大小:249861
    • 提供者:he
  1. collocation

    0下载:
  2. 关于中文中词语搭配的三篇论文,利用语义间的信息消解分词中的歧义问题,希望能给研究分词消歧的人一些帮助,谢谢!-English in about three words with the thesis, the use of semantic information between the digestion of segmentation ambiguity problem, hope that I can study the word of people Disambiguation some
  3. 所属分类:Project Manage

    • 发布日期:2017-04-04
    • 文件大小:523443
    • 提供者:崇丽岩
  1. Segmenter

    0下载:
  2. 正向匹配正向最大分词算法,仅仅是个很初级的算法-Being the largest positive word matching algorithms
  3. 所属分类:software engineering

    • 发布日期:2017-04-07
    • 文件大小:790
    • 提供者:lengfeng
  1. File22

    0下载:
  2. 基于关键词的Web文档自动分类算法研究,文档关键词,语义相似度,聚类算法,知网,拓扑网络图,中文分词-Keyword-based Web Document Classification Algorithm, document keywords, semantic similarity, clustering algorithm, HowNet, topological network diagrams, Chinese word segmentation
  3. 所属分类:software engineering

    • 发布日期:2017-05-10
    • 文件大小:2123798
    • 提供者:王三
  1. 40W

    1下载:
  2. 40万汉语大词库,里面包含了常用的汉语词组,可以直接用于自然语言开发分词处理-40 million Chinese large vocabulary, which contains a common Chinese phrase, can be directly used for developing natural language processing segmentation
  3. 所属分类:Development Research

    • 发布日期:2016-01-25
    • 文件大小:370688
    • 提供者:asdsad
  1. Web-Chinese

    0下载:
  2. 中文自动分词技术是中文 Web信息处理的基础。文中以最大匹配法(MM)为基础 ,充分 考虑上下文(MMC) ,在内存中采用二分法进行分词匹配 ,有效地提高了分词的准确率和时效。-Chinese automatic segmentation technology is Chinese Web information processing foundation. The maximal matching method (MM) as the foundation, fully Conside
  3. 所属分类:Project Design

    • 发布日期:2017-03-31
    • 文件大小:226721
    • 提供者:yuna
  1. divcns

    0下载:
  2. 分词实现简单中文最新修正版 分词实现简单中文最新修正版-the realization of simple Chinese word segmentation
  3. 所属分类:File Formats

    • 发布日期:2017-04-05
    • 文件大小:269048
    • 提供者:蓝天云
  1. Chinese-Lexical-Analysis

    0下载:
  2. 一种基于层叠隐马模型的汉语词法分析方法,旨在将汉语分词、词性标注、切分排歧和未登录词识别集成到一个完整的理论框架中.-An approach for Chinese 1exical analysis using cascaded hidden Markav model, which aims to incorporate segmentation, part-of-speech tagging, disambiguation and unknown words recognition int
  3. 所属分类:software engineering

    • 发布日期:2017-04-02
    • 文件大小:768743
    • 提供者:王辉
  1. ICTCLAS

    0下载:
  2. ICTClAS分词系统是由中科院计算所的张华平、刘群所开发的一套获得广泛好评的分词系统,难能可贵的是该版的Free版开放了源代码,该文档是对ICTClAS分词系统的详细介绍。-ICTClAS segmentation system by the Hua-Ping Zhang from the Chinese Academy of Sciences, received wide acclaim Qun developed a word segmentation system, it is valu
  3. 所属分类:software engineering

    • 发布日期:2017-04-01
    • 文件大小:376420
    • 提供者:xyh
  1. dat

    0下载:
  2. 中文分词查找关键词结果,抽取新词的结果,如果效果好的话我就上传源码让大家使用-result of extract new word
  3. 所属分类:Software Testing

    • 发布日期:2017-11-21
    • 文件大小:1555
    • 提供者:章磊
  1. HMM

    0下载:
  2. HMM的初步学习资料。HMM对于自然语言的研究尤其是中文分词有非常重要的意义。-HMM preliminary learning materials. HMM is the Chinese word for the study of natural language has a very important significance.
  3. 所属分类:Project Manage

    • 发布日期:2017-11-16
    • 文件大小:7143605
    • 提供者:liliudan
  1. design-documents

    1下载:
  2. 网页信息采集子系统: 网页采集:动态查找及实时分析新增网页,读取网页回帖信息。 网页过滤:,对获取的网页,通过网页清洗模块清除网页中的广告、导航信息、 图片、版权说明等噪声数据,萃取出相关网页的标题、正文、链接地址、采集时 间、回帖、发帖人数等数据。 网页信息预处理子系统: 网页审查脏字:主要功能包括中文分词、词性标注、命名实体识别、新词识别, 建立数据库说明每类词库,建立敏感词词库。 网页舆情监测:监测是否出现了一定影响的舆论,即回帖的回帖或支持、顶等 达到
  3. 所属分类:software engineering

    • 发布日期:2017-11-08
    • 文件大小:641845
    • 提供者:黄生
  1. 35Improv-word-segment-

    0下载:
  2. 一种改进的中文分词歧义消除算法研究 做中文分词统计语言模型的参考资料-An improved Chinese word segmentation ambiguity elimination algorithm research Do the Chinese word segmentation statistical language model reference material
  3. 所属分类:software engineering

    • 发布日期:2017-11-22
    • 文件大小:592084
    • 提供者:王丽丽
  1. 666A-joint-decoding-segment

    0下载:
  2. 一种基于字词联合解码的中文分词方法 值得研究的学术论文-Papers segmentation method based on the joint decoding the words Chinese research
  3. 所属分类:software engineering

    • 发布日期:2017-11-19
    • 文件大小:670522
    • 提供者:王丽丽
  1. lucenepds

    0下载:
  2. lucene全文搜索:实现了分词 索引 查找三大核心模块-lucene text search: the segmentation index to find the three core modules
  3. 所属分类:software engineering

    • 发布日期:2017-12-06
    • 文件大小:2356230
    • 提供者:roman
  1. fencizf

    0下载:
  2. 基于java编程,采用最大匹配算法实现简单的中文分词,并过滤停用词-The maximum matching algorithm based on java programming, simple Chinese word segmentation and filtering stop words
  3. 所属分类:software engineering

    • 发布日期:2017-11-13
    • 文件大小:736256
    • 提供者:赵飞
  1. interest-profile-anonymization

    0下载:
  2. 本系统通技术运用主要采用Servlet实现,前台页面使用jsp技术,首先接受所要处理的数据集以及参数设置,对用户的搜索内容进行分词、去除停用词,形成用户的兴趣模型;进行用户兴趣模型匿名化:从用户兴趣模型集中选取模型,计算该模型与所有等价组模型的相似性以及计算该模型与其他所有模型的相似性,根据相似性的大小进行聚合成等价组,然后再计算各自兴趣模型的权值,以达到用户兴趣模型的匿名化以及权值的平衡,然后提交到后台进行匿名化操作,最后返回匿名化结果。-The system through the use
  3. 所属分类:File Formats

    • 发布日期:2017-12-06
    • 文件大小:277899
    • 提供者:Edward
  1. java

    0下载:
  2. 用java实现的前向最大中文分词算法代码-Using java to achieve before the largest Chinese word segmentation algorithm code
  3. 所属分类:software engineering

    • 发布日期:2017-11-24
    • 文件大小:10272
    • 提供者:liukui
« 1 23 »
搜珍网 www.dssz.com