CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 文档资料 搜索资源 - 分词算法

搜索资源列表

  1. yuer

    0下载:
  2. 前几天因为好久没发blog了,就拿我毕设中的一段算法凑数,没想到引起很多人的兴趣。因此就把我的分词算法单独拎出来做了一个项目叫作DartSplitter。暂时把分词算法的名称叫做树状词库分词法。 -days ago had not issued because of the blog, I took the completed section based algorithm to make up the numbers. never thought aroused the intere
  3. 所属分类:软件工程

    • 发布日期:2008-10-13
    • 文件大小:2661
    • 提供者:于明
  1. TreeCutWord

    0下载:
  2. 一套分词算法. 也是我的毕业设计的原型. 该分词算法,使分词速度达到2~8万/秒.而且没有使用线程.如果使用线程,速度可达几十万每秒以上
  3. 所属分类:软件工程

    • 发布日期:2008-10-13
    • 文件大小:59462
    • 提供者:王平
  1. zhongwenzidongfenciyanjiu

    0下载:
  2. 关于中文分词算法基本研究的介绍,综合的介绍了中文自动分词的原理及一般算法。
  3. 所属分类:软件工程

    • 发布日期:2008-10-13
    • 文件大小:479183
    • 提供者:赵蕾
  1. 中文分词技术及最新发展

    1下载:
  2. 搜索引擎通常由信息收集和信息检索两部分组成。对于英文,由于英文中词 与词之间是用空格隔开,检索起来很方便,故计算机采用了词处理的方式,大大 减轻了用户与计算机的工作量:相对来讲,中文的情形就复杂得多。中文的词与 词之间是没有分隔符的,因此若想建立基于词的索引,就需要专门的技术,这种 技术被称之为“汉语词语切分技术”。根据是否采用词语切分技术,中文搜索引 擎又可分为基于字的搜索引擎和基于词的搜索引擎。由于中文信息处理的特殊 性,开发中文搜索引擎决不像西文软件的汉化那样简单。在实
  3. 所属分类:文档资料

  1. 百度分词算法分析

    0下载:
  2. 百度分词算法
  3. 所属分类:文档资料

  1. zhishifencisuanfa

    0下载:
  2. 基于知识分词算法的病案全文检索系统, 硕士论文.-Knowledge-based segmentation algorithm cases full-text retrieval system, a master s thesis.
  3. 所属分类:File Formats

    • 发布日期:2017-05-12
    • 文件大小:2978537
    • 提供者:小段
  1. fenci_suanfa

    0下载:
  2. 分词算法,很强大
  3. 所属分类:Project Design

    • 发布日期:2017-04-25
    • 文件大小:66529
    • 提供者:franky kan
  1. ZuiDaPiPeiSuanFa

    0下载:
  2. 对一个字符串进行最大匹配法分词的算法,在VC环境下运行即可。-A string of maximum matching word segmentation algorithm can be run in the VC environment.
  3. 所属分类:File Formats

    • 发布日期:2017-03-30
    • 文件大小:5032
    • 提供者:yoen
  1. Segmenter

    0下载:
  2. 正向匹配正向最大分词算法,仅仅是个很初级的算法-Being the largest positive word matching algorithms
  3. 所属分类:software engineering

    • 发布日期:2017-04-07
    • 文件大小:790
    • 提供者:lengfeng
  1. File22

    0下载:
  2. 基于关键词的Web文档自动分类算法研究,文档关键词,语义相似度,聚类算法,知网,拓扑网络图,中文分词-Keyword-based Web Document Classification Algorithm, document keywords, semantic similarity, clustering algorithm, HowNet, topological network diagrams, Chinese word segmentation
  3. 所属分类:software engineering

    • 发布日期:2017-05-10
    • 文件大小:2123798
    • 提供者:王三
  1. acmfudaojiaocheng

    0下载:
  2. 问题规模化是近来信息学竞赛的一个新趋势,它意在通过扩大数据量来增加算法设计和编程实现的难度,这就向信息学竞赛的选手提出了更高层次的要求,本文试图探索一些解决此类问题的普遍性的策略。开始,本文给出了“规模化”一词的定义,并据此将其分为横向扩展和纵向扩展两种类型,分别进行论述。在探讨横向扩展问题的解决时本文是以谋划策略的“降维”思想为主要对象的;而重点讨论的是纵向扩展问题的解决,先提出了两种策略——分解法和精简法,然后结合一个具体例子研究“剪枝”在规模化问题中的应用。问题规模化是信息学竞赛向实际运用
  3. 所属分类:Development Research

    • 发布日期:2017-04-25
    • 文件大小:421848
    • 提供者:feiying
  1. 35Improv-word-segment-

    0下载:
  2. 一种改进的中文分词歧义消除算法研究 做中文分词统计语言模型的参考资料-An improved Chinese word segmentation ambiguity elimination algorithm research Do the Chinese word segmentation statistical language model reference material
  3. 所属分类:software engineering

    • 发布日期:2017-11-22
    • 文件大小:592084
    • 提供者:王丽丽
  1. fencizf

    0下载:
  2. 基于java编程,采用最大匹配算法实现简单的中文分词,并过滤停用词-The maximum matching algorithm based on java programming, simple Chinese word segmentation and filtering stop words
  3. 所属分类:software engineering

    • 发布日期:2017-11-13
    • 文件大小:736256
    • 提供者:赵飞
  1. java

    0下载:
  2. 用java实现的前向最大中文分词算法代码-Using java to achieve before the largest Chinese word segmentation algorithm code
  3. 所属分类:software engineering

    • 发布日期:2017-11-24
    • 文件大小:10272
    • 提供者:liukui
  1. wenbchongpaixu

    0下载:
  2. 这是具有文档间距离的文档重排序算法研究,中文信息处理基于应与与搜索引擎,实现文档的自动分词与索引。-This is the document reordering algorithm based on the distance between the document research, Chinese information processing technology, is used to search engines, to realize automatic document index
  3. 所属分类:File Formats

    • 发布日期:2017-04-24
    • 文件大小:199370
    • 提供者:张明
  1. suanfa

    0下载:
  2. 基于双向匹配法和特征选择算法的中文分词技术研究-Words in technology selection algorithm based on two-way matching and feature Chinese sub
  3. 所属分类:Project Design

    • 发布日期:2017-05-07
    • 文件大小:1453183
    • 提供者:qw
  1. PMl-IR

    0下载:
  2. Blog信息源和信息量的广泛增长给中文文本分类带来了新的挑战。本文提出了—种基于PMI—IR算法的四种情感分类方法来对Blog文本进行情感分类。该方法以情感词语为中心,通过搜索引擎返回的结果来计算文本 中的情感要素和背景情感词之问的点互信息值,从而对文本进行情感分类。该方法在国家语言资源监测与研究中心网络媒体语言分中-心2008年度的Blog语料和COAE2008的语料上分别进行了测试。与传统方法相比准确率和召回率都有了较大的提高。-Development ofBIog texts info
  3. 所属分类:software engineering

    • 发布日期:2017-05-03
    • 文件大小:677334
    • 提供者:guwei
  1. Chinese-word-segmentation

    0下载:
  2. 基于n-gram和机器学习的汉语分词算法 理论研究-Chinese word segmentation
  3. 所属分类:Development Research

    • 发布日期:2017-04-23
    • 文件大小:265522
    • 提供者:李钰
搜珍网 www.dssz.com