CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 搜索资源 - 分词

搜索资源列表

  1. IKAnalyzer2012

    0下载:
  2. IKAnalyzer中文分词器V2012使用手册-IKAnalyzer the Chinese word is V2012 user manual
  3. 所属分类:Java Develop

    • 发布日期:2017-11-22
    • 文件大小:2093221
    • 提供者:杨军
  1. test

    0下载:
  2. 计算句子的相似度,分为计算词形相似度和词序相似度。使用中科院提供的分词工具实现分词。-Calculate sentence similarity, divided into the calculation of word shape similarity and word order similarity. Use segmentation tools provided by the Chinese Academy of Sciences segmentation.
  3. 所属分类:Jsp/Servlet

    • 发布日期:2017-11-07
    • 文件大小:3016137
    • 提供者:赖全辉
  1. totsearch

    0下载:
  2. 淘特站内搜索引擎(C#版)基于Lucene.Net核心,通过高效的中文分词算法将数据库中内容进行分析、索引并保存至硬盘中。前台搜索时,通过读取索引文件查询,避免了传统数据库查询在高并发及海量数据下的性能问题。因前台搜索不在连接数据库,为不希望数据库放到前台的特殊用户群体提供了数据快速查询解决方案。 -Amoy special stations within the search engine (C# version) is based on Lucene.Net core through e
  3. 所属分类:.net

    • 发布日期:2017-12-06
    • 文件大小:2267109
    • 提供者:sdgd50898
  1. design-documents

    1下载:
  2. 网页信息采集子系统: 网页采集:动态查找及实时分析新增网页,读取网页回帖信息。 网页过滤:,对获取的网页,通过网页清洗模块清除网页中的广告、导航信息、 图片、版权说明等噪声数据,萃取出相关网页的标题、正文、链接地址、采集时 间、回帖、发帖人数等数据。 网页信息预处理子系统: 网页审查脏字:主要功能包括中文分词、词性标注、命名实体识别、新词识别, 建立数据库说明每类词库,建立敏感词词库。 网页舆情监测:监测是否出现了一定影响的舆论,即回帖的回帖或支持、顶等 达到
  3. 所属分类:software engineering

    • 发布日期:2017-11-08
    • 文件大小:641845
    • 提供者:黄生
  1. ChineseSegment

    0下载:
  2. 一个完整的中文分词程序,有源码,词典,训练集。算法简洁高效,准确率高。包含了一种将标注语料和词典融合的新型分词方法。将语料分割为2:1为训练集和测试集,加上一个外部词典,准确率可以达到95 。适合入门者学习。也适合需要一个简单分词工具的应用。-A Chinese word segmentation procedures, source, dictionary, the training set. The algorithm is simple and efficient, high accura
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-11-13
    • 文件大小:14581979
    • 提供者:张忠辉
  1. 35Improv-word-segment-

    0下载:
  2. 一种改进的中文分词歧义消除算法研究 做中文分词统计语言模型的参考资料-An improved Chinese word segmentation ambiguity elimination algorithm research Do the Chinese word segmentation statistical language model reference material
  3. 所属分类:software engineering

    • 发布日期:2017-11-22
    • 文件大小:592084
    • 提供者:王丽丽
  1. 666A-joint-decoding-segment

    0下载:
  2. 一种基于字词联合解码的中文分词方法 值得研究的学术论文-Papers segmentation method based on the joint decoding the words Chinese research
  3. 所属分类:software engineering

    • 发布日期:2017-11-19
    • 文件大小:670522
    • 提供者:王丽丽
  1. Jzu_File_so

    0下载:
  2. 详细介绍 军长搜索是一款基于 Microsoft .NET 2.0 开发的垂直搜索引擎,适用于 Windows 平台下的各种网站系统。系统有着强大的文件和数据库引索能力,支持中英文分词,文件相似度分析排序,文件数据时实监控与更新,恐龙级的引索速度和毫秒级的搜索速度,搜索结果高亮显示,无处不体现着她的强大与魅力。-The detail commander search is one based on the Microsoft NET 2.0 development of vertical s
  3. 所属分类:.net

    • 发布日期:2017-11-20
    • 文件大小:429959
    • 提供者:sfasfwqeqp
  1. IKAnalyzer2012

    0下载:
  2. IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。-IKAnalyzer is an open source, based on the the lightweight java language development of Chinese word Kit.
  3. 所属分类:Java Develop

    • 发布日期:2017-11-30
    • 文件大小:2083358
    • 提供者:akpudn007
  1. WordSegment

    0下载:
  2. 以MyEclipse为编程环境,实现自动汉语分词-MyEclipse is the programming environment, automatic Chinese word segmentation
  3. 所属分类:Jsp/Servlet

    • 发布日期:2017-11-06
    • 文件大小:18031
    • 提供者:milian
  1. WordsDividing

    0下载:
  2. 这是一个自己写的分词系统,主要用到的算法有最大前向匹配算法和最大熵。-This is a written word segmentation system, mainly used maximum forward matching algorithm and maximum entropy algorithm.
  3. 所属分类:Windows Develop

    • 发布日期:2017-11-19
    • 文件大小:3192658
    • 提供者:两院
  1. fencisuanfa

    0下载:
  2. 正逆向的分词算法 已经测试通过了 里面有完整的源码 和测试程序-Forward and reverse segmentation algorithm has been tested by the complete source code and testing procedures
  3. 所属分类:Other systems

    • 发布日期:2017-11-25
    • 文件大小:2581289
    • 提供者:唐金棲
  1. Chinese-WordCut

    0下载:
  2. 这是一个中文分词程序,读入一个Txt文档,可以对里面的段落进行分词-This is a Chinese word segmentation program that reads a Txt document segmentation paragraphs inside
  3. 所属分类:Data structs

    • 发布日期:2017-12-02
    • 文件大小:2431984
    • 提供者:菡菡
  1. 123897

    0下载:
  2. n_gram,分词算法,准确率很高 ,值得参考!--n_gram, segmentation algorithm, the accuracy rate is high, and worth considering!-
  3. 所属分类:CSharp

    • 发布日期:2017-11-23
    • 文件大小:630946
    • 提供者:cuit
  1. lucenepds

    0下载:
  2. lucene全文搜索:实现了分词 索引 查找三大核心模块-lucene text search: the segmentation index to find the three core modules
  3. 所属分类:software engineering

    • 发布日期:2017-12-06
    • 文件大小:2356230
    • 提供者:roman
  1. fenciPbeiyesi

    0下载:
  2. 第4界中兴捧月时做短信过滤使用的朴素贝叶斯方法的代码,主要是通过计算收到信息分别在收件箱的和垃圾箱的概率是多少来区分短信息所在置信区间。这里短信先经过了分词在算每个此条的概率。-Naive Bayesian method code, the 4th ZTE handful of months do SMS filtering using the received information by calculating how much to distinguish between short in
  3. 所属分类:Algorithm

    • 发布日期:2017-11-28
    • 文件大小:9580
    • 提供者:杨帆
  1. fencivc6

    0下载:
  2. 自己写的一个分词小程序,vc6下运行通过。-I write a word of small procedures, VC6 running through.
  3. 所属分类:Other windows programs

    • 发布日期:2017-11-24
    • 文件大小:13221975
    • 提供者:方宇
  1. CutWords

    0下载:
  2. 正向最大匹配实现的分词程序,有注释,清晰易懂-Positive maximum matching realize word segmentation procedure, have comments, transparent
  3. 所属分类:Java Develop

    • 发布日期:2017-11-18
    • 文件大小:982480
    • 提供者:shyboy
  1. Java-ICTCLAS

    0下载:
  2. java版中国科学院张华平博士的分词程序,开源java代码,仅供学习使用。国际评测很高,国内第一-java version of the Chinese Academy of Sciences, Dr. Zhang Huaping segmentation procedure, open source java code for educational purposes only. The international evaluation high, the first domestic
  3. 所属分类:Other systems

    • 发布日期:2017-11-15
    • 文件大小:2703698
    • 提供者:文虎
  1. ICTCLAS_Demo

    0下载:
  2. 该程序用于短信过滤分析,首先使用ICTCLAS分词系统对输入短信进行分词,接着使用贝叶斯算法分析训练模型。最后对测试集中的短信进行垃圾短信预测。由于短信涉及个人隐私,使用时请自行添加训练数据集和测试数据集-The procedures used for SMS filtering analysis, the first to use the segmentation the ICTCLAS segmentation system input SMS, then use a Bayesian al
  3. 所属分类:Java Develop

    • 发布日期:2017-12-03
    • 文件大小:3007046
    • 提供者:罗翊濠
« 1 2 ... 45 46 47 48 49 50»
搜珍网 www.dssz.com