CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 搜索资源 - 分词算法

搜索资源列表

  1. ktdictseg_v1.0.01

    0下载:
  2. 一个关于分词源码,分词效率较高。算法简单实用。
  3. 所属分类:系统编程

    • 发布日期:2008-10-13
    • 文件大小:37387
    • 提供者:程军
  1. IKAnalyzer

    0下载:
  2. IKAnalyzer是中文分词工具,基于lucene2.0版本API开发,实现了以词典分词为基础的正反向全切分算法,是Lucene Analyzer接口的实现,这个是.Net版本,含有源代码
  3. 所属分类:.net编程

    • 发布日期:2008-10-13
    • 文件大小:1905346
    • 提供者:Jingtian Jiang
  1. ProbWordSeg

    0下载:
  2. 最大概率分词法.中文信息处理方面的一个源码。此为一个分词软件,这个分词的算法虽然简单,但是原理和其他相同,是最大概率法分次。功能强大,代码简洁易懂
  3. 所属分类:界面编程

    • 发布日期:2008-10-13
    • 文件大小:3505353
    • 提供者:李雅芳
  1. cidian

    0下载:
  2. 基于最大匹配算法的的中文分词组件,达到很好的分词准确率
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:31957
    • 提供者:大宝
  1. bogofilter-0.93.4.tar

    0下载:
  2. 开源项目BOGOFILTER的源码.该项目实现BAYES文本分类算法,不过该源码只支持英文的分词
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:831874
    • 提供者:zhou
  1. Qiyi

    0下载:
  2. 最大概率法分词的数据结构与算法,用这样的方法分词可以提高分词中歧义词的辨别率,非常经典啊-greatest probability - term data structure and algorithm, this approach can increase Word word-of ambiguous words in the identification rate, very classic ah
  3. 所属分类:中文信息处理

    • 发布日期:2008-10-13
    • 文件大小:1165
    • 提供者:月月
  1. EasyXSpider

    2下载:
  2. EasyXSpider不仅仅是一个简单的Linux下的爬虫程序。更包括了,索引制作,检索,分词(英文及中文二元法切词),以及Google PageRank算法和CGI查询界面的实现。可以看做是一个完整的小型搜索引擎。
  3. 所属分类:搜索引擎

    • 发布日期:2009-06-12
    • 文件大小:4149505
    • 提供者:shootsoft
  1. 中文网页自动分类器

    1下载:
  2. 利用knn算法实现了一个中文网页自动分类器, 包括网页预处理,ictclas中文分词,基于tf-idf的文本特征表示,基于df的特征选取和基于knn的分类算法,最后通过struts2框架web发布
  3. 所属分类:源码下载

  1. SentenceSimilar.rar

    0下载:
  2. 先对句子分词,然后根据词来比较句子的相似度,这个算法清晰易懂,欢迎下载!,The first word of the sentence, and then to compare the sentence the word similarity, this algorithm is clear and easy to understand, welcome to download!
  3. 所属分类:MultiLanguage

    • 发布日期:2017-06-17
    • 文件大小:27302095
    • 提供者:xumancheer
  1. IKAnalyzer3.2.8-bin

    0下载:
  2. IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出 了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为 面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 -IKAnalyzer is an open source, java based development o
  3. 所属分类:Java Develop

    • 发布日期:2017-04-09
    • 文件大小:2074366
    • 提供者:wuwenyan
  1. Chinese-Word-Segment-And-POS-Tagger

    1下载:
  2. 实现了中文分词和词性标注程序。分词方法采用“三词正向最长匹配”。词性标注使用HMM方法,用Viterbi算法实现。“三词正向最长匹配”保持了“正向最长匹配算法”快速的特点,同时提高了分词的准确性。-Chinese word segmentation and implemented procedures for POS tagging. Segmentation Methods, " the longest three-match positive words." POS tag
  3. 所属分类:Speech/Voice recognition/combine

    • 发布日期:2017-05-14
    • 文件大小:4034615
    • 提供者:paul
  1. ChineseSplit

    0下载:
  2. 一个基于VB.NET开发的中文分词及关键词提取系统,采用双向最大匹配、词频统计、快速排序等算法实现。-VB.NET developed based on Chinese word segmentation and Key Extraction System, the largest two-way matching, word frequency statistics, such as quick sort algorithm.
  3. 所属分类:MultiLanguage

    • 发布日期:2017-05-21
    • 文件大小:6472935
    • 提供者:张莉娟
  1. IKAnalyzer3.2.8-source

    0下载:
  2. IKAnalyzer的源码包,实现中文分词功能,(1) 采用了特有的“正向迭代最细粒度切分算法”,具有60万字/ 秒的高速处理能力。 (2) 采用了多子处理器分析模式,支持:英文字母( IP 地址、Email、URL )、数字(日期,常用中文数量词,罗马数字,科学计数法),中文词汇(姓名、地名处理)等分词处理 。 (3) 优化的词典存储,更小的内存占用。支持用户词典扩展定义 (4) 针对 Lucene 全文检索优化的查询分析器 IKQueryParser;采用歧义分析算法优化查询关键
  3. 所属分类:Java Develop

    • 发布日期:2017-04-09
    • 文件大小:1197198
    • 提供者:陈雅倩
  1. Auto_WordSeg

    0下载:
  2. 自动分词程序演示。包括最大、最小,正向、逆向等分词算法。-Automatic word segmentation procedure demonstrates. Including the largest, smallest, positive, reverse algorithm.
  3. 所属分类:Search Engine

    • 发布日期:2017-05-12
    • 文件大小:2822236
    • 提供者:Li
  1. 77433632mmseg-v0.1

    0下载:
  2. 使用最大正向匹配算法,实现中文自动分词,对于初学者有很高的参考价值。-The biggest being the use of matching algorithm, the realization of Chinese word segmentation, for beginners, has high reference value.
  3. 所属分类:MultiLanguage

    • 发布日期:2017-04-08
    • 文件大小:607478
    • 提供者:jicheng
  1. PERL

    0下载:
  2. perl采用正向匹配算法,使用词库构建哈希结构,匹配分词-perl matching algorithm being used, use the thesaurus to build hash structure, matching word segmentation
  3. 所属分类:WEB(ASP,PHP,...)

    • 发布日期:2017-04-12
    • 文件大小:837
    • 提供者:zhou
  1. DTWspeech

    1下载:
  2. 本 文 首先 介绍了语音识别的研究和发展状况,然后循着语音识别系统的 处理过程,介绍了语音识别的各个步骤,并对每个步骤可用的几种方法在实 验基础上进行了分析对比。研究了语音信号的预处理和特征参数提取,包括 语音信号的数字化、分帧加窗、预加重滤波、端点检测及时域特征向量和变 换域特征向量.其中端点检测采用双门限法.通过实验比对特征参数的选取, 采用12阶线性预测倒谱系数作为识别参数。详细分析了特定人孤立词识别算 法,选定动态时间弯折为识别算法,并重点介绍其设计实现。 在
  3. 所属分类:Speech/Voice recognition/combine

    • 发布日期:2017-05-10
    • 文件大小:2491034
    • 提供者:周文超
  1. segthewords

    0下载:
  2. 它是文本分词程序代码的核心算法,可以为语言学者提供强大的分词功能。-Is a code word the text of the core algorithm
  3. 所属分类:MultiLanguage

    • 发布日期:2017-04-01
    • 文件大小:4494
    • 提供者:baron
  1. theshortest

    1下载:
  2. 最短路径法分词程序.将中文句子经过原子切分后生成一个有向无环图,然后使用Dijkstra算法求出由起点到终点的-The shortest path segmentation process. After the Chinese sentence after splitting atoms to generate a directed acyclic graph, and then use the Dijkstra algorithm derived from the point of origi
  3. 所属分类:Other windows programs

    • 发布日期:2017-04-02
    • 文件大小:426500
    • 提供者:wangzhen
  1. phpsojiqidll

    0下载:
  2. 自己写的一些PHP扩展EXT DLL,包括搜集齐分词扩展,imagick动态处理图片类,搜集齐核心排序算法DLL(www.sojiqi.com)-PHP to write some of their expansion EXT DLL, including the expansion of the collection of word Qi, imagick dynamic picture categories, the core sorting algorithm to collect Qi
  3. 所属分类:Internet-Socket-Network

    • 发布日期:2017-05-07
    • 文件大小:1315535
    • 提供者:逍遥
« 1 2 ... 5 6 7 8 9 1011 12 13 14 15 »
搜珍网 www.dssz.com