CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 Windows编程 搜索资源 - 中文 分词 算法

搜索资源列表

  1. SegmentRAM

    0下载:
  2. 1.基于luncene倒排索引格式的高性能索引数据访问接口。 2. 实现若干中文分词的的分词算法。-1. Based on luncene inverted index format of high-performance data access interface Index. 2. A number of Chinese word segmentation algorithm of.
  3. 所属分类:其它

    • 发布日期:2008-10-13
    • 文件大小:5045029
    • 提供者:陈厚道
  1. lunce-splitword

    0下载:
  2. 一个运用于lunce中的中文分词算法源码,与大家共享-a lunce applied to the Chinese word segmentation algorithm source code and share
  3. 所属分类:Windows编程

    • 发布日期:2008-10-13
    • 文件大小:3745
    • 提供者:彭昱
  1. mmseg

    0下载:
  2. MMSEG 中文分词算法 内有说明及例子,源代码-failed to translate
  3. 所属分类:Windows Develop

    • 发布日期:2017-03-30
    • 文件大小:544467
    • 提供者:zyg
  1. RMM

    0下载:
  2. 基于rmm算法(逆向最大匹配)实现的中文分词系统,具体内容是一个mfc工程文件。-Rmm-based algorithm (reverse maximum matching) to achieve the Chinese word segmentation system, specific content is a mfc project file.
  3. 所属分类:Other windows programs

    • 发布日期:2017-05-31
    • 文件大小:13402711
    • 提供者:乐文
  1. fenci

    0下载:
  2. PHP 织梦逆向最大匹配算法 中文分词 分词算法-PHP DedeCms reverse maximum matching algorithm for Chinese word segmentation algorithm
  3. 所属分类:ISAPI-IE

    • 发布日期:2017-04-01
    • 文件大小:677643
    • 提供者:紫电
  1. zdfc

    0下载:
  2. 对中文语句进行分词的一个源码,利用正向匹配算法进行处理-Statements for the Chinese word for a source
  3. 所属分类:CSharp

    • 发布日期:2017-04-01
    • 文件大小:300962
    • 提供者:小松
  1. totsearchc

    0下载:
  2. 淘特站内搜索引擎是由淘特JSP搜索引擎发展而来,系统基于Lucene.Net核心,通过高效的中文分词算法将数据库中内容进行分析、索引并保存至硬盘中。前台搜索时,通过读取索引文件查询,避免了传统数据库查询在高并发及海量数据下的性能问题。因前台搜索不在连接数据库,为不希望数据库放到前台的特殊用户群体提供了数据快速查询解决方案。-Amoy Special Site search engine from the Amoy Te JSP search engine, developed from, sys
  3. 所属分类:Windows Develop

    • 发布日期:2017-04-02
    • 文件大小:373503
    • 提供者:miao
  1. totsearch

    0下载:
  2. 淘特站内搜索引擎是由淘特JSP搜索引擎发展而来,系统基于Lucene.Net核心,通过高效的中文分词算法将数据库中内容进行分析、索引并保存至硬盘中。前台搜索时,通过读取索引文件查询,避免了传统数据库查询在高并发及海量数据下的性能问题。因前台搜索不在连接数据库,为不希望数据库放到前台的特殊用户群体提供了数据快速查询解决方案。 -Amoy Special Site search engine from the Amoy special JSP search engine developed fr
  3. 所属分类:Windows Develop

    • 发布日期:2017-05-02
    • 文件大小:743011
    • 提供者:豆豆
  1. worddiv

    0下载:
  2. 中文分词算法,用正向最大匹配算法实现的中文分词,包裹dao操作数据库。-Chinese word segmentation algorithm, the forward maximum matching algorithm of Chinese word segmentation, wrapped dao operations database.
  3. 所属分类:ADO-ODBC

    • 发布日期:2017-04-01
    • 文件大小:83773
    • 提供者:刘嘉
  1. Bbeiyessa

    0下载:
  2. 贝叶斯网络概率中文分词算法,,基于概率的分词算法可直接使用。 -Bayesian network probability Chinese word segmentation algorithm, probability-based segmentation algorithm can be used directly.
  3. 所属分类:Windows Develop

    • 发布日期:2017-11-11
    • 文件大小:1139042
    • 提供者:包裹
  1. totsearch

    0下载:
  2. 淘特站内搜索引擎(C#版)基于Lucene.Net核心,通过高效的中文分词算法将数据库中内容进行分析、索引并保存至硬盘中。前台搜索时,通过读取索引文件查询,避免了传统数据库查询在高并发及海量数据下的性能问题。因前台搜索不在连接数据库,为不希望数据库放到前台的特殊用户群体提供了数据快速查询解决方案。 -Amoy special stations within the search engine (C# version) is based on Lucene.Net core through e
  3. 所属分类:.net

    • 发布日期:2017-12-06
    • 文件大小:2267109
    • 提供者:sdgd50898
  1. mmseg

    0下载:
  2. MMSEG 中文分词算法内有说明及例子,源代码-failed to translate
  3. 所属分类:Windows Develop

    • 发布日期:2017-03-29
    • 文件大小:544561
    • 提供者:Inrespon
  1. mmseg

    0下载:
  2. MMSEG 中文分词算法内有说明及例子,源代码-failed to translate
  3. 所属分类:Windows Develop

    • 发布日期:2017-04-03
    • 文件大小:544657
    • 提供者:pressbri
  1. LBChSeg

    0下载:
  2. 这是用c++写的一个正向最大匹配中文分词算法,主要实现的是中文的分词,从左向右,实现分词的最大匹配-This is the biggest match using c++ to write a forward maximum matching Chinese word segmentation algorithm, the main achievement is the Chinese word, and left to right, to achieve sub-word
  3. 所属分类:Other systems

    • 发布日期:2017-05-16
    • 文件大小:3811238
    • 提供者:李好
  1. sentence_split

    0下载:
  2. 中文分词算法,输出以\作为分隔符,需要词典-Chinese word segmentation algorithm, the output with \ as the delimiter, needs dictionary
  3. 所属分类:Other systems

    • 发布日期:2017-04-29
    • 文件大小:307048
    • 提供者:LYC
  1. 6_29

    0下载:
  2. 基于逆向匹配的中文分词算法实现,产生词典和测试数据,分词后具有结果分析功能,计算精确度,召回率,F值, -Chinese word segmentation algorithm based on reverse matching, dictionary and test data, with the result after word analysis function, calculation precision and recall rate, F value,
  3. 所属分类:Other systems

    • 发布日期:2017-06-16
    • 文件大小:25073687
    • 提供者:段冰倩
  1. 4925660

    0下载:
  2. 此程序解决的问题 较好的, 并适应短字符串的中文分词算法 根据词库 发现以换行符分隔的众多标题中的 top N 关键字并以此更()
  3. 所属分类:其他

    • 发布日期:2018-01-07
    • 文件大小:8192
    • 提供者:uorrnsplnd
  1. fenci2

    0下载:
  2. 可以提供中文分词算法,同时能够支持英文的分词(Chinese and English words stemming algorithm)
  3. 所属分类:其他

    • 发布日期:2018-04-21
    • 文件大小:2048
    • 提供者:计量阿包
  1. argkmebt

    0下载:
  2. 此程序解决的问题 较好的, 并适应短字符串的中文分词算法 根据词库 发现以换行符分隔的众多标题中的 top N 关键字并以此更()
  3. 所属分类:其他

    • 发布日期:2018-04-29
    • 文件大小:8192
    • 提供者:capabelitg
  1. HMM-master

    1下载:
  2. 隐马尔科夫模型进行中文分词 模型训练 python HMM_train.py RenMinData.txt_utf8 RenMinData.RenMinData_utf8 为人民日报已经人工分词的预料。 生成三个文件 * prob_start.py 为模型的初始概率 * prob_trans.py 为模型状态转移概率 * prob_emit.py 为发射概率 测试模型效果 python HMM.py reference 维特比算法:(python
  3. 所属分类:其他

    • 发布日期:2020-02-16
    • 文件大小:6432768
    • 提供者:nino123456
« 12 »
搜珍网 www.dssz.com