CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 搜索资源 - 中文分词

搜索资源列表

  1. WordSeg.exe

    0下载:
  2. 可以容易地对中文进行分词,对于机器人的理解能力编程有很大的帮助-can easily pair of Chinese Word, the ability to understand robot programming is a great help
  3. 所属分类:其它

    • 发布日期:2008-10-13
    • 文件大小:188684
    • 提供者:芳芳
  1. HanLP-1.3.4_20170616

    0下载:
  2. 目前流行的,中文分词核心软件包!可以实现多种算法的分词结果!(Chinese word segment package)
  3. 所属分类:其他

    • 发布日期:2017-12-31
    • 文件大小:9088000
    • 提供者:ZFNotes
  1. ikanalyzer-solr5

    0下载:
  2. solr流行的中文分词工具包 ik-analyzer5(Solr popular Chinese word segmentation toolkit ik-analyzer5)
  3. 所属分类:其他

    • 发布日期:2017-12-29
    • 文件大小:1168384
    • 提供者:地狱之门
  1. 4925660

    0下载:
  2. 此程序解决的问题 较好的, 并适应短字符串的中文分词算法 根据词库 发现以换行符分隔的众多标题中的 top N 关键字并以此更()
  3. 所属分类:其他

    • 发布日期:2018-01-07
    • 文件大小:8192
    • 提供者:uorrnsplnd
  1. work

    1下载:
  2. 贝叶斯下文本分类器,python语言,包括中文分词和英文分词(Bias's lower text classifier, python language, including Chinese participle and English participle)
  3. 所属分类:其他

    • 发布日期:2018-01-09
    • 文件大小:13926400
    • 提供者:ax123
  1. Chinese

    0下载:
  2. 是做文本预处理时候利用爬虫收集的500个中文文档,包括分词部分、去掉特殊符号部分以及最后的相似度计算等(It is the 500 Chinese document collected by a crawler for text preprocessing, including the part of the participle, the removal of the special part of the symbol, and the final similarity calculatio
  3. 所属分类:其他

    • 发布日期:2018-04-19
    • 文件大小:12314624
    • 提供者:hello_spring
  1. ChineseChuLi

    5下载:
  2. 中文文本处理的python程序,包括分词、删除特殊字符、删除停用词、爬虫程序、PCA降维、Kmean聚类、可视化等(Python programs for Chinese text processing, including participle, deleting special characters, deleting disuse words, crawler programs, PCA dimensionality reduction, Kmean clustering, visuali
  3. 所属分类:Windows编程

    • 发布日期:2018-04-19
    • 文件大小:12288
    • 提供者:hello_spring
  1. fenci2

    0下载:
  2. 可以提供中文分词算法,同时能够支持英文的分词(Chinese and English words stemming algorithm)
  3. 所属分类:其他

    • 发布日期:2018-04-21
    • 文件大小:2048
    • 提供者:计量阿包
  1. Alice

    0下载:
  2. 支持中文的alice,中文分词采用的是mmseg算法(alice with mmseg support chinese,need download mmseg4j.jar.)
  3. 所属分类:人工智能/神经网络/深度学习

    • 发布日期:2018-04-28
    • 文件大小:2290688
    • 提供者:亮亮1987
  1. ansj_seg-master

    0下载:
  2. 基于java语言的ansj中文分词程序,适合语义识别学习者研究用(Ansj Chinese word segmentation program based on Java language, which is suitable for semantic recognition learners to study)
  3. 所属分类:Java编程

    • 发布日期:2018-04-22
    • 文件大小:23591936
    • 提供者:xmdpanda
  1. argkmebt

    0下载:
  2. 此程序解决的问题 较好的, 并适应短字符串的中文分词算法 根据词库 发现以换行符分隔的众多标题中的 top N 关键字并以此更()
  3. 所属分类:其他

    • 发布日期:2018-04-29
    • 文件大小:8192
    • 提供者:capabelitg
  1. jiebacut.py

    0下载:
  2. 通过结巴分词处理中文分词问题【对文本进行分词以及词频统计处理】。(The problem of Chinese participle is dealt with by the branch word segmentation.)
  3. 所属分类:多国语言处理

    • 发布日期:2018-04-30
    • 文件大小:775168
    • 提供者:一万只耳朵
  1. chinese_wordseg_keras-master

    0下载:
  2. 这个程序是用来做中文分词的程序,用Python写的(This program is used to do Chinese word segmentation program, written in Python)
  3. 所属分类:其他

    • 发布日期:2018-04-30
    • 文件大小:18432
    • 提供者:helios123
  1. 5

    0下载:
  2. 搜易站内搜索引擎基于Lucene开发的站内搜索解决方案,其集成专为站内搜索设计的细粒度中文分词,有效兼顾搜准和搜全率,无缝支持多种数据库数据汇入索引,支持全站(The search engine in the station is based on Lucene, which is designed for fine grained Chinese participle designed in the station. It takes full account of the search ac
  3. 所属分类:.net编程

    • 发布日期:2018-05-02
    • 文件大小:3897344
    • 提供者:34y5ue
  1. 代码

    0下载:
  2. 曹尼玛的,撒比比 中文分词,用于文本分割,中文分词,等等(For text segmentation, Chinese word segmentation, for text segmentation, Chinese word segmentation...)
  3. 所属分类:其他

    • 发布日期:2018-05-03
    • 文件大小:4425728
    • 提供者:西园
  1. pyltp

    0下载:
  2. 调用哈工大的语言云平台lpt进行中文分词处理,支持自定义词典(Word segregation is the process that cutting the string of natural language into words.you can use this to syncopate words)
  3. 所属分类:网络编程

  1. TFIDF算法的C#实现

    3下载:
  2. 支持英文分词,无中文分词。采用Centivus.EnglishStemmer.dll库
  3. 所属分类:人工智能/神经网络/遗传算法

    • 发布日期:2018-09-24
    • 文件大小:17070
    • 提供者:feria@163.com
  1. BosoNnlp

    1下载:
  2. 玻森专注中文语义分析技术,拥有丰富的经验积累。自主研发千万级中文语料库,为精准和深度的中文语义分析提供坚实基础。一站式解决您的中文语义分析需求。多个语义分析API,从情感倾向、实体、分类等方面。官网只有python版本,现上传Java的实例。(He focuses on Chinese semantic analysis technology and has rich experience. Independently developing tens of millions of Chinese
  3. 所属分类:Windows编程

    • 发布日期:2020-09-29
    • 文件大小:9054208
    • 提供者:hhitkyA
  1. lucene-core-2.4.1.jar je-analysis-1.5.3.jar

    0下载:
  2. import jeasy.analysis.MMAnalyzer 实现句子中文分词的jar包(import jeasy.analysis.MMAnalyzer Jar package for Chinese word segmentation in sentences)
  3. 所属分类:其他

  1. Python中文文本预处理

    0下载:
  2. 包括删除标点、分词、删除停用词、计算相似度、文本聚类等功能
  3. 所属分类:Python

« 1 2 ... 24 25 26 27 28 2930 31 32 33 34 35 »
搜珍网 www.dssz.com