CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 搜索资源 - 分词

搜索资源列表

  1. paoding-analysis-2.0.4

    0下载:
  2. Paoding中文分词是一个使用Java开发的,可结合到Lucene应用中的,为互联网、企业内部网使用的中文搜索引擎分词组件。 Paoding填补了国内中文分词方面开源组件的空白,致力于此并希翼成为互联网网站首选的中文分词开源组件。 Paoding中文分词追求分词的高效率和用户良好体验。-Paoding Chinese word is a Java development can be combined with Lucene applications for the word componen
  3. 所属分类:Search Engine

    • 发布日期:2017-05-27
    • 文件大小:9799997
    • 提供者:ltqjun
  1. WordSegmetetion

    0下载:
  2. java编写的分词小程序 能实现一定范围内的分词功能,可对词库内容进行分类-java wordsegmention
  3. 所属分类:Applet

    • 发布日期:2017-04-08
    • 文件大小:16243
    • 提供者:杨智勇
  1. tmsvm_src_v1.1.0

    0下载:
  2. SVM中文分词分类器的python实现,在LINUX环境下运行不需太多配置和代码修改。-SVM for Chinese word classification python implementation running under LINUX environment without too much configuration and code changes.
  3. 所属分类:Other systems

    • 发布日期:2017-05-13
    • 文件大小:3557796
    • 提供者:钱钤
  1. WordSeg

    0下载:
  2. 这是一个分词程序,有正向最大匹配算法,逆向最大匹配算法,正向最小匹配算法。-This is a word segmentation program, there are positive maximal matching algorithm, reverse maximal matching algorithm, positive minimum matching algorithms.
  3. 所属分类:Windows Develop

    • 发布日期:2017-04-03
    • 文件大小:491470
    • 提供者:guizhongyun
  1. Search_1

    0下载:
  2. 全文检索的实现,用lucence开 IK 分词,实现全库 全文 搜索-The realization of the full-text search
  3. 所属分类:Search Engine

    • 发布日期:2017-05-19
    • 文件大小:5248788
    • 提供者:juhn
  1. video

    0下载:
  2. 做为独立主机的用户有开发基础的程序员,按照以下步骤操作: 做为独立主机的用户,您可以直接让托管商为您打的服务器系统和配置。所需软件提供如下:win2008 操作系统IIS、mysql 5.1.5.8[或最新版]、framework3.5 。 安装只需要4步。首先将 1、建立视频索引库:在大空间的盘符下建立:视频搜索/index 【索引库】如:F:/ 视频搜索/index 2、安装分词服务系统fenciserver3.1 双击: 安装分词服务器.bat 安装即可,然后点击:fenc
  3. 所属分类:Search Engine

    • 发布日期:2017-06-21
    • 文件大小:39238656
    • 提供者:韩超
  1. ICTCLAS

    0下载:
  2. ICTClAS分词系统是由中科院计算所的张华平、刘群所开发的一套获得广泛好评的分词系统,难能可贵的是该版的Free版开放了源代码,该文档是对ICTClAS分词系统的详细介绍。-ICTClAS segmentation system by the Hua-Ping Zhang from the Chinese Academy of Sciences, received wide acclaim Qun developed a word segmentation system, it is valu
  3. 所属分类:software engineering

    • 发布日期:2017-04-01
    • 文件大小:376420
    • 提供者:xyh
  1. stopword-list

    0下载:
  2. 在文本进行分类聚类之前,必须对文本进行预处理。预处理的第一步是分词,这中间需要去除停用词。这个文件就是停用词列表-Must preprocess the text before the text classification clustering. The first step in preprocessing is the word, the middle need to remove the stop words. This file is the stop word list
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-03-29
    • 文件大小:1662
    • 提供者:吴志媛
  1. delphi7-zhongwenfengci

    0下载:
  2. delpohi7中的中文分词功能,对相关信息进行中文分词-delpohi7 in Chinese word Chinese word segmentation information
  3. 所属分类:MultiLanguage

    • 发布日期:2017-03-31
    • 文件大小:502075
    • 提供者:吴桃利
  1. WVTool

    0下载:
  2. 很好的文本分词工具,很适合java初学者。其中有分词jar文件。-Good text segmentation tool, it is suitable for java beginners. Which took part in the word jar file.
  3. 所属分类:Java Develop

    • 发布日期:2017-03-26
    • 文件大小:183675
    • 提供者:缘青
  1. backforwardSegmentationjava

    0下载:
  2. 后向分词算法对中文文本进行简单分词,有Swing界面,适合初学者.-Backforward propergation chinese segmentation. with the visible interface by Swing. It s useful for the new guy.
  3. 所属分类:MultiLanguage

    • 发布日期:2017-04-10
    • 文件大小:1459251
    • 提供者:巴吉拉
  1. fenci

    1下载:
  2. 复旦的中文分词java程序包,装了eclipse话,导入项目就能用-Fudan University Chinese word java program package installed eclipse, then import the project will be able to use
  3. 所属分类:JSP源码/Java

    • 发布日期:2012-12-22
    • 文件大小:3193981
    • 提供者:熊里
  1. textcluster

    0下载:
  2. 实现中文分词并聚类输出,分词算法是自己写的以空格分词,如果有需要高级的分词算法可自己下载相关算法-Realization of the Chinese word segmentation and clustering output
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-08
    • 文件大小:28317
    • 提供者:wangke
  1. chinese-analyzer

    0下载:
  2. 主要是对自然语言进行分析,支持中文分词。对中文进行识别-Natural language analysis, support for Chinese word segmentation. Identification of Chinese
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-28
    • 文件大小:10933547
    • 提供者:王萍
  1. seg

    0下载:
  2. C# 中文分词 基于统计的朴素贝叶斯算法-C# ChineseWordSeg
  3. 所属分类:.net

    • 发布日期:2017-03-29
    • 文件大小:3341
    • 提供者:zhang
  1. MarkSegment

    0下载:
  2. C#实现的分词Demo,供大家学习参考,-C# implementation of the sub-word Demo
  3. 所属分类:CSharp

    • 发布日期:2017-05-04
    • 文件大小:1514227
    • 提供者:李小亮
  1. je

    0下载:
  2. 极易分词器,在搜索引擎中至关重要,主要是针对中文。中文分词很难实现得非常完美,所以,可以从研究极易中得到相应的启发-Vulnerable to the word in the search engines is essential, mainly for the Chinese. Chinese word segmentation is difficult to achieve perfectly, so you can get the inspiration from the study ea
  3. 所属分类:WinSock-NDIS

    • 发布日期:2017-04-02
    • 文件大小:893338
    • 提供者:依米
  1. 20257147knn

    1下载:
  2. knn最近邻算法在给定新文本后,考虑在训练文本集中与该新文本距离最近(最相似)的 K 篇文本,根据这 K 篇文本所属的类别判定新文本所属的类别,具体的算法步骤如下: 一、:根据特征项集合重新描述训练文本向量 二、:在新文本到达后,根据特征词分词新文本,确定新文本的向量表示 三、:在训练文本集中选出与新文本最相似的 K 个文本-knn nearest neighbor algorithm in the given text, to consider in the train
  3. 所属分类:Other systems

    • 发布日期:2017-04-05
    • 文件大小:43017
    • 提供者:千木流云
  1. chinese-segment

    0下载:
  2. 中文分词程序,c#编写,输入txt文件,可以输出分词后文章-Chinese word segmentation process, c# prepared to enter the txt file, you can output word article
  3. 所属分类:Java Develop

    • 发布日期:2017-05-10
    • 文件大小:2050075
    • 提供者:王强
  1. yuantongji

    0下载:
  2. 实现对语句分词后的词项进行词频统计。用c++编写。-The statement word after word frequency statistics. Prepared using c++.
  3. 所属分类:Data structs

    • 发布日期:2017-04-07
    • 文件大小:564952
    • 提供者:Jenny
« 1 2 ... 41 42 43 44 45 4647 48 49 50 »
搜珍网 www.dssz.com