CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 搜索资源 - 分词程序

搜索资源列表

  1. 网趣网上购物系统时尚版 V9.0

    0下载:
  2. 网趣网上购物系统的部分特点与精华:   一、支持商品批量增加、批量修改功能,所有商品可一次修改完成,特别方便!   二、支持7种在线支付:北京网银、NPS、快钱、贝宝、云网、支付宝、财付通接口。 三、率先支持Excel批量导入商品功能,下载Excel模板批量添加商品一次完成!   四、删除商品的同时,可以自动删除商品图片,大大节约空间!   五、率先支持商品图片水印设置,彰显网站的独特风格!   六、支持商品三级分类设置,分类划分更明细:大类->小类->子类-
  3. 所属分类:ASP源码

  1. filtergame

    0下载:
  2. 过滤无用词汇程序。规则如下: 1. 能接受的字符是:字母 数字 标点符号 , . " 还有无用的符号 @#¥ 2. 对于敏感信息的词语是不分大小写的。 3. 要注意滤去可能在敏感词汇的中间出现的一些空格(比如要滤去lv, 输入l v时要辨认出来并滤去)。 4. 若有用信息(字母,数字)中间夹这无用信息(非字母,数字,标点符号),也要辨认出并滤去。假如敏感词汇是mz, 那么输入 m &# z也要滤去,但是输入 m1,z不用滤去。 现在要过滤的信息有L4和 Fd和D26这3
  3. 所属分类:Other windows programs

    • 发布日期:2017-04-03
    • 文件大小:1921
    • 提供者:fanvan
  1. result

    0下载:
  2. 过滤无用词汇程序。规则如下: 1. 能接受的字符是:字母 数字 标点符号 , . " 还有无用的符号 @#¥ 2. 对于敏感信息的词语是不分大小写的。 3. 要注意滤去可能在敏感词汇的中间出现的一些空格(比如要滤去lv, 输入l v时要辨认出来并滤去)。 4. 若有用信息(字母,数字)中间夹这无用信息(非字母,数字,标点符号),也要辨认出并滤去。假如敏感词汇是mz, 那么输入 m &# z也要滤去,但是输入 m1,z不用滤去。 现在要过滤的信息有L4和 Fd和D26这3个词,而且接受输入的字符串
  3. 所属分类:Windows Develop

    • 发布日期:2017-03-31
    • 文件大小:1635
    • 提供者:唐冬鑫
  1. Project2

    0下载:
  2. 分词实验程序,通过读取txt中的中文词典,根据词典中的词语对文本进行中文分词-Word segmentation experiments, by reading the Chinese dictionary in txt, according to the words in the dictionary to Chinese word segmentation
  3. 所属分类:Other systems

    • 发布日期:2017-05-09
    • 文件大小:1573042
    • 提供者:
  1. totsearch_v3.3

    0下载:
  2. 淘特站内搜索引擎是由淘特JSP搜索引擎发展而来,系统基于Lucene.Net核心,通过高效的中文分词算法将数据库中内容进行分析、索引并保存至硬盘中。前台搜索时,通过读取索引文件查询,避免了传统数据库查询在高并发及海量数据下的性能问题。因前台搜索不在连接数据库,为不希望数据库放到前台的特殊用户群体提供了数据快速查询解决方案。 淘特站内搜索引擎(C#版)v3.3更新内容: 1、解决生成的文件链接始终是第一个的错误 2、解决GbK编码搜索程序Default_Gbk.aspx下一页链接错误的
  3. 所属分类:WEB(ASP,PHP,...)

    • 发布日期:2017-05-11
    • 文件大小:2264097
    • 提供者:zzpudn1
  1. wen_v1.3

    0下载:
  2. 1.采用独有的分词引擎,完全匹配baidu和google的习惯。 2.内容经过打乱和伪原创处理,收录更多。 3.标题随机自动增加特殊符号,对搜索引擎更友好。 4.内容页全面静态化(伪静态),支持windows下的httpd.ini和linux下的.htaccess,如空间不支持,也可以选择动态模式,但对搜索不是很友好。 5.内容页面经过seo专家处理,对搜索友好,内容页description自动捉取文章内容。 6.自带伪原创同近义词约8000个,自动对文章相关字伪原创处理。
  3. 所属分类:WEB(ASP,PHP,...)

    • 发布日期:2017-05-01
    • 文件大小:403750
    • 提供者:yanschen
  1. kms3

    0下载:
  2. 任意聚合成员搜索引擎、分类搜索快速建立行业网站群组搜索引擎、缓存技术静态化搜索、中文智能分词技术、广告管理、WAP移动搜索;后台程序采用多线程调用成员引擎,大大提高搜索速度、性能和系统负载能力。 -Any aggregation member search engine, category search quickly establish industry group of websites search engine, caching static search, Chinese intell
  3. 所属分类:Web Server

    • 发布日期:2017-05-03
    • 文件大小:876130
    • 提供者:chenwang
  1. kms_v3.1

    1下载:
  2. 元搜索引擎(MetaSearch)的特点是把多个独立搜索引擎的搜索结果整合、控制、优化,再把搜索结果输出到客户端。元搜索引擎不需要庞大的网页数据库,而能够搜索到更加丰富、准确的内容。K-MetaSearch是由Kwindsoft自主研发的元搜索引擎产品。主要功能特点:任意聚合成员搜索引擎、分类搜索快速建立行业网站群组搜索引擎、缓存技术静态化搜索、中文智能分词技术、广告管理、WAP移动搜索;后台程序采用多线程调用成员引擎,大大提高搜索速度、性能和系统负载能力。-Meta search engine
  3. 所属分类:Web Server

    • 发布日期:2017-04-29
    • 文件大小:487691
    • 提供者:lq
  1. CifaAnalyse

    0下载:
  2. 编译原理课程相关——词法分析器的实现 能够对给出的C语言程序进行分词处理-Compiler Principle- lexical analyzer
  3. 所属分类:Java Develop

    • 发布日期:2017-05-04
    • 文件大小:7265
    • 提供者:LCF
  1. CreateIndex

    0下载:
  2. Lucene.Net+盘古分词做的定时建索引程序,自己网站用的。-A program which create index Sql server byLucene.Net+pangu.dll
  3. 所属分类:CSharp

    • 发布日期:2017-05-20
    • 文件大小:5417870
    • 提供者:
  1. kmeansClassifier

    0下载:
  2. 该程序实现了keans分类,使用IK分词技术实现分词。-The program implements the k means classification, the use of IK word segmentation technology to achieve word segmentation.
  3. 所属分类:Data Mining

    • 发布日期:2017-05-19
    • 文件大小:5029682
    • 提供者:yuyan
  1. NlpAnalysiTest

    0下载:
  2. 自然语言处理中,最基础的分词测试程序,采用CRF模型-Natural language processing, the most basic word test program, using CRF model
  3. 所属分类:JavaScript

    • 发布日期:2017-04-13
    • 文件大小:2510
    • 提供者:
  1. 123

    0下载:
  2. 分词处理算法 自己写的一点小程序 仅供参考-Word segmentation algorithm to write their own small procedures for reference only
  3. 所属分类:Other windows programs

    • 发布日期:2017-05-05
    • 文件大小:16996
    • 提供者:霍春美
  1. TestFenci

    0下载:
  2. java分词测试程序,调用开源分词工具ansj测试代码,效果可以-java segement source code open source ansj
  3. 所属分类:Jsp/Servlet

    • 发布日期:2017-12-11
    • 文件大小:5220
    • 提供者:chenzhe
  1. 百词斩

    0下载:
  2. 本程序设计了一个单词学习系统,主要功能有:1.选择词库,2.添加单词,3.删除单词,4.修改单词,5.学习计划,6.单词游戏,7.查询单词(支持模糊查询)。执行程序进入系统后,首先要选择词库,有四级单词、六级单词、托福单词和考研词汇四个词库可供选择。选择词库后显示“我爱背单词系统”主界面,共有7个功能可供选择,分别是:1.添加单词,2.删除单词,3.修改单词,4.学习计划,5.单词游戏,6.查询单词,7.退出系统。(The program design of a word study syste
  3. 所属分类:其他

    • 发布日期:2017-12-21
    • 文件大小:21276672
    • 提供者:楚子航
  1. 4925660

    0下载:
  2. 此程序解决的问题 较好的, 并适应短字符串的中文分词算法 根据词库 发现以换行符分隔的众多标题中的 top N 关键字并以此更()
  3. 所属分类:其他

    • 发布日期:2018-01-07
    • 文件大小:8192
    • 提供者:uorrnsplnd
  1. ChineseChuLi

    5下载:
  2. 中文文本处理的python程序,包括分词、删除特殊字符、删除停用词、爬虫程序、PCA降维、Kmean聚类、可视化等(Python programs for Chinese text processing, including participle, deleting special characters, deleting disuse words, crawler programs, PCA dimensionality reduction, Kmean clustering, visuali
  3. 所属分类:Windows编程

    • 发布日期:2018-04-19
    • 文件大小:12288
    • 提供者:hello_spring
  1. java

    0下载:
  2. 程序为提取文章关键词的java程序,可以制定关键词和分词算法,可直接使用(Java program for extracting key words)
  3. 所属分类:Java编程

    • 发布日期:2018-04-20
    • 文件大小:1024
    • 提供者:陌上芊芊
  1. argkmebt

    0下载:
  2. 此程序解决的问题 较好的, 并适应短字符串的中文分词算法 根据词库 发现以换行符分隔的众多标题中的 top N 关键字并以此更()
  3. 所属分类:其他

    • 发布日期:2018-04-29
    • 文件大小:8192
    • 提供者:capabelitg
  1. chinese_wordseg_keras-master

    0下载:
  2. 这个程序是用来做中文分词的程序,用Python写的(This program is used to do Chinese word segmentation program, written in Python)
  3. 所属分类:其他

    • 发布日期:2018-04-30
    • 文件大小:18432
    • 提供者:helios123
« 1 2 ... 9 10 11 12 13 1415 »
搜珍网 www.dssz.com