CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 搜索资源 - 取词

搜索资源列表

  1. lishanshuxue

    1下载:
  2. 1.这个计算器可用在离散数学的数理逻辑中,纯属工具,随意传播,由java语言实现,解压即可运行,需要按照java环境。可以去这里下载运行环境:http://www.skycn.com/soft/3116.html 2.这个计算器可以计算逻辑表达式的值、对应的真值表、主析取范式、主合取范式。 3.输入表达式时可以在表达式栏中输入,也可用相应的按钮输入,变元只能是PQRST。由于等价连接词无法识别,所以用等号代替,这也是一个无奈的选择。 4.计算前请选择变元个数(默认为3元)并对变元赋值。变元个数最
  3. 所属分类:JSP源码/Java

    • 发布日期:2008-10-13
    • 文件大小:7118830
    • 提供者:vintoak
  1. 28430

    0下载:
  2. 亷政 伾伾 佢咁 佢返 佢喊 佢好 佢话 佮计 侘憏 侘傺 侭多侭少 侷促 俛拾地芥 俛拾仰取 俛首帖耳 俵分 俶chu尔 俶傥 倖灾乐祸错词废词表错词废词表2错词废词表2
  3. 所属分类:其它

    • 发布日期:2008-10-13
    • 文件大小:112775
    • 提供者:李欣
  1. nicewords_2.0.0128_for_3790_4659.tar.dezend_cc_php

    0下载:
  2. Nicewords-Dzend版 Nicewords是由工作在顶级门户网站的几名资深高级工程师利用爬虫技术(蜘蛛机器人,spider)、分词技术和网页萃取技术,结合白帽SEO(规避了一切风险的搜索引擎优化),利用URL重写技术、缓存技术,使用PHP语言开发的一套能根据设置的关键词自动抓取互联网上的相关信息、自动更新的WEB智能建站系统。利用NiceWords智能建站系统,只需要在配置页面上设置几个关键词,NiceWords就能全自动的生成一套能自动更新的网站了。 您要做的仅仅是设置几个关键词
  3. 所属分类:WEB源码

    • 发布日期:2008-10-13
    • 文件大小:1102818
    • 提供者:zhou
  1. BZEditW32_1.6.5_Source

    0下载:
  2. 取的屏幕的字体并显示类似金山词霸的即时翻译
  3. 所属分类:系统编程

    • 发布日期:2008-10-13
    • 文件大小:280468
    • 提供者:hwb
  1. 网趣网上购物系统时尚版 V9.0

    0下载:
  2. 网趣网上购物系统的部分特点与精华:   一、支持商品批量增加、批量修改功能,所有商品可一次修改完成,特别方便!   二、支持7种在线支付:北京网银、NPS、快钱、贝宝、云网、支付宝、财付通接口。 三、率先支持Excel批量导入商品功能,下载Excel模板批量添加商品一次完成!   四、删除商品的同时,可以自动删除商品图片,大大节约空间!   五、率先支持商品图片水印设置,彰显网站的独特风格!   六、支持商品三级分类设置,分类划分更明细:大类->小类->子类-
  3. 所属分类:ASP源码

  1. 网趣网上购物系统时尚版V10.4

    0下载:
  2. 程序功能详细介绍如下: 网趣网上购物系统时尚版的功能点: 一、时尚版拥有6套风格独特的模板 时尚版拥有6套不同色调的模板,后台只须轻轻一点,整站风格即可瞬间更换,从此摆脱风格单一、枯燥的界面,每天给客户以新的感觉、新的享受! 二、购物系统三级级分类设置 网趣网上购物系统支持的三级分类设置,后台可以轻松对商品进行分类的明细化设置,添加商品,可以方便得设置一、二、三级分类的属性,对于商品较少的购物站,用户也可以只用2级分类,使购物系统的适应人群弹性更强,网站的导航分
  3. 所属分类:ASP源码

  1. nicewords4.5中文版

    1下载:
  2. Nicewords是由工作在顶级门户网站的几名资深高级工程师利用爬虫技术(蜘蛛机器人,spider)和分词技术,结合白帽SEO,利用URL重写技术、缓存技术,使用PHP语言开发的一套能根据设置的关键词自动抓取互联网上的相关信息、自动更新的WEB智能建站系统。利用NiceWords智能建站系统,只需要在配置页面上设置几个关键词,NiceWords就能全自动的生成一套能自动更新的网站了。   NiceWords最主要是解决了自动建站的问题。以前的自动建站软件内容都还是需要自己发,有了NiceWord
  3. 所属分类:PHP源码

    • 发布日期:2011-08-16
    • 文件大小:2564010
    • 提供者:yvhitxcel
  1. GoogleTools

    0下载:
  2. GOOGLE关键字批量抓取,需要先登录adWords账号 ,本软件为V1.0.0测试版,后期继续增加功能,现在只完成 输入关键字自动搜索所有该关键字的相关词组 后期增加下载功能及循环分词功能-GOOGLE keyword batch fetching, you must first login adWords account, the software V1.0.0 beta, continue to add features later, now just finished entering
  3. 所属分类:Delphi VCL

    • 发布日期:2017-04-17
    • 文件大小:323399
    • 提供者:凉风
  1. zhongwen

    0下载:
  2. C++一般的输入都不是作为宽字符集处理的,使用C++分词,如果能完成窄字符输入,但按宽字符取子串,基本上分词的问题就解决了-C++ General input is not as wide-character set handling, use C++ Participle, if we can complete the narrow character input, but by the wide-character substring check basically segmentation
  3. 所属分类:MultiLanguage

    • 发布日期:2017-03-23
    • 文件大小:2335
    • 提供者:颓废
  1. text_category

    0下载:
  2. 中文自动分类。使用spider抓取网络信息,利用lucene的分词及KNN方法。-Chinese automatic classification. The use of spider crawl network information, the use of Lucene sub-word and KNN methods.
  3. 所属分类:MultiLanguage

    • 发布日期:2017-04-02
    • 文件大小:8900
    • 提供者:TZH
  1. NiceWords

    0下载:
  2. Nicewords是由工作在顶级门户网站的几名资深高级工程师利用爬虫技术(蜘蛛机器人,spider)、分词技术和网页萃取技术,利用URL重写技术、缓存技术,使用PHP语言开发的一套能根据设置的关键词自动抓取互联网上的相关信息、自动更新的WEB智能建站系统。利用NiceWords智能建站系统,只需要在配置页面上设置几个关键词,NiceWords就能全自动的生成一套能自动更新的网站了。 您要做的仅仅是设置几个关键词,其他的一切交给NiceWords来完成! -Nicewords is the top
  3. 所属分类:Linux-Unix program

    • 发布日期:2017-03-31
    • 文件大小:193436
    • 提供者:王厚民
  1. Baidu-Baike-entry-extraction

    0下载:
  2. 该程序主要是用于抓取百度百科词条的做研究。因为百度百科是在线的词条网络,如果要做词与词之间的相关性研究,百度百科是一个好的选择。该程序用于抓取每个词条的相关词条-This program is mainly used to capture Baidu Baike entry research. Because Baidu Baike is an online entry network.When you want to study relevance between words,Baidu B
  3. 所属分类:Java Develop

    • 发布日期:2017-03-29
    • 文件大小:71647
    • 提供者:苏樱
  1. MCMS-V3.1-Professional

    0下载:
  2. 米号文章管理系统采用ASP+ACCESS语言环境(其他版本将陆续推出),DIV+CSS构架及APPLICATION缓存技术,代码简洁标准,全面兼容IE6、IE7、IE8、IE9、Firefox、Firefox、Chrome、Safari等等主流浏览器。 米号文章管理系统功能 首页静态生成:全站模板标签灵活调用,方便用户制作多样的风格模板; 会员注册登录全站通:会员支持头像(整站系统)、积分等等常见功能; 文章系统:支持无限栏目(二级分类),支持栏目类型选择(如文章类型、图片
  3. 所属分类:WEB(ASP,PHP,...)

    • 发布日期:2017-04-09
    • 文件大小:1050648
    • 提供者:无色
  1. OJ

    0下载:
  2. 2897:英文缩写词 给定一个由若干英文单词组成的字符串,生成一个由各首字母组成的缩写词(acronym),其中的the,a,an,of,for及and被忽略。 2895: 循环小数 给定一个分数,判断其是否是一个无限循环小数,并输出它的第一个循环节 2531: 乘船 春暖花开,实验室集体去长风公园泛舟。 实验室有n(1<=N<=2000)个人,每个人重量为ci.长风公园的每艘船的载重量为K,每次最多乘两人。假设每个人只能坐一次船,那么至
  3. 所属分类:assembly language

    • 发布日期:2017-03-22
    • 文件大小:7116
    • 提供者:213
  1. Wtexxtindepenr

    0下载:
  2. 这个我用matlab写的一个简单易懂孤立词语音识别的程序源码,其中同过预处理,MFCC提取取,与DTW算法的比较,如果大家愿意,还能用这个与LABVIEW联合编程与开发 可直接使用。 -I used Matlab to write a simple isolated word speech recognition program source code, which the same pretreatment, MFCC extraction to take with the DTW al
  3. 所属分类:Windows编程

    • 发布日期:2013-04-02
    • 文件大小:2742
    • 提供者:xlli
  1. CWDJ

    0下载:
  2. Get the word GetWord 屏幕取词 GetWord(Get the word GetWord screen word GetWord)
  3. 所属分类:Windows编程

    • 发布日期:2019-06-30
    • 文件大小:102400
    • 提供者:tslen
  1. 爬取豆瓣电影Top250

    0下载:
  2. 通过python语言,利用爬虫、词云等模块,爬取豆瓣电影评分前250(Climbing the top 250 of Douban Movie)
  3. 所属分类:数据挖掘

    • 发布日期:2020-07-04
    • 文件大小:271360
    • 提供者:fv965
  1. url

    8下载:
  2. 用JavaURL编程爬取并分析网页敏感词 1.编写界面,输入一个网址,能够爬取该网址上所有的HTML源代码。 2.对网址中的文本进行提取。 3.建立敏感词库,用文本文件保存。 4.将该网址所对应的文本中的敏感词提取并高亮显示。 5.编写文本文件,可以存入多个网址;程序可爬取这些网址中的文本内容,将敏感词记录存入另一个文件,格式自定。 6.编写一个主界面,整合上述功能。(Crawling and analyzing web sensitive words with Java URL program
  3. 所属分类:Windows编程

    • 发布日期:2020-07-02
    • 文件大小:2048
    • 提供者:野望x
  1. 爬取某东商品评价

    0下载:
  2. 利用python网络爬虫爬取某东商品评论,并进行分词和生成词云。主要使用requests库,以及jieba、wordcloud等库
  3. 所属分类:Python

  1. weibo-comment-crawler-master

    1下载:
  2. 爬取单条微博的评论内容 把爬取的内容保存到csv或mysql中 对评论内容进行词频分析并画出词云图 分析评论的文本情感,统计积极评论与消极评论的数量(Crawling the comment content of a single microblog Save the crawled content to CSV or mysql Analyze the word frequency of the comments and draw the word cloud Analyze the text
  3. 所属分类:其他

    • 发布日期:2021-03-21
    • 文件大小:476160
    • 提供者:ddr13
« 1 2 ... 11 12 13 14 15 1617 »
搜珍网 www.dssz.com