搜索资源列表
自己做的类似于网络爬虫的东西
- 自己做的类似于网络爬虫的东西 能实现整个网站的抓取,暂时还不支持javascr ipt形式的连接 能抓取网页,网页中的所有的URL重新生成,图片,文件,包括所有格式的文件,全部都能保持原有的路径结构 -own network similar to the reptiles can achieve something the entire site crawls, javascr ipt not yet support forms of connectivity can cra
HTMLCapture
- 一个使用c编写的HTML抓包程序,能够通过网卡截获数据包,并分析保存抓取的网页。-a prepared using HTML capturing Packet procedures, through LAN intercepted data packets, the preservation and analysis of the web crawlers.
zhuaquwangye
- 一个简单的抓取网页并保留该网页的程序,并记下抓取所用的时间-grasp a simple retention of the website and the website of the procedures and record grasping the time
Src123
- 网络编程类,网络蜘蛛,用于搜索引擎,抓取网页等功能。-network programming category, network spiders, for the search engines, web crawls, and other functions.
fetch-1.0.tar
- LiunxC++蜘蛛,把网页从指定URL中抓取下来 -LiunxC spiders, and the website from the designated URL crawls down
usdsi
- 本程序是用python编写,无需安装。运行Crawler.exe就可以看到效果。 如果不修改配置是抓取新浪科技的内容,修改配置可以抓取指定的网站。 配置文件采用ini的格式. spider_config.ini蜘蛛的配置 1. maxThreads 爬虫的线程数 2. startURL 爬虫开始的URL 3. checkFilter 爬虫只抓取指定的URL(采用正则表达式匹配) 4. urlFilter 爬虫提供给分析器的URL(采用正则表达式匹配) sucker
wyzq
- VC++调用winnet类,实现网页数据抓取-VC call winnet category, achieving data crawls website
ProxyGeter
- IE浏览器的插件,可以对抓取网页上的代理,输出为文本文件,方便其它的代理软件倒入-IE browser plug-ins, can grasp right on the agent's website, and the output of text files, Other convenience of the agent software into the
Snoopy-1.2.3.tar
- snoopy是一个php类,用来模仿web浏览器的功能,它能完成获取网页内容和发送表单的任务。 下面是它的一些特征: 1、方便抓取网页的内容 2、方便抓取网页的文字(去掉HTML代码) 3、方便抓取网页的链接 4、支持代理主机 5、支持基本的用户/密码认证模式 6、支持自定义用户agent,referer,cookies和header内容 7、支持浏览器转向,并能控制转向深度 8、能把网页中的链接扩展成高质量的url(默认) 9、方便提交数据并且获取返回
SubjectSpider_ByKelvenJU
- 1、锁定某个主题抓取; 2、能够产生日志文本文件,格式为:时间戳(timestamp)、URL; 3、抓取某一URL时最多允许建立2个连接(注意:本地作网页解析的线程数则不限) 4、遵守文明蜘蛛规则:必须分析robots.txt文件和meta tag有无限制;一个线程抓完一个网页后要sleep 2秒钟; 5、能对HTML网页进行解析,提取出链接URL,能判别提取的URL是否已处理过,不重复解析已crawl过的网页; 6、能够对spider/crawler程序的一些基本参数进行
RefreshCase
- 多线程搜索网页程序,主要实现了对网页内容的抓取!
fdminstV2.0.423
- dminstV2.0.423源码介绍: 是一个完全免费的多功能的下载和管理工具。支持多线程下载,支持计划任务下载,支持以目录列表查看检索站点内容,支持下载网页内容、图象、文件,支持抓取网页上的链接,支持下载整个网站内容
findpass
- 抓取网页密码,能够轻松的将网页上的密码抓取下来,功能比较简单实用
htmlparser1_6_20060610
- 一个网页页面分析器,用于抓取网页的内容,建立为树形层次结构。
webCatch
- 实现多线程WEB网页内容批量抓取。 代码少,一个文件搞定。
GetDonews
- 抓取别人网页的一个例子,可以把所有链接取下来
BFFetch
- C#编写的网页内容抓取工具,多线程采集,效率很高
miniSearch
- 搜索,2006年4月开发出来。开发之初,搜索就将自己的目标定位于打造专业化的搜索引擎。力争用“最”短的时间为广大搜索用户提供“最”有用的信息。 搜索目前主要提供“美容经验” “大杂烩” “旅行资讯”三个领域的网页信息。 注:我们提供各行业专业搜索引擎索引库定制服务,您只需提供需要索引的网址,我们便会为您提供强大的网页信息抓取服务,丰富您的搜索引擎数据库,抓取内容可嵌入本搜索系统中。我们按所提供的网址数量收费。欢迎广大公司、站长和个人联系!
3
- 网页密码抓取
nicewords_2.0.0128_for_3790_4659.tar.dezend_cc_php
- Nicewords-Dzend版 Nicewords是由工作在顶级门户网站的几名资深高级工程师利用爬虫技术(蜘蛛机器人,spider)、分词技术和网页萃取技术,结合白帽SEO(规避了一切风险的搜索引擎优化),利用URL重写技术、缓存技术,使用PHP语言开发的一套能根据设置的关键词自动抓取互联网上的相关信息、自动更新的WEB智能建站系统。利用NiceWords智能建站系统,只需要在配置页面上设置几个关键词,NiceWords就能全自动的生成一套能自动更新的网站了。 您要做的仅仅是设置几个关键词