搜索资源列表
20099121003360
- 本网站采用了先进的.netMVC技术,url地址为html,便于搜索引擎的抓取,布局为div+css,后台是extjs框架,采用了高级搜索,jquery+ajax无刷新全文索引.便于大家学习,有补足之处,请留言联系 直接用vs2008打开本网站,然后点击default.aspx页面右键,设为起始页面,然后按F5直接可以运行。后台暂时无登录名和密码的设置。 -This site uses advanced. NetMVC technology, url address is html,
sat_dbase
- Lygnsat上的TP parse工具,可以自动抓取网站上的卫星TP信息-Lygnsat on TP parse tool that can automatically crawl the site information on the satellite TP
FeachData
- csharp写的用于抓取饭桶,网站数据,系统包括多线程处理,-csharp write for crawling eater, site data
3
- 网络安全,可以实现抓取数据包、网站、协议信息-get a pakege
QueryLocating
- 通过C#模拟访问指定网址,发送手机号码到网站上面去,程序抓取结果,并得到结果集。-Analog access to the specified URL using C# to send the phone number to the site above to go to the program crawl results, and the result set.
DemoURL
- 读取网页内容,抓取网站数据,通过网页或网站URL路径读取各种网页的源码和内容-Read the source and content of all pages to read web content to crawl the site data , web page or site URL path
Getleft-v1.2
- 你看到一个自己非常喜欢的网站,想把它抓下,但是有这么多页,一页一页储存太浪费时间了。这时,就用的上Getleft 了。Getleft是用 Tcl/Tk 编写的,功能与Teleport 或 GetRight类似,给它个URL,它便可以为你抓下所有连结上的网页。它非常实用,可以设定超级链接,下载网页的层数,要不要下载 JPG、GIF 等等的档,也可以设定要不要抓取 cgi等等。但是,它也有功能上的限制,例如对于 Java、JavaScripe、ASP、PHP 等等,仍是无法抓下。-You see a
WebNetCrawler
- 简单实现网络爬虫功能,抓取目标网站与关键字匹配的信息进行存储-Simple web crawler to crawl the target site with keyword matching information stored
333
- hon6 WAP爬虫小说系统程序特色 运行环境: PHP/Zend 1.内容自动抓取,让您远离繁忙的采集工作 2.抓取后自动生成静态文件,更新较快的栏目20分钟抓取一次,内容栏目600分钟抓取一次,做到了每日更新两次! 3.程序支持整合传承导航 4.排版简单,模版式排版! 程序使用 1.首先使用记事本打开程序的config.hon6文件,修改网站名称,网站域名参数,还有是否打开传承接口,打开接口后必须配置好MSSQL链接参数,目前只支持链接MSSQL不支持ACCESS
crab_news
- python 多线程抓取指定网站的信息,返回标题,摘要和地址。-python multithreading crawl designated website to return to the title, abstract and address.
meilishuo
- 美丽街导购网站的源码,包括数据库,抓取的是淘宝的链接,可以上传商品,修改页面风格-Beautiful Street shopping guide website source code, including database, crawl Taobao links, you can upload the commodity, modify page style
sxw_flash_cms_4_baild20121228
- SXW Flash整站系统[SXW Flash CMS] 版本:4.0 Build20121228 更新: 1.解决了一个网站信息泄露问题; 2.修正视频、音乐上传浏览器兼容; 3.新增网站地图功能;更方便搜索引擎抓取网站页面。 SXW Flash整站系统[SXW Flash CMS] 版本:4.0更新说明: 1.全站系统结构调整。将数据存储文件集中放置,让网站可以结合服务器权限设置达到绝对安全。 2.加入智能设备访问专用界面。介于当前网络移动智能设备访问量逐渐增加
WebSearch-v1.4
- python编写的网页爬虫,根据指定的关键字,从百度、google、Bing、搜库等网站上抓取视频链接并存为文件。-web crawler written in python, based on the specified keywords, grab the video link from the website of Baidu, Google, Bing, search library co-exist as a file.
crawler-on-news-topic-with-samples
- java做的抓取sohu所有的新闻;可以实现对指定站点新闻内容的获取;利用htmlparser爬虫工具抓取门户网站上新闻,代码实现了网易、搜狐、新浪网上的新闻抓取;如果不修改配置是抓取新浪科技的内容,修改配置可以抓取指定的网站;实现对指定站点新闻内容的获取-java do crawl sohu news access to the designated site news content using htmlparser reptiles tools crawl news portal, c
Tseo_v4.1
- 强大的SEO网站优化功能,快速让您的网站在搜索引擎中脱颖而出,让更多的客户找到您。 企业SEO站 V4.1 无组件生成HTML 企业SEO网站安装: 1、上传至虚拟主机[根目录]。 2、若上传至虚拟主机根目录则要修改文件(特别注意修改 网站配置中 网站地址 域名+“/” 如然后 点击生成静态化 因为本站专注优化网址是绝对路径利于搜索引擎抓取)注意:子目录下可留空 3、网站常规设置(网站名称、网站关键词、网站描述、网站地址、联系方式、备案统计等)都在"网站配置"设置。 4、
Tseo_v4.5
- 强大的SEO网站优化功能,快速让您的网站在搜索引擎中脱颖而出,让更多的客户找到您。 企业SEO站 V4.5 无组件生成HTML 企业SEO网站安装: 1、上传至虚拟主机[根目录]。 2、若上传至虚拟主机根目录则要修改文件(特别注意修改 网站配置中 网站地址 域名+“/” 如然后 点击生成静态化 因为本站专注优化网址是绝对路径利于搜索引擎抓取)注意:子目录下可留空 3、网站常规设置(网站名称、网站关键词、网站描述、网站地址、联系方式、备案统计等)都在"网站配置"设置。 4、
spider02
- 从某个网站上抓取相应的文字内容。可以输入参数确定抓取的章节。-Crawl text content from a website. Can enter parameters crawl chapters.
newsparser
- 基于HTMLPARSER,采用职责链模式进行定向新闻抓取的代码,通过定义正则模式,可以抓取任何新闻网站的内容。-Based HTMLPARSER, use in directional news crawl , by defining the regular mode, you can grab the content of any news site.
ROSTDM
- 网页文本抓取,通过设置XML可以批量抓取任意网站的任意数据-Web text crawl, crawl any website any data volume by setting XML
wo99
- 抓取程序,用来抓取相关网站的音乐,并且下载。-Crawler to crawl websites music, and download.