搜索资源列表
htmkey
- 抓取网页中的关键字,内有完整的工程文件,源码,窗体,和编译后的程序-crawls website keywords, within a complete engineering documents, source code, forms, and the compiled procedures
comtech
- java抓取网页数据,jsoup+Xpath解析,hibernate事务管理,各个功能点分开处理,结构清晰,自己找相关jar包倒入- java web crawl data, jsoup+ Xpath parsing, hibernate transaction management, various functional point separately, clear structure, find the relevant jar package into its own
ExpressQuery
- 1,本套源码功能为快递查询,当前支持申通、EMS、顺丰 圆通 中通 韵达 天天 汇通 全峰 德邦 宅急送,如需增加新快递公司,可直接修改代码。 2,涉及知识点: (1)抓取网页内容。 (2)JSON数据处理。 (3)托管dll文件嵌入发布的exe文件内,初次运行时进行释放。为实现分发的为单文件版exe。 (4)快递API接口应用。(此接口源于快递100官网,非其发布的API,而是我跟踪官网ajax查询调用分析出来的,只需要两个参数即可返回数据) (5)一些c#控
VBzhuat
- vb抓取网页小程序,可将图像保存为BMP格式,供初学者参考。-VB grab Webpage small program, image can be saved as BMP format, for beginners reference.
www
- php抓取 快速抓取网页知识,方便快捷地抓取网页知识-php curl get the point
easyspike
- 能够抓取网页的标题,并且生成文档保存到特定路径,同时生成日志.-It can able to grab the title of the page and save the document to generate a specific path, and generate a log.
Bohaoqi
- 使用API来自动拨号换取IP,并自动记录到数据库中,如果该IP在一天内重复,则可以继续自动换IP。直到IP不相同为止,一般可以用来抓取网页,发送信息等限制IP的网站。-Using the API to automatically dial in exchange for IP, and automatically record to the database, if the IP is repeated in a day, you can continue to automatically ch
studydocmanege
- VB6写的一款笔记软件的源码,里面包含有很多窗体控件的使用技巧,比如MSHFlexgrid表格、TreeView的动态加载、Ado的增删改查等。 本软件提供对日常生活、工作中的学习笔记、图文并茂存储以及自由抓取网页中好的文章进行管理存储。知识点: 1、MSHFlexgrid 表格的灵活运用,其中的表格列项显示、隐藏功能很有参考意义,另外还有列项位置的动态加载。 2、异性窗体,圆形窗体使用。 3、自制专业界面,虽然只有一个雏形,不过已经提供了一个简单的思路,菜单、选项
first
- 若用有向网表示网页的链接网络,其中顶点表示某个网页,有向弧表示网页之间的链接关系。试设计一个网络蜘蛛系统,分别以广度优先和深度优先的策略抓取网页。-If there indicate that the page with links to the network to the network, where the vertices represent a page, there are links to the arcs represent relationships between pages
MyProxy
- VC socket抓取网页获取代理信息,作者:邱景栋。程序通过socket 抓取网页文件,并读取指定网址的代理信息。-VC socket crawl the web to obtain the proxy information, the author: Qiu Jingdong. Program files crawled pages socket, and read the proxy information specified URL.
htmkey
- 抓取网页中的关键字,内有完整的工程文件,源码,窗体,和编译后的程序-crawls website keywords, within a complete engineering documents, source code, forms, and the compiled procedures
p_fangbaidu_kuaso
- 仿百度搜索引擎软件蜘蛛组件包括三大功能模块:链接采集、网页分析、无效网页扫描; 自动识别GB2312、BIG5、UTF-8、Unicode等网页编码; 文件类型证察防止非文本类型文件采集; 蜘蛛可以采集ASP、PHP、JSP等动态数据网页和HTML、SHTML、XHTML等静态网页; 支持续采功能,如果因系统、网络等故障问题终止采集,系统将在下次启动采集时提示您是否“继续采集”或“结束任务”; 采集任务管理功能可以设置多个采集任务安排计划工作,每一个采集任务将会
HttpClientTest
- 在java中使用httpclient抓取网页源码-httpclient httpclient httpclient httpclient httpclient httpclient
delphi-bho-control
- dephi 在IE中的插件,可以抓取网页内容-delphi developed control,snap web content
fypltxsj_v1.4
- 风越网页批量填写数据提取软件,可自动分析网页中表单已经填写的内容,保存为填表规则,使用时,只需调用此规则便可自动填写表单、点击网页元素,抓取网页文本内容、下载指定的网页链接文件。 本软件支持的页面填写类型、控件元素种类更多,准确性更高。其它填表工具一般不支持的:多框架页面(frame)、多选列表、HTML文本(ifr a me)输入方式,本软件一般都可正确填写。 本软件不仅可用于普通办公填表,更可扩展为批量注册、投票、留言、商品秒杀、舆情导控、刷-信誉、车牌抢注等工具。 -W
spider
- python 编写的一个爬虫程序,广度优先抓取网页-a Web crawler written by python
whearth
- 抓取天气代码,抓取网页天气,不完善,供学习研究使用-c weather code
Baidu-Post-Bar-reptilesv0.5
- 百度贴吧爬虫 把互联网比喻成一个蜘蛛网,那么Spider就是在网上爬来爬去的蜘蛛。 网络蜘蛛是通过网页的链接地址来寻找网页的。 从网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其它链接地址, 然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网站所有的网页都抓取完为止。 如果把整个互联网当成一个网站,那么网络蜘蛛就可以用这个原理把互联网上所有的网页都抓取下来。 这样看来,网络爬虫就是一个爬行程序,一个抓取网页的程序。
Web-Spider
- 图的遍历。若用有向网表示网页的链接网络,其中顶点表示某个网页,有向弧表示网页之间的链接关系。试设计一个网络蜘蛛系统,分别以广度优先和深度优先的策略抓取网页。-Graph traversal. If the web page to the network by indicating links network where vertices represent a page, there are links to the arcs represent the relationship between
rssReader
- java swing 写的界面rss阅读器,支持在线阅读,下载本地,在线订阅,以及抓取网页内容,还具有皮肤效果,包括所有文档-java swing wrote rss reader interface, support online reading, download local, online subscr iptions, as well as crawling web content, but also has skin effects, including all documents