CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 Internet/网络编程 搜索引擎 搜索资源 - 线程

搜索资源列表

  1. GetImage_Eng

    0下载:
  2. 类似网络爬虫,从一个网页“爬”到另一个网页,然后选择图片下载。多线程。 可以用来按照一定规则下载网页中的元素,如图片、网页、flash等,举例如下-download images or other stuffs by analyzing webpages, search for webpages like a spider. you can config the downloading and crawling strategy in the program
  3. 所属分类:Search Engine

    • 发布日期:2017-03-28
    • 文件大小:330410
    • 提供者:yk
  1. SearchCrawler

    0下载:
  2. java编写的网络爬虫程序用于检索网站资源和信息,多线程实例-java web crawler program written for searching website resources and information ,a multi-threaded example
  3. 所属分类:Search Engine

    • 发布日期:2017-03-26
    • 文件大小:2083
    • 提供者:xzz
  1. spider

    0下载:
  2. 一个很不不错的多线程网络爬虫程序.源码清晰-A very good multi-threaded web crawler program. Source clearly
  3. 所属分类:Search Engine

    • 发布日期:2017-03-31
    • 文件大小:643789
    • 提供者:赵永杰
  1. MySo

    0下载:
  2. 例子以拍拍网为例下载网页,最大线程1024,但是要比较好的网络条件下,机器配置比较高才不会处问题哦,在服务器上测试效果很好。-Patted network example to download page as an example, the biggest thread 1024, but relatively good network conditions, the machine configuration will not compare Gao Cai Department issue
  3. 所属分类:Search Engine

    • 发布日期:2017-04-02
    • 文件大小:1199
    • 提供者:85
  1. 56

    0下载:
  2. 多线程文件搜索,需要的朋友可以下载下来看看,学习学习-Multi-threaded file search, necessary friends can download them to see, study study
  3. 所属分类:Search Engine

    • 发布日期:2017-05-03
    • 文件大小:30554
    • 提供者:阿鹰
  1. webSpider

    0下载:
  2. GOOGLE查询分析注入系统 一,通过关键字检索把提取前10个网站的网址 二,通过提取的网站地址做为搜索关键字搜索该网站地址的所以查询结果 三,实现GOOGLE的自动分页排查所有结果直到末页; 四,根据查询后的结果对每一个结果链接做为索引进入网站分析当前页与当前页所有的站内链接页进行分析检测是否有留言板、论坛或其它有注入特征的页面如有发现则将可疑网站及表单信息记录到数据库中,在此环节中加入了多线程,用户在搜索时初始线程数,每个线程针对一个网站的索引页面,如有线程完成了单个网站
  3. 所属分类:Search Engine

    • 发布日期:2017-05-29
    • 文件大小:12251276
    • 提供者:eera
  1. multhread

    0下载:
  2. vc++多线程技术实现的文件搜索工具,仅供参考,版权他人所有-vc++ multi-threading technology file search tool
  3. 所属分类:Search Engine

    • 发布日期:2017-04-03
    • 文件大小:53436
    • 提供者:yxd
  1. spider

    0下载:
  2. 网络蜘蛛,用于搜索引擎在网上自动搜集网页。 是一个用抢先式多线程技术实现在网上用网络蜘蛛/机器人聚集信息的程序-Web spider, web search engine for automatic collection of Web pages.
  3. 所属分类:Search Engine

    • 发布日期:2017-03-29
    • 文件大小:66900
    • 提供者:szx
  1. multi-threaded

    0下载:
  2. 基于Java的多线程网络爬虫设计与实现,应用的是JAVA技术,制作网络爬虫-Java-based multi-threaded Web crawler design and implementation, the application is JAVA technology, production of web crawlers
  3. 所属分类:Search Engine

    • 发布日期:2017-03-26
    • 文件大小:3487
    • 提供者:尹海文
  1. 01

    0下载:
  2. 本文在本课题 组开发基于内容图像搜索引擎系统V1.0研究基础上,引入多线程技术,提出多线程Web 图像搜索器的磁盘I/O缓冲方法。在深入分析和比较几种常见的搜索策略基础上,探索 出适合于多线程Web图像搜索器的新搜索策略。最后开发了多线程Web图像搜索器子 系统,完成与图像检索子系统的融合,构建出基于内容的图像搜索引擎系统V2.0。 -Using content-based image retrieval technology on internet for searchin
  3. 所属分类:Search Engine

    • 发布日期:2017-03-30
    • 文件大小:968833
    • 提供者:武燕
  1. spider

    0下载:
  2. 是网络爬虫方面的PDF格式的文档资料,主要介绍了爬网方面的技术原理及代码示例,涉及到JAVA方面的线程知识。-Reptiles in the network documentation in PDF format, focuses on the crawl technical principles and code samples, related to the knowledge of JAVA in the thread.
  3. 所属分类:Search Engine

    • 发布日期:2017-04-10
    • 文件大小:1204352
    • 提供者:
  1. ComicSpider

    0下载:
  2. 本程序实现了对漫画的自动搜索与自动下载,通过使用httpclient及htmlparser爬取获得图像路径,并采取多线程方式进行下载,速度很快,可以二次开发。-This program implements an automatic search for comics and automatically download, using httpclient and htmlparser crawling get the image path, and take multiple threads
  3. 所属分类:Search Engine

    • 发布日期:2017-05-23
    • 文件大小:7484033
    • 提供者:huqian
  1. MFCSPIDER

    0下载:
  2. 用mfc写的网络爬虫的程序,运行流畅,多线程实现。可以自己设置路径。-Mfc write web crawler program, run smooth, multi-threaded implementation. You can set up their own path.
  3. 所属分类:Search Engine

    • 发布日期:2017-04-09
    • 文件大小:1622624
    • 提供者:huochai
  1. WebApplication1

    0下载:
  2. 利用c#实现的一个多线程搜索引擎例子,当检索完成时,就可以得到每一个线程的返回结果-Multi-threaded search
  3. 所属分类:Search Engine

    • 发布日期:2017-04-03
    • 文件大小:25686
    • 提供者:young
  1. ZhuaQu

    0下载:
  2. JAVA实现基本的页面抓取,运用多线程过滤和筛选,网络爬虫-JAVA Implementation of the basic page capture, filtering and screening of the use of multi-threaded Web crawler
  3. 所属分类:Search Engine

    • 发布日期:2017-03-23
    • 文件大小:486452
    • 提供者:李振乾
  1. pythonpachong

    0下载:
  2. python爬虫代码,能够爬取指定页面的网页,保存在本地磁盘上,可以设定任意线程进行爬取。-python crawler code can crawl the pages of the specified page is stored on the local disk, you can set any thread for crawling.
  3. 所属分类:Search Engine

    • 发布日期:2017-03-30
    • 文件大小:8507
    • 提供者:杨庄
  1. CSharpcrawler

    0下载:
  2. 网络爬虫实现源代码 c++语言开发 可以设置线程数和爬行目标网址-Web crawler source code c++ language development can set the number of threads and crawling destination URL
  3. 所属分类:Search Engine

    • 发布日期:2017-03-23
    • 文件大小:904123
    • 提供者:房志伟
  1. spider2006

    1下载:
  2. 可配置:线程数、线程等待时间,连接超时时间,可爬取文件类型和优先级、下载目录等。 状态栏显示统计信息:排入队列URL数,已下载文件数,已下载总字节数,CPU使用率和可用内存等。 有偏好的爬虫:可针对爬取的资源类型设置不同的优先级。 健壮性:十几项URL正规化策略以排除冗余下载、爬虫陷阱避免策略的使用等、多种策略以解析相对路径等。 较好的性能:基于正则表达式的页面解析、适度加锁、维持HTTP连接等。 -C# spider.
  3. 所属分类:Search Engine

    • 发布日期:2017-08-30
    • 文件大小:31744
    • 提供者:rossuel
  1. NwebCrawler

    0下载:
  2. NwebCrawler是用C#写的一款多线程网络爬虫程序,它的实现原理是先输入一个或多个种子URL到队列中,然后从队列中提取URL(先进先出原则),分析此网页寻找相应标签并获得其href属性值,爬取有用的链接网页并存入网页库中,其中用爬取历史来记录爬过的网页,这样避免了重复爬取。提取URL存入队列中,进行下一轮爬取。所以NwebCrawler的搜索策略为广度优先搜索。采用广度优先策略有利于多个线程并行爬取而且抓取的封闭性很强。-NwebCrawler is a multi-threaded w
  3. 所属分类:Search Engine

    • 发布日期:2017-11-06
    • 文件大小:14313
    • 提供者:sunshine
  1. NWebCrawler

    1下载:
  2. 网络爬虫, * 可配置:线程数、线程等待时间,连接超时时间,可爬取文件类型和优先级、下载目录等。 * 状态栏显示统计信息:排入队列URL数,已下载文件数,已下载总字节数,CPU使用率和可用内存等。 * 有偏好的爬虫:可针对爬取的资源类型设置不同的优先级。 * 健壮性:十几项URL正规化策略以排除冗余下载、爬虫陷阱避免策略的使用等、多种策略以解析相对路径等。 * 较好的性能:基于正则表达式的页面解析、适度加锁、维持HTTP连接等。-Web crawler
  3. 所属分类:Search Engine

    • 发布日期:2017-03-27
    • 文件大小:386692
    • 提供者:wu
« 1 23 »
搜珍网 www.dssz.com