CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 Internet/网络编程 搜索引擎 搜索资源 - space time

搜索资源列表

  1. SkypeClient

    0下载:
  2. 1、支持无限级分类,无限添加网站; 2、动态生成HTML网页文件; 3、动态生成静态搜索目录,大大减轻了服务器负担; 4、对每一个登录网站进行审核管理; 5、搜索关键词具有空格分别功能,例如:“电脑 游戏”搜索引擎会找出 关于“电脑”和“游戏”的网站; 6、方便使用的网页模板,随时做出您的个性化网页; 7、动态设置网站在搜索结果、分类目录里的排名排序; 8、可以设置登录的网站出现在多个不同分类目录上,而不需要多次登录-a support unlimited c
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:367334
    • 提供者:林新
  1. aspseek

    0下载:
  2. ASPSeek是一个C++编写的互联网搜索引擎,并使用了STL库。它主要包括一个检索机器人,一个搜索守护程序,和一个搜索前端(CGI或者是Apache模块)。它大概可以检索几百万个URLs,来查找给定的短语和单词,并使用通配符,进行布尔搜索。搜索结果可以限定在给定的时间或站点,站点空间,并按照相关性或者时间进行排序(这里面使用了一些非常酷的技术)。ASPSeek可以应用于很多语言和编码中(甚至包括多字节语言如中文)。它为多个站点做了优化。(多线程检索,同步DNS查询, 按站点将结果分组, Web
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:1157208
    • 提供者:qiu
  1. clucene_src_for_chinese

    0下载:
  2. 汉化CLucene今天,把CLucene的程序改了一下,可以支持汉字了。1.在vc 6编译 2.还不支持分词,但支持汉字,要索引的文本词与词之间用空格隔开。3.只是匆匆改了一下,见demo/IndexFiles.cpp,有问题可以与我联系。有空时改完善些。 -finished CLucene today, CLucene procedures changed a bit in support of the Chinese characters. 1. In vc 6 2 comp
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:385552
    • 提供者:lucence12
  1. c-vi

    0下载:
  2. 实用网址2007 1:整体美化,优化后台 2:增加了常用邮箱无忧登陆栏 3:增加了数个二级频道,使你的网站在最短的时间内提升排名 4:修正了一些小的BUG 5:分类更加详细,更加人性化! 6:新增个人网址导航功能(特色); 7:使用论坛等外部数据库用户表功能; 安装方法: 1:将源码全部上传到网站空间,进入后台管理页面 2: 点击“网站信息管理”,修改其中的网站信息 3:点击“生成html管理”,生成网站页面 4:后台管理目录:admin/
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:588580
    • 提供者:agi
  1. LuceneDesktop_1.0

    0下载:
  2. lucene的检索算法属于索引检索,即用空间来换取时间,对需要检索的文件、字符流进行全文索引,在检索的时候对索引进行快速的检索,得到检索位置,这个位置记录检索词出现的文件路径或者某个关键词。 -Lucene search algorithm belonging to Index Search, which uses space in exchange for time on the need to retrieve a document, character stream full-text
  3. 所属分类:Search Engine

    • 发布日期:2017-03-27
    • 文件大小:309899
    • 提供者:wentian
  1. collect

    0下载:
  2. 简易采集爬虫 # 1.我只做了一个收集url的功能,如果需要将数据入库,可在 parseData 函数里面写处理代码 # 2.需要sqlite3或者pysqlite支持 # 3.可以在DreamHost.com空间上面运行 # 4.可以修改User-Agent冒充搜索引擎蜘蛛 # 5.可以设置暂停的时间,控制采集速度-Simple collection reptiles# 1. I have only had a collection of url feature, if y
  3. 所属分类:Search Engine

    • 发布日期:2017-03-30
    • 文件大小:5192
    • 提供者:wangyh123
  1. Simple-collection-of-reptiles

    0下载:
  2. 简易采集爬虫 # 1.我只做了一个收集url的功能,如果需要将数据入库,可在 parseData 函数里面写处理代码 # 2.需要sqlite3或者pysqlite支持 # 3.可以在DreamHost.com空间上面运行 # 4.可以修改User-Agent冒充搜索引擎蜘蛛 # 5.可以设置暂停的时间,控制采集速度- Simple collection of reptiles # 1 I just made a collection of URL functi
  3. 所属分类:Search Engine

    • 发布日期:2017-03-28
    • 文件大小:4498
    • 提供者:jt
搜珍网 www.dssz.com