CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 源码下载 Internet/网络编程 搜索引擎 搜索资源 - URL

搜索资源列表

  1. madengine.zip

    0下载:
  2. 根据特定URL地址读取所有页面自动建立索引文件的搜索程序
  3. 所属分类:搜索引擎

    • 发布日期:
    • 文件大小:25.54kb
    • 提供者:
  1. BeeCollector

    0下载:
  2. 小蜜蜂采集器文章采集器使用指南。可以添加网站和URL-Bee article collector collector use of the guidelines. They can add websites and the URL
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:1.01mb
    • 提供者:yxkj
  1. softhy635a

    0下载:
  2. 1. 支持 PHP Web程序, 支持 mysql 数据库, 需要安装mysql odbc驱动程序. 2. Web界面的 FTP 内容浏览. 3. Web界面的 FTP 文件内容搜索. 4. FTP摘要信息,文件总数目,文件总容量,最后更新日期. 5. FTP发布页面URL地址关联. 6. 索引引擎程序采用VC7.1编译,需要mfc71.dll库的支持-1. PHP Web applications, support mysql database, need to insta
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:176.96kb
    • 提供者:南晓斐
  1. jocws500

    1下载:
  2. 可以帮助建立网站的搜索目录,能够高速建立目标URL数据库,提取超过70亿网页、目录及搜索引擎中的metadata(标题,关键字,描述)信息,并和用户的关键词作匹配 -can help establish a web site's search directory, a high-speed target URL database, Extraction of more than 7 billion web pages, directory and search engine
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:484.91kb
    • 提供者:施永仁
  1. turbo_cwcshop

    0下载:
  2. 系统搭建在Utility-Layer Framework之上 整个系统基于UTF8编码,全面国际化支持,适合任何语言 商城适合销售任何商品 顾客购物流程非常流畅,不产生阻塞感,有良好的购物体验 (Utility-Layer Framework特性之一) 支持注册和非注册用户购物 优良的缓存特性和特别的异步更新数据设计提供了大负载的支持 (Utility-Layer Framework特性之一) 对GOOGLE有最好的亲和度 - 通过独特的URL重写技术,对所有商品页面和
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:6.98mb
    • 提供者:wenwu
  1. spider_demo

    0下载:
  2. C#编写的spider demo 主要实现多线程的网页抓取及网页内容中URL的提取-prepared by the spider demo main multithreaded website crawls and website content URL Extraction
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:31.56kb
    • 提供者:余风
  1. labn

    0下载:
  2. .面向搜索引擎设计---使用Url重写技术,增加搜索引擎收录的机会。 2.界面友好,操作简便 性能进行了优化,速度快。 3.Aspx文件全部采用codebehind进行代码分离,界面修改容易。 4.系统管理员可设置默认风格,用户可自由选择系统风格。 5.可设推荐新闻和首页新闻. 6.可设置首页滚动图片,并自动生成缩略图。 7.新闻图片可以方便的在线上传。 8.新闻审核和浏览计数功能。 9.采用(类似Word)的编辑方式,可以方便的进行图文新闻混排。
  3. 所属分类:搜索引擎

    • 发布日期:2014-01-16
    • 文件大小:729.4kb
    • 提供者:gfgdf
  1. getwebpage

    0下载:
  2. 用c++编写的一个用于获得互联网网站url的源代码
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:8.52kb
    • 提供者:wenya
  1. cjbt

    0下载:
  2. 1.BT下载页和种子列表以及搜索列表页均采用伪静态化URL,更易于被搜索引擎收录。 2.内置百度的热门电影、电视剧、动漫卡通、软件等TOP50关键字排行小偷. 3.强大的BT搜索功能. 4.可以在Linux和windows等系统服务器上正常运行。 5.除去了一些不必要的代码,提高了程序运行效率。 6.BT数据同步更新程序,每天更新几百条BT种子 7.任意自定义添加广告(请自行修改www文件夹下的文件) 8.高速获取数据,无需维护管理,一分钟即可建立个性化的BT站点!
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:31.28kb
    • 提供者:keris
  1. spider

    0下载:
  2. 该工程产生一个象蜘蛛一样行动的程序,该程序为断开的URL链接检查WEB站点。链接验证仅在href指定的链接上进行。它在一列表视图CListView中显示不断更新的URL列表,以反映超链接的状态。本工程能用作收集、索引信息的模板,该模板将这些信息存入到可以用于查询的数据库文件中。
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:125.53kb
    • 提供者:haha
  1. incSpideraspnet

    0下载:
  2. 蜘蛛登陆追捕器 (网络版)0.12 版 Spider是搜索引擎的一个自动程序。它的作用是访问互联网上的html网页,建立索引数据库,使用户能在搜索引擎中搜索到贵网站的网页。 搜索引擎派出“蜘蛛”程序检索现有网站一定IP地址范围内的新网站,而对现有网站的更新则根据该网站的等级不同有快慢之分。一般来说,网站网页等级越高,更新的频率就越快。搜索引擎的“蜘蛛”同一天会对某些网站或同一网页进行多次爬行,知道蜘蛛的运动规律,对于更新网页、了解搜索引擎收录的收录情况等等有相当重要的作用。
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:3.45kb
    • 提供者:dfd
  1. urlrewriternet20rc1b6

    0下载:
  2. 虚拟主机URL重写,让你的网站有非常清晰的结构,非常有利于SEO优化
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:177.25kb
    • 提供者:temper
  1. spider

    0下载:
  2. 网络蜘蛛Spider,实现了从网络的自动获取Url并保存。
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:3.43kb
    • 提供者:王文荣
  1. RssFeedSearch

    0下载:
  2. 输入一个URL,以这个URL为基础,搜索Rss Feed。
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:11.67kb
    • 提供者:luohao
  1. webspider

    0下载:
  2. 用java写的一个网络蜘蛛,他可以从指定的URL开始解析抓取网页上的URL,对于抓取到的URL自动分成站内外URL,并可以设置抓取的深度。
  3. 所属分类:搜索引擎

    • 发布日期:2008-10-13
    • 文件大小:4.81kb
    • 提供者:纯哲
  1. 网络爬虫

    1下载:
  2. 本人自己用VC++开发的网络爬虫程序,可以实现整个网站的抓取,网页中所有的URL重新生成.-I own VC++ development with the network of reptiles procedures, can crawl the entire site, the page URL to re-generate all.
  3. 所属分类:搜索引擎

  1. Robot

    0下载:
  2. 网上机器人(Robot)又被称作Spider、Worm或Random,核心目的是为获取在Internet上的信息。机器人利用主页中的超文本链接遍历Web,通过URL引用从一个HTML文档爬行到另一个HTML文档。网上机器人收集到的信息可有多种用途,如建立索引、HTML文件的验证、URL链接验证、获取更新信息、站点镜象等。 -Internet Robot (Robot) also known as Spider, Worm, or Random, the core objective is t
  3. 所属分类:Search Engine

    • 发布日期:2017-03-26
    • 文件大小:6.56kb
    • 提供者:陈中华
  1. larbin-2.6.3

    0下载:
  2. larbin是一种开源的网络爬虫/网络蜘蛛,由法国的年轻人Sébastien Ailleret独立开发。larbin目的是能够跟踪页面的url进行扩展的抓取,最后为搜索引擎提供广泛的数据来源。 Larbin只是一个爬虫,也就是说larbin只抓取网页,至于如何parse的事情则由用户自己完成。另外,如何存储到数据库以及建立索引的事情 larbin也不提供。   latbin最初的设计也是依据设计简单但是高度可配置性的原则,因此我们可以看到,一个简单的larbin的爬虫可以每天获取500万的网
  3. 所属分类:Search Engine

    • 发布日期:2017-03-23
    • 文件大小:164.31kb
    • 提供者:zfnh
  1. URL-search-engine

    0下载:
  2. 网络编程实验之搜索引擎的实现,可以实现通过输入url查找网页内容-Network programming experiments to achieve search engine, can find content by entering the url
  3. 所属分类:Search Engine

    • 发布日期:2017-03-30
    • 文件大小:954byte
    • 提供者:yeye
  1. url

    0下载:
  2. url采集器,采集需要的东西,懂的自然懂-url search
  3. 所属分类:Search Engine

    • 发布日期:2017-05-09
    • 文件大小:1.62mb
    • 提供者:skster
« 12 3 »
搜珍网 www.dssz.com