搜索资源列表
madengine.zip
- 根据特定URL地址读取所有页面自动建立索引文件的搜索程序
BeeCollector
- 小蜜蜂采集器文章采集器使用指南。可以添加网站和URL-Bee article collector collector use of the guidelines. They can add websites and the URL
softhy635a
- 1. 支持 PHP Web程序, 支持 mysql 数据库, 需要安装mysql odbc驱动程序. 2. Web界面的 FTP 内容浏览. 3. Web界面的 FTP 文件内容搜索. 4. FTP摘要信息,文件总数目,文件总容量,最后更新日期. 5. FTP发布页面URL地址关联. 6. 索引引擎程序采用VC7.1编译,需要mfc71.dll库的支持-1. PHP Web applications, support mysql database, need to insta
jocws500
- 可以帮助建立网站的搜索目录,能够高速建立目标URL数据库,提取超过70亿网页、目录及搜索引擎中的metadata(标题,关键字,描述)信息,并和用户的关键词作匹配 -can help establish a web site's search directory, a high-speed target URL database, Extraction of more than 7 billion web pages, directory and search engine
turbo_cwcshop
- 系统搭建在Utility-Layer Framework之上 整个系统基于UTF8编码,全面国际化支持,适合任何语言 商城适合销售任何商品 顾客购物流程非常流畅,不产生阻塞感,有良好的购物体验 (Utility-Layer Framework特性之一) 支持注册和非注册用户购物 优良的缓存特性和特别的异步更新数据设计提供了大负载的支持 (Utility-Layer Framework特性之一) 对GOOGLE有最好的亲和度 - 通过独特的URL重写技术,对所有商品页面和
spider_demo
- C#编写的spider demo 主要实现多线程的网页抓取及网页内容中URL的提取-prepared by the spider demo main multithreaded website crawls and website content URL Extraction
labn
- .面向搜索引擎设计---使用Url重写技术,增加搜索引擎收录的机会。 2.界面友好,操作简便 性能进行了优化,速度快。 3.Aspx文件全部采用codebehind进行代码分离,界面修改容易。 4.系统管理员可设置默认风格,用户可自由选择系统风格。 5.可设推荐新闻和首页新闻. 6.可设置首页滚动图片,并自动生成缩略图。 7.新闻图片可以方便的在线上传。 8.新闻审核和浏览计数功能。 9.采用(类似Word)的编辑方式,可以方便的进行图文新闻混排。
getwebpage
- 用c++编写的一个用于获得互联网网站url的源代码
cjbt
- 1.BT下载页和种子列表以及搜索列表页均采用伪静态化URL,更易于被搜索引擎收录。 2.内置百度的热门电影、电视剧、动漫卡通、软件等TOP50关键字排行小偷. 3.强大的BT搜索功能. 4.可以在Linux和windows等系统服务器上正常运行。 5.除去了一些不必要的代码,提高了程序运行效率。 6.BT数据同步更新程序,每天更新几百条BT种子 7.任意自定义添加广告(请自行修改www文件夹下的文件) 8.高速获取数据,无需维护管理,一分钟即可建立个性化的BT站点!
spider
- 该工程产生一个象蜘蛛一样行动的程序,该程序为断开的URL链接检查WEB站点。链接验证仅在href指定的链接上进行。它在一列表视图CListView中显示不断更新的URL列表,以反映超链接的状态。本工程能用作收集、索引信息的模板,该模板将这些信息存入到可以用于查询的数据库文件中。
incSpideraspnet
- 蜘蛛登陆追捕器 (网络版)0.12 版 Spider是搜索引擎的一个自动程序。它的作用是访问互联网上的html网页,建立索引数据库,使用户能在搜索引擎中搜索到贵网站的网页。 搜索引擎派出“蜘蛛”程序检索现有网站一定IP地址范围内的新网站,而对现有网站的更新则根据该网站的等级不同有快慢之分。一般来说,网站网页等级越高,更新的频率就越快。搜索引擎的“蜘蛛”同一天会对某些网站或同一网页进行多次爬行,知道蜘蛛的运动规律,对于更新网页、了解搜索引擎收录的收录情况等等有相当重要的作用。
urlrewriternet20rc1b6
- 虚拟主机URL重写,让你的网站有非常清晰的结构,非常有利于SEO优化
spider
- 网络蜘蛛Spider,实现了从网络的自动获取Url并保存。
RssFeedSearch
- 输入一个URL,以这个URL为基础,搜索Rss Feed。
webspider
- 用java写的一个网络蜘蛛,他可以从指定的URL开始解析抓取网页上的URL,对于抓取到的URL自动分成站内外URL,并可以设置抓取的深度。
网络爬虫
- 本人自己用VC++开发的网络爬虫程序,可以实现整个网站的抓取,网页中所有的URL重新生成.-I own VC++ development with the network of reptiles procedures, can crawl the entire site, the page URL to re-generate all.
Robot
- 网上机器人(Robot)又被称作Spider、Worm或Random,核心目的是为获取在Internet上的信息。机器人利用主页中的超文本链接遍历Web,通过URL引用从一个HTML文档爬行到另一个HTML文档。网上机器人收集到的信息可有多种用途,如建立索引、HTML文件的验证、URL链接验证、获取更新信息、站点镜象等。 -Internet Robot (Robot) also known as Spider, Worm, or Random, the core objective is t
larbin-2.6.3
- larbin是一种开源的网络爬虫/网络蜘蛛,由法国的年轻人Sébastien Ailleret独立开发。larbin目的是能够跟踪页面的url进行扩展的抓取,最后为搜索引擎提供广泛的数据来源。 Larbin只是一个爬虫,也就是说larbin只抓取网页,至于如何parse的事情则由用户自己完成。另外,如何存储到数据库以及建立索引的事情 larbin也不提供。 latbin最初的设计也是依据设计简单但是高度可配置性的原则,因此我们可以看到,一个简单的larbin的爬虫可以每天获取500万的网
URL-search-engine
- 网络编程实验之搜索引擎的实现,可以实现通过输入url查找网页内容-Network programming experiments to achieve search engine, can find content by entering the url
url
- url采集器,采集需要的东西,懂的自然懂-url search