搜索资源列表
945909!Wininet_获取网页内容_已调试通过
- 查看网页的内容,com编程,内有详细的解说,适合有一定基础的人下载.-check the content of the website, com programming, with detailed captions, a basis for the downloading.
类设置猎手的代理下载检验工具
- Vc++ 6.0开发的,类猎手 的代理下载检验工具. 能检验代理速度,支持HTTP协议,SOCKS4和SOCK5还需完善.支持导入导出代理列表文件 支持从网页上直接下载代理 -Vc 6.0, developed by category hunters hunters agent downloaded testing tools. Speed test agent can support HTTP, SOCKS4 and SOCK5 need to improve. Support for
webdownload
- 输入url可以深度下载网页并且可以指定下载深度-import url depth can be downloaded from the website and download specified depth
get_page
- 可以下载网页的原始格式,并可以模仿各种UA的小工具。主要用来调试和测试。
2002512114662
- 用socket下载网页,这对于下离线浏览器有一定的参考作用-socket used to download Web pages, which for the next off-line browser is a reference work
crawler
- 功能: 根据指定的网址,下载网页,并分析其中的URL继续下载,并将网页主要内容存为本地文件 为搜索引擎的索引的建立提供原材料
RUHEXIAZAIWANGYENEIRONG
- 网络编程入门。。。如何下载网页内容。。。如果有什么问题欢迎mail交流
HttpDownloader
- 网站下载是一个综合程序,能够下载网站中所有的网页地址,也可以下载网页中链接的其他网站内容,并且能够进行各种复杂设定。
httpdown.rar
- http协议下载文件vc实现,可以做网页图片采集,内容采集解压密码www.39g.com,http protocol to download files vc achieve, you can do page image acquisition, content acquisition unzip password www.39g.com
HttpGet
- 使用CInternetFile来下载网页,可以用来实现从网页获取数据的功能。-Use CInternetFile to the download page, can be used to obtain data from a web page functionality.
PerlWebCrawler
- Perl语言写的网络爬虫,给定一个初始的爬行网址,自动下载网页中的链接,爬行的深度设定为3-Web crawler written in Perl language, given an initial crawl website, a link to automatically download Web pages, the depth of crawl is set to 3
SearchEngine1.0
- 实现搜索引擎最基本的下载网页、建立倒排索引、关键词查询功能。程序的实现借助了libcurl库。-Search engine to achieve the most basic functionality of downloading page, seting up inverted index, keyword querying. Program implementation with the libcurl library.
GetImage_Eng
- 类似网络爬虫,从一个网页“爬”到另一个网页,然后选择图片下载。多线程。 可以用来按照一定规则下载网页中的元素,如图片、网页、flash等,举例如下-download images or other stuffs by analyzing webpages, search for webpages like a spider. you can config the downloading and crawling strategy in the program
Web-Crawler-Cpp
- 网页抓取,可以实现网页的下载,并过滤出想要的内容。很实用-Web crawling, Web page downloads can be achieved, and to filter out unwanted content. Very practical
winhttp
- 这是一个下载网页里面所有链接的程序,相信对写浏览器的朋友会有帮助-this is a download htmlpage programe
site_snagger_source_code
- 下载整个网页的程序源码 -The source for downloading the hole WebPage
multithreadwebspider
- vc6编写的多线程网络蜘蛛。功能:1、下载指定网址的网页文件,并可获得服务器的http响应信息。 2、可过滤出下载网页源码中的链接,文字,html标签,email地址 3、自动创建工作线程,检验过滤链接的有效性。-vc6 prepared multi-threaded web spider. Function: 1, download URL specified documents and access to the http server to respond to informati
sitesnag
- “网站下载”是一个综合程序,能够下载网站中所有的网页地址,也可以下载网页中链接的其他网站内容,并且能够进行各种复杂设定-sitesnag is a comprehensive program that can download Web site address all of the pages, you can download the page the content of other sites linked to, and can set all kinds of complicated
VC_WebServer
- 1.mywininet_1是一个通过inet来获取网页内容的程序; 2.web服务器是一个功能比较齐全的WEB服务器程序,通过该程序能够让读者深入了解HTTP的实现机理 3.浏览器是一个能够实现各种功能的浏览器,主要是使用了IE内核,能够实现大部分的IE功能; 4.网站下载是一个综合程序,能够下载网站中所有的网页地址,也可以下载网页中链接的其他网站内容,并且能够进行各种复杂设定,希望读者好好学习。 5.bbs高级程序开发是一个bbs客户单程序,能够根据bbs的协议原则,对每个字节
VC_WebServerSource
- 1.mywininet_1是一个通过inet来获取网页内容的程序; 2.web服务器是一个功能比较齐全的WEB服务器程序,通过该程序能够让读者深入了解HTTP的实现机理 3.浏览器是一个能够实现各种功能的浏览器,主要是使用了IE内核,能够实现大部分的IE功能; 4.网站下载是一个综合程序,能够下载网站中所有的网页地址,也可以下载网页中链接的其他网站内容,并且能够进行各种复杂设定,希望读者好好学习。 5.bbs高级程序开发是一个bbs客户单程序,能够根据bbs的协议原则,对每个字节