搜索资源列表
getnetinfo
- 该程序获得网页的详细信息-the procedure for obtaining detailed information website
CatchWeb
- 一个能获得网页源码的程序-website can be a source of procedures
Webserv
- 个人Web服务器是一款极好的个人网页服务器程序,她能让您轻松建立自己的网站。只要你能连上互联网,获得独立的IP地址,就可以把你的普通PC机作为一台Web服务器,向全世界开通属于自己的零费用WWW网站。
ListboxItemsofTWebBrowser.zip
- 获得网页中列表项目内容,对用Delphi开发internet 程序有一定参考价值。,Get Listbox Items from WebBrowser Document
Test-Web
- Internet访问和数据提交。可以通过填写URL地址获得网页信息,也可以发送邮件。-Internet access and data submission. URL address can be obtained by completing the information page, you can also send e-mail.
acquireWEBpagesourcecode
- 获得制定的网页的源代码,虽然网页制作我不太懂,相信对网页制作人员会很有用-Access to the development of web pages source code, even though I do not quite understand the production website, I believe that production staff on the website would be useful
multithreadwebspider
- vc6编写的多线程网络蜘蛛。功能:1、下载指定网址的网页文件,并可获得服务器的http响应信息。 2、可过滤出下载网页源码中的链接,文字,html标签,email地址 3、自动创建工作线程,检验过滤链接的有效性。-vc6 prepared multi-threaded web spider. Function: 1, download URL specified documents and access to the http server to respond to informati
20092818207335
- 以往任何时候都希望下载的所有图片或视频的画廊,但也有太多的困扰?是否有一个网页的的RAR文件需要下载? PicGrab2能做到这一点为你工作! 此程序使用MsWinsock.ocx和我的HTTP类模块,获得来源的网页,并扫描HTML代码链接使用我的HTTP模块,并提出联系在适当的清单。您可以使用此就WebGallery门户网站,因为PicGrab2可以访问所有链接到其他网页发现一个网页,并得到他们的照片以及。您可以下载所有的 抓住 的图片再次使用相同的独特(全定制)命名系统中使用的第一个
GooglePR
- Google PageRank (网页级别) 是 Google 搜索引擎用于评测一个网页“重要性”的一种方法。 Google 通过 PageRank 来调整结果,使那些更具“重要性”的网页在搜索结果中另网站排名获得提升,从而提高搜索结果的相关性和质量。 主要功能: 1、Google PR值在线查询,直接读取Google官方数据; 2、小偷工具,无需维护数据; 3、DIV+CSS模板方便修改; 4、免费、开源程序 -Google PageRank (PageRan
GetVerifyCode
- 获得网页的验证码,并保存到本地和显示出来。-Get verify code from web page, save it to local and show.
asp-quanxian
- ASP权限管理程序,实现对ASP网页访问的权限管理控制,已经获得实际应用。-ASP Rights Management process, to achieve access to the ASP web access management and control, has received practical application.
20081122625528
- 利用MS WinSock 控件通过HTTP协议获得网页和文件的程序 -Using MS WinSock control access to pages through the HTTP protocol and documentation procedures
squid-3.2.0.1.tar
- Squid cache(简称为Squid)是一个流行的自由软件(GNU通用公共许可证)的代理服务器和Web缓存服务器。Squid有广泛的用途,从作为网页服务器的前置cache服务器缓存相关请求来提高Web服务器的速度,到为一组人共享网络资源而缓存万维网,域名系统和其他网络搜索,到通过过滤流量帮助网络安全,到局域网通过代理上网。Squid主要设计用于在Unix一类系统运行。 Squid的发展历史相当悠久,功能也相当完善。除了HTTP外,对于FTP与HTTPS的支援也相当好,在3.0 测试
mySocket
- · 使用此库可以直接在网页上创建 Socket TCP 连接,并与服务端连接,发送和接收数据。拥有完善的 Socket 接口,更方便操作。Socket 适用于点对点聊天、协同或者聊天时等需要获得实时的数据。如果您找到了此组件,也... 运行环境:html-* Use this library can be created directly on the page Socket TCP connection, and connect with the server, send and rec
sockethtml
- C语言用socket写的获取网页html源代码的源码,正在改进以获得动态网页代码-a sample for c/sdk to get html code via socket
FetchPage
- 网页链接提取器。当用户打开一个网页时,能够获得该网页的说有链接,用以搜索下载资源。-Web link extractor. When a user opens a Web page, access the page that has links to search for downloaded resources.
linker
- 网络连接查看器,根据你打开的所有网页,获得其IP地址,可实现深度叠加。-Network connections viewer, according to all the pages you open, access to its IP address, enabling the depth of overlay.
Ch14Demo4
- 用VC编写的HTTP客户端程序读取网上文件获得网页的源码文件-Written by VC HTTP client program reads the web page file for the source files
GetWebSource
- 通过 afxinet库中函数 获得网页发过来的代码 并保存-Obtained by afxinet library functions and the code page sent me to save
GetWebSource
- 获得网页源代码的MFC示例程序,已编译调试通过可直接运行-MFC sample program to obtain the source code of the page, and can be run directly compiled debug