搜索资源列表
ProxyTest
- 用于查找一个合适的代理服务器。方法是从某代理网站(经作者多次测验,该网站提供的代理网址比较好用,但连接某个特定网站可能会有问题)的网页中提取出代理网址和端口,依次测试,直到找到一个可以连接的为止。免去作者每次都要手工的在IE里面测试的麻烦。纯属个人的玩具程序。-looking for a suitable proxy. Method Acting is a website (repeated tests by the author, the website provided by the Web
svc030401
- 使用C Sharp制作的网页分析器。可以下载并提取网页中的图片或其他连接并显示出来。
CSS
- c#写的信息提取中解析网页中嵌入的css代码-Analysis of the c# to write the css code embedded in web pages
Collection1.0
- 一个简单的网页采集系统,是一个为初学者提供实现网页数据采集思路的源码,通过请求网页来抽取源码,并用正则表达式提取内容以及转换为XML格式遍历内容并存入Access数据库中。-A simple web collection system is available for beginners to achieve a web page source data collection ideas, through the request page to extract source code, and
crawler
- 网络爬虫,通过正则表达式提取URL,从一个给定的网页开始爬取网页-Crawler, extraction by the regular expression URL, from a given start crawling web pages
WebBrowserUsing
- C# webBrowser点击网页在多个选项卡中打开网页,及有关网页中新闻页正文的提取-C# webBrowser click on the page to open multiple tabs in the page, and on the web page extraction text news page
ExtractLinks
- 冲网页中抽取url的一个小工具,用于将抓取到的网页中的url提取出来-Red pages to extract the url of a small tool used to crawl pages in the url extracted
CS_Analog-network-reptiles-source
- 网络爬虫 是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。-The Web crawler is a program of automatic extraction of Web pages for search engines from the download page on the World Wide W
TextExtractor
- c#编写的程序自动识别编码,提取网页正文-design the c# program that can distern the code of webs and Extraction of web s text
dom4j-1.6.1
- 网页正文提取,基于DOM树结构的网页正文提取方法-information extraction
CSharp_Regex
- C#实现采用正则表达式提取网页需要的数据,并将数据存储进数据库sql sever 2005-C# implementations use regular expressions to extract pages needed data, and store the data into the SQL sever 2005
HttpHelperV1.9.0.6
- HttpHelper可以非常方便的实现Http协议的GET和POST请求、自动识 别编码、无视证书、优化Cookie、可以很方便的设置Cookie,Header,证书,代理等问题, 编码问题您不用做任何处理,因为类会自动为您识别网页的编码。 我相信不会有人比我更了解Httphelper了,因为它就是我写的,他的灵魂和精要我最了解! 现在,我将HttpHelper类改成一个类库,从收集、汇总、改写、优化、创新等方面进行全方位整合改编得到一个框架。 这就是我所 说的万能框架 [