资源列表
splider1
- 能够对一个网站的所有链接进行捕获,分析链接所属内容。能够对我们需要的文件进行下载,例如这个程序实现的是对网站的txt格式或者pdf等文件下载功能。本例主要是对学校ftp的内容进行实现的。但是进行修改后也可以对任意一网站进行爬虫扫描分析下载。-Be able to capture all the links of a website, and analysis of the link belongs content. Be able to download the files we need, f
iperf-3.0b4.tar
- iperf, a net work bandwidth test tool
testPost
- 一个简单的Python post表单提交,获取相关网页源码,可以通过数据字典的加入来获取相关局域网内的路由器密码和账号。- A simple Python post form submission for web source, added through the data dictionary to obtain the relevant LAN router password and account. 中文(简体) 日语
piaoling
- 飘零金盾易语言版V1.5全套,全部源码,包括模块-A full set of the wandering Jindun easy language version V1.5, all source code, including the module
baidu_spider
- 通过ruby语言写的一份自动获取百度搜索结果的代码。-Write a ruby language automatically obtain the the Baidu search result code
zhizhus
- 搜索引擎蜘蛛爬行分析系统,可以查看蜘蛛访问记录,根据这些记录可以看到蜘蛛什么时候来访问过你的站,抓取了什么内容,并可进行数据的查询和统计等。有简约记录与详细记录两种方式,请在config.asp页面中设置-Search engine spiders crawl analysis system, you can view the spider to access records, these records can be seen spiders when visited your site, g
lab
- 某校有本科生宿舍4座,每座7层,每层10间房,每间房2个学生,。要求对学生宿舍的网络进行设计规划,设计时需满足下列要求: 在宿舍区提供一个学生服务器机房,供学生社团放置各类服务器; 在学生服务器机房,设置一个代理服务器供同学们使用 学校分配了1段C类IP地址给该学生服务器机房,IP地址为202.116.162.0/24。; 拟保证每个学生有一个上网端口; 学生机器采用私有IP地址,通过代
autoconn
- 自动检查网络状态,并自动点击鼠标、重启、重新运行设定程序等,可以实现掉线自动重拨,断网关机等功能。-Automatically check the network status, the click of a mouse and automatically restart, and re-run the setup process automatic redial, broken gateway functions can be dropped.
dkzfa
- 易语言端口转发源代码完整版支持自定义函数-failed to translate
behavor_record
- 文件包含了两处代码,可以实现对上网用户的行为记录的监控,只要用户用浏览器浏览网页,就可以记录下用户的登录的网址等信息。-File contains two code can be achieved on the Internet to monitor user behavior records, as long as users use the web browser, you can record the user' s login URL and other information.
huoquqq
- 通过web获取QQ号码,用asp.net写的程序- Through the web access to QQ number, written in asp.net program
mySpider
- java写的爬虫抓取指定url的内容,内容处理部分没有写上去,因为内容处理个人处理方式不同,jsoup或Xpath都行,只有源码,需修改相关参数- java write reptiles crawl the contents of the specified url, content processing section is not written up, because the content deal with different personal approach, jsoup or