搜索资源列表
keyboard
- 这是个盘记录工具,利用原始设备的输入变化RawInput完成键盘记录功能,程序可以完成的功能有:①记录键盘输入的英文及符号;②记录输入时间;③抓取IE浏览器所访问的URL;记录保存在c:\keylog.txt中-This is a disk recording tools, the use of original equipment to complete the keyboard input to change RawInput record, the program can complete
spider
- 多线程实现简单的Web Spider,编译环境为vc6.0。能够抓取网页及其链接-Implement a simple multi-threaded Web Spider, compiler environment vc6.0. Able to crawl web pages and links
msn
- MSN邮箱类抓取,实现MSN邮件的抓取有一定的几率性,不是所有的MSN都能抓取,代码待完善-MSN E-mail class to crawl, crawl to achieve MSN e-mail has some chance of, not all of MSN can grab the code to be perfect
MetaSeeker-4.11.2
- 主要应用领域: • 垂直搜索(Vertical Search):也称为专业搜索,高速、海量和精确抓取是定题网络爬虫DataScraper的强项,每天24小时每周7天无人值守自主调度的周期性批量采集,加上断点续传和软件看门狗(Watch Dog),确保您高枕无忧 • 移动互联网:手机搜索、手机混搭(mashup)、移动社交网络、移动电子商务都离不开结构化的数据内容,DataScraper实时高效地 采集内容,输出富含语义元数据的XML格式的抓取结果文件,确保自动化
wety
- 一个可以抓屏幕的程序,可以设置快捷键进行抓取-A process can catch the screen, you can set shortcut keys to crawl
sat_dbase
- Lygnsat上的TP parse工具,可以自动抓取网站上的卫星TP信息-Lygnsat on TP parse tool that can automatically crawl the site information on the satellite TP
Receive
- 抓取经过当前主机的所有IP数据包,但为实现对数据包的过滤-Crawl through the current host of all IP packets, but for the realization of packet filtering
WebCapture
- 网页照相机(滚动截屏抓取整个网页)VS2005C#源码-Web camera (scroll crawl the entire web page screenshot) VS2005C# Source
USBAudio
- USB Audio, 使用51单片机写的USB 声卡程序 通过LED 等动态的现实声音数据流, 也可以通过串口抓取数据流数据 在www.google.com 搜索多时,找不到单片机实现的声卡程序. ***本程序基于圈圈USB 和其他的一些网上资料**** *** 本程序 目前只在 "linux" 下工作, windows 下异常 -USB Audio, using 51 single-chip USB audio program written by the real
CaptureUDP
- 用于抓取网络的tcp和udp数据包,可以进一步分析数据包内容;-Crawl the web for tcp and udp packets, you can further analyze the contents of the packet
python
- python写的网页爬虫,抓取制定网址所有图片收录本地-Web crawlers, crawl image
spider
- 是网络爬虫方面的PDF格式的文档资料,主要介绍了爬网方面的技术原理及代码示例,涉及到JAVA方面的线程知识。-Reptiles in the network documentation in PDF format, focuses on the crawl technical principles and code samples, related to the knowledge of JAVA in the thread.
GetHTMLSource
- 利用DxHtmlParser单元 *网页代码捕捉 *链接抓取 例子是百度的-Use DxHtmlParser unit * Page code capture * Link to crawl Example is Baidu s
sohu
- 抓取一个站点主页的主要连接,并得到链接里面的内容-Main connection to crawl a site home page and the links inside the content
vs2010caijixitong
- 这个是新编的Visual studio 2010下C#的爬虫程序,实现网页抓取,大家可以看一下-This is reflected in the new Visual Studio 2010 C#, reptiles procedures to achieve the Web crawl, we can look
QueryLocating
- 通过C#模拟访问指定网址,发送手机号码到网站上面去,程序抓取结果,并得到结果集。-Analog access to the specified URL using C# to send the phone number to the site above to go to the program crawl results, and the result set.
PATandPMT
- 遍历各TS包,输出包长及包数目,从中找PAT包,读节目号及对应PMT的PID,读PMT的视、音频PID。-Crawl ts video stream packet
yahoosearch
- 关于在抓取雅虎搜索关键词链接。能抓取到页面上的搜索结果链接。用的VBscr ipt编写。-About grab Yahoo search keywords link. Can crawl onto the page of search results link. Used to write VBscr ipt.
netcap
- 网络抓包程序,java实现,可以实现网络数据包的实时抓取。-Network packet capture program, java, could achieve real-time crawl of the network packets.
SpiderUnStructJob
- 用httpclient实现的一个能抓取网络上无结构信息的爬虫工具-Reptiles tool for structural information on a crawl the web using httpclient