文件名称:collect
介绍说明--下载内容来自于网络,使用问题请自行百度
简易采集爬虫
# 1.我只做了一个收集url的功能,如果需要将数据入库,可在 parseData 函数里面写处理代码
# 2.需要sqlite3或者pysqlite支持
# 3.可以在DreamHost.com空间上面运行
# 4.可以修改User-Agent冒充搜索引擎蜘蛛
# 5.可以设置暂停的时间,控制采集速度-Simple collection reptiles# 1. I have only had a collection of url feature, if you need the data storage, you can write parseData handling code inside a function# 2. Need to sqlite3 or pysqlite support# 3. Can DreamHost.com space to run# 4. can modify the User-Agent posing as search engine spiders# 5. you can set the pause time, control of acquisition speed
# 1.我只做了一个收集url的功能,如果需要将数据入库,可在 parseData 函数里面写处理代码
# 2.需要sqlite3或者pysqlite支持
# 3.可以在DreamHost.com空间上面运行
# 4.可以修改User-Agent冒充搜索引擎蜘蛛
# 5.可以设置暂停的时间,控制采集速度-Simple collection reptiles# 1. I have only had a collection of url feature, if you need the data storage, you can write parseData handling code inside a function# 2. Need to sqlite3 or pysqlite support# 3. Can DreamHost.com space to run# 4. can modify the User-Agent posing as search engine spiders# 5. you can set the pause time, control of acquisition speed
相关搜索: python
(系统自动生成,下载前可以参看下载内容)
下载文件列表
源码网说明.txt
下载说明.html
collect.py
下载说明.html
collect.py
本网站为编程资源及源代码搜集、介绍的搜索网站,版权归原作者所有! 粤ICP备11031372号
1999-2046 搜珍网 All Rights Reserved.