搜索资源列表
程序
- 程序使用说明: 1.打开\Sina_spider1\Sina_spider1\ 2.将spiders.py用notepad++或Python 2.7编辑 3.在以下程序后输入从淘宝购买的新浪微博账号及密码 class Spider(CrawlSpider): name = "sinaSpider" host = "http://weibo.cn" start_urls = [
Web-crawlers-master
- 这里面包括可以爬取豆瓣、知乎、微博、大麦网的数据的代码(douban,zhihu,weibo,damai)
socialnewspump
- 爬取微博数据,使用python语言精准爬虫(use python get weibo'data)
weibo
- 爬取微博评论,Python,内容还挺全,有的图片,有数据(Crawling micro-blog reviews, Python, is quite full, some pictures, data.)
知识产权官方微博数据
- 通过利用微博提供的接口和模拟用户登录的方式,爬取相关的知识产权官方微博数据。(By using the interface provided by microblog and the way of simulating user login, crawling relevant intellectual property official microblog data.)