搜索资源列表
333
- hon6 WAP爬虫小说系统程序特色 运行环境: PHP/Zend 1.内容自动抓取,让您远离繁忙的采集工作 2.抓取后自动生成静态文件,更新较快的栏目20分钟抓取一次,内容栏目600分钟抓取一次,做到了每日更新两次! 3.程序支持整合传承导航 4.排版简单,模版式排版! 程序使用 1.首先使用记事本打开程序的config.hon6文件,修改网站名称,网站域名参数,还有是否打开传承接口,打开接口后必须配置好MSSQL链接参数,目前只支持链接MSSQL不支持ACCESS
1
- 自己用的小说下载器。小爬虫继续用。自己用的小说下载器。-Own use energy-saving. Small reptiles continue to use.
Scrapy-download-novel
- 使用网络爬虫Scrapy爬取网页小说内容,并将内容保存到本地txt格式-use web crawlers crawl the page novel content, and save the contents to a local txt format
hon6WAP_v1.0
- hon6 WAP爬虫小说系统程序特色 1.内容自动抓取,让您远离繁忙的采集工作 2.抓取后自动生成静态文件,更新较快的栏目20分钟抓取一次,内容栏目600分钟抓取一次,做到了每日更新两次! 3.程序支持整合传承导航 4.排版简单,模版式排版! 程序使用-WAP hon6 crawler novel system program features 1 content automatic grab, let you away the busy collection work
hon6WAP_v1.0
- hon6 WAP爬虫小说系统程序特色 1.内容自动抓取,让您远离繁忙的采集工作 2.抓取后自动生成静态文件,更新较快的栏目20分钟抓取一次,内容栏目600分钟抓取一次,做到了每日更新两次! 3.程序支持整合传承导航 -Hon6 WAP reptile novel system program features 1. content automatically crawl, so you stay away the busy collection of work 2. crawl automat
python
- 采集小说数据,图片,章节,内容,说明,自动插入到数据库。(Collection of novel data, pictures, chapters, content, instructions, automatically inserted into the database.)
aaa
- 在线爬40G的小说 40G,很大的。 程序简单易懂,初学者福利(using python to scrab the txt files in the website)
ebookSpyder
- 小说类爬虫的集合,这类网页的特征是需要提取的文本特别多, 特别是中文,解析却相对简单,涉及的js较少 **思路**:爬目录页,解析各章节链接,爬各章节,解析,保存到txt里 大部分的小说当然不是自己看啦,主要拿来练习爬虫和做文本分析用(Novel collection of reptiles, the characteristics of such pages is the need to extract the text in particular, Especially in Chi
util
- 小说爬虫程序,能够爬取免费小说全本,需要手动更改网站地址和小说第一章,如果追求精准还可以自己改过滤部分过滤非小说部分(The crawler program is able to crawl away the free novels and manually change the website address and the first chapter of the novel. If we pursue precision, we can also change the filtering
thread
- 多线程小说爬虫,可以同时爬取多部小说,采用java编写(A novel multi-threaded crawler, can also take up many novels, written by Java)
com.ifengxue.novel.book.storage
- 一个简单的小说爬虫,可以将小说数据放到数据库,也可以下载到硬盘(A simple novel crawler that can put the novel data into the database and download it to the hard disk.)
bd_spider
- 对百度小说进行爬虫,希望该例子对大家有用,谢谢啦(Crawling Baidu's novels, hope this example is useful to everyone, thank you)
爬虫
- 网络爬虫,爬取了一部小说,可以用的,爬取成功(Web crawler, crawling a novel, can be used to crawl successfully.)