python - 请问scrapy中如何设置request的重试次数
本文介绍了python - 请问scrapy中如何设置request的重试次数的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!
问题描述
问 题
scrapy版本:1.1.2
python 版本:3.5
在使用scrapy抓取数据的时候使用了代理IP,难免会遇到代理IP失效的情况。
因为对数据完整性要求较高,请问如何设置只要没有成功的返回response则把任务重新放进Request队列中去继续爬取?
解决方案
可以使用scrapy自带的scrapy.downloadermiddlewares.retry.RetryMiddleware
中间件,然后通过这几个参数进行配置:RETRY_ENABLED
: 是否开启retryRETRY_TIMES
: 重试次数RETRY_HTTP_CODECS
: 遇到什么http code时需要重试,默认是500,502,503,504,408,其他的,网络连接超时等问题也会自动retry的
这篇关于python - 请问scrapy中如何设置request的重试次数的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!
查看全文