pyspider - 关于connect_timeout无效的问题
本文介绍了pyspider - 关于connect_timeout无效的问题的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!
问题描述
问 题
我设置了connect_timeout,但是在运行时没有起作用。请问如何解决?
代码如下:
@every(minutes=24 * 60)
def on_start(self):
self.crawl('http://??.cn/',fetch_type="js",timeout=300,connect_timeout=100, callback=self.detail_page)
解决方案
遇到同样问题,win10,另外,抓取ip没问题,只要是网址,就不行。
刚才改了一下tornado_fetcher.py里面的'connect_timeout': 20, 改成大一些,结果有效率了。。。
这篇关于pyspider - 关于connect_timeout无效的问题的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!
查看全文