requests - python 如何使用多进程在后台执行网页请求已保证cookies不失效?
本文介绍了requests - python 如何使用多进程在后台执行网页请求已保证cookies不失效?的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!
问题描述
问 题
用python写爬虫,服务端似乎会定时清理登陆状态,如果爬虫休息了一下就需要重新登陆。
因此,我想后台用 while 每隔10s访问一次。
def keep_alive():
while 1:
session.get('https:\\xxx.com')
# print('alive')
time.sleep(10)
keep_alive_process = Process(target=keep_alive())
keep_alive_process.start()
ee().cmdloop()
不知道是不是使用了cmd模块的原因,虽然没有用join(),但还是阻塞了,程序无法执行下去,请问如何才能在后台执行?
解决方案
这行改一下
keep_alive_process = Process(target=keep_alive)
再试试
这篇关于requests - python 如何使用多进程在后台执行网页请求已保证cookies不失效?的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!
查看全文