网页爬虫 - python爬取大众点评网伪装浏览器返回出现403错误
本文介绍了网页爬虫 - python爬取大众点评网伪装浏览器返回出现403错误的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!
问题描述
问 题
hi,各位好,我在爬大众点评的这个网页http://www.dianping.com/search/keyword/2/75_%E6%96%B0%E4%B8%9C%E6%96%B9,用的request包获取网页源码,header主要添加了user-agent和cookie,但为什么总是返回错误?求助,谢谢各位了!
PS:用curl可以返回正常的源码,没有被封IP
import requests
def gethtml(url, headers):
html = requests.get(url, headers = headers)
html.encoding = 'utf-8'
return html.text
head = {'User_Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/52.0.2723.3 Safari/537.36',
'Cookie': 'PHOENIX_ID=0a650c81-154a0633f47-a97843; _hc.v="\"e27e18eb-3a3d-4b40-b06a-cbe624c96048.1462979739\""; s_ViewType=10; JSESSIONID=877B00919AD417544F72F5A9953E54B4; aburl=1; cy=2; cye=beijing'}
url = 'http://www.dianping.com/search/keyword/2/75_%E6%96%B0%E4%B8%9C%E6%96%B9'
html = gethtml(url, head)
print(html)
解决方案
已经解决,header中添加{'Accept': 'application/json, text/javascript'}
就能正常返回了
这篇关于网页爬虫 - python爬取大众点评网伪装浏览器返回出现403错误的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!
查看全文