urllib2相关内容
我在这篇文章中投票最多的答案中找到了一种在 Python 中进行流式阅读的方法. 使用 urllib2 将大型二进制文件流式传输到文件. 但是出错了,当我在读取块后做一些耗时的任务时,我只能获取部分前端数据. from urllib2 import urlopen从 urllib2 导入 HTTPError导入系统导入时间块 = 1024 * 1024 * 16尝试:response
..
我想编写代码将文件从一个站点传输到另一个站点.这可能是一个大文件,我想在不创建本地临时文件的情况下进行. 我看到了在 Python 中使用 mmap 上传大文件的技巧:“HTTP Post a large file with streaming",但我真正需要的是一种将来自 GET 的响应链接到创建 POST 的方法. 以前有人这样做过吗? 解决方案 你不能,或者至少不应该.
..
我需要能够指定 SSL 证书 CA 根,但能够使用 Python 2.7.10 urllib2 库插入 HTTP cookie ssl_handler = urllib2.HTTPSHandler()开瓶器 = urllib2.build_opener(ssl_handler)opener.addheaders.append(("Cookie","foo=blah"))res = opener.
..
当我执行以下行时, req = urllib2.Request(requestwithtoken)self.response = urllib2.urlopen(req,self.request).read() 我收到以下异常: SSLError: [SSL: SSLV3_ALERT_HANDSHAKE_FAILURE] sslv3 警报握手失败 (_ssl.c:590) 问题是我可以通过
..
我使用的是 python 2.7,我想获取需要 sslv3 的网页的内容.目前,当我尝试访问该页面时,出现错误 SSL23_GET_SERVER_HELLO,并且在网络上进行了一些搜索,找到了以下解决方案,该解决方案修复了 Python 3 中的问题 urllib.request.install_opener(urllib.request.build_opener(urllib.request.
..
在 Windows Vista SP2 + Python 2.7.10 上,我可以连接到 https://www.python.org,但不是 https://codereview.appspot.com 脚本: HOST1 = 'https://www.python.org'HOST2 = 'https://codereview.appspot.com'导入 urllib2打印 HOST
..
阅读其他后问题 在 StackOverflow 上,我得到了一段 Python 代码,可以通过 Tor 代理发出请求: 导入 urllib2proxy = urllib2.ProxyHandler({'http':'127.0.0.1:8118'})开瓶器 = urllib2.build_opener(代理)打印 opener.open('https://check.torproject.org
..
尝试使用 suds 发送 SOAP 请求,我使用的是 Python 2.7.6. 我对安全不是很熟悉 我被认为是我的机器或服务器机器上的安全密钥太小,我不知道如何解决.我是否生成一些新密钥并创建自定义开启器?任何帮助/指导都会有所帮助. 堆栈跟踪: 回溯(最近一次调用最后一次):文件“read_xml.py",第 71 行,在 中.client.service.PO
..
我正在尝试从 Google 搜索中获取前 20 个结果.当我使用 urllib2.urlopen() 时,它给了我一个错误并说我被禁止了.我听说这与伪造用户代理字符串有关,但我几乎没有 urllib2 经验,如果有人能提供帮助,我将不胜感激. 谢谢,乔达梅利奥 解决方案 您可能应该只使用一个可以完成所有繁重工作的库. xGoogle 使您能够在列表中获取搜索结果 从例子中
..
我正在尝试抓取一个页面(我的路由器的管理页面),但该设备似乎为 urllib2 提供了与我的浏览器不同的页面.有没有人发现过这个?我该如何解决? 这是我正在使用的代码: >>>从 BeautifulSoup 导入 BeautifulSoup>>>导入 urllib2>>>page = urllib2.urlopen("http://192.168.1.254/index.cgi?activ
..
有需要在网站上搜索 url = r'http://www.cpso.on.ca/docsearch/' 这是一个 aspx 页面(我从昨天开始这个跋涉,很抱歉有菜鸟问题) 使用 BeautifulSoup,我可以像这样获得 __VIEWSTATE 和 __EVENTVALIDATION: viewstate = soup.find('input', {'id' : '__VIEWS
..
我对 Python 非常陌生,我正在尝试创建一个工具来自动从 Google 下载图像. 到目前为止,我有以下代码: 导入urllibdef google_image(x):搜索 = x.split()搜索 = '%20'.join(map(str, search))url = 'http://ajax.googleapis.com/ajax/services/search/images?v
..
我可以使用 urllib2 发出 HEAD 请求,如下所示: 导入 urllib2request = urllib2.Request('http://example.com')request.get_method = lambda: 'HEAD'urllib2.urlopen(请求) 问题是当它跟随重定向时,它使用 GET 而不是 HEAD. 这个 HEAD 请求的目的是检查我将要下载的
..
我在 Python 3 中创建了一个脚本,它可以访问如下页面: example.com/daora/zz.asp?x=qqrzzt 使用 urllib.request.urlopen("example.com/daora/zz.asp?x=qqrzzt"),但是这段代码只是给了我相同的页面(example.com/daora/zz.asp?x=qqrzzt)并在浏览器上重定向到如下页面
..
我想知道如何防止 urllib2 在我选择的 url 上跟踪重定向请求.我在浏览时发现了这段代码,但它似乎在全局范围内有效,我只希望它禁用某个网址上的重定向: 导入 urllib2类重定向处理程序(urllib2.HTTPRedirectHandler):def http_error_302(self, req, fp, code, msg, headers):结果 = urllib2.HTTP
..
我想检查目标网址在访问后是否会被重定向.我以为我可以做这样的事情: req = urllib2.Request(url=url, headers=headers)resp = urllib2.urlopen(req, timeout=3)代码 = 对应代码if code == '200': # 有效else: # 无效 但它不起作用,因为即使 url 重定向,我仍然得到 200.有人可以帮我解
..
我写了这个函数: def download_mp3(url,name):opener1 = urllib2.build_opener()page1 = opener1.open(url)mp3 = page1.read()文件名 = 名称+'.mp3'fout = 打开(文件名,'wb')fout.write(mp3)fout.close() 这个函数将一个 url 和一个名字都作为字符串.然
..
在指向从 RSS 提要获取的文章的链接上调用 urrlib2.urlopen 会导致以下错误: urllib2.HTTPError:HTTP 错误 301:HTTP 服务器返回重定向会导致无限循环的错误.最后的 30x 错误消息是:永久移动 根据文档,urllib2 支持重定向. 在 Java 上,只需调用即可解决问题 HttpURLConnection.setFollow
..
在 Python 中,我使用 urllib2 打开一个 url.此 url 重定向到另一个 url,该 url 重定向到另一个 url. 我希望在每次重定向后打印出网址. 例如 -> = 重定向到 A -> B -> C -> D 我想打印 B、C 和 D 的 URL(A 是已知的,因为它是起始 URL). 解决方案 可能最好的方法是子类化 urllib2.H
..
我正在尝试使用他们的 API 和 Python 的 urllib2 从 Reddit 中抓取新故事,但我不断收到这样的 JSON 文档: { u'kind': u'Listing', u'data': { u'modhash': u'', u'children': [], u'after': None, u'before': 没有任何 }} 这是我的代码: 导入json导入时间导入 urll
..