python - 微博爬虫抓取出现的连接问题?

查看:124
本文介绍了python - 微博爬虫抓取出现的连接问题?的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

问 题

使用cookie模拟登录微博后想抓取多页微博内容,只是抓取到第二页就出现错误,以前都没出现过,使用的是Request库来模拟登录和获取内容。
代码如下:

循环抓取在这里:

出现错误的代码如下:

我google过,有人说是因为requests发送http request占用太多connection资源,具体说明在
Python使用requests時遇到Failed to establish a new connection

解决方案

代码拿去,这里只抓10页, cookie自己补充进去

# coding=utf-8

from pyquery import PyQuery as Q
import requests, threading, time

session = requests.Session()
session.headers = {
    'Cookie':'',
    'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_5) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.63 Safari/537.36'
}

def get_title(titles, page):
    r = session.get('http://weibo.cn/gzyhl?page={0}'.format(page))
    html = r.text.encode('utf-8')
    for _ in Q(html).find('span.ctt'):
        titles.append(Q(_).text())

start = time.time()

result, threadPool = [], []
for page in range(1, 11):
    th = threading.Thread(target=get_title, args=(result, page))
    th.start()
    threadPool.append(th)

for th in threadPool:
    threading.Thread.join(th)

end = time.time()

print 'times: {0}, total: {1}'.format(end - start, len(result))

这篇关于python - 微博爬虫抓取出现的连接问题?的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆