pyspider 爬取的数据无法存入 MongoDB

查看:162
本文介绍了pyspider 爬取的数据无法存入 MongoDB的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

问 题

代码在没有override on_result函数时,可以将爬取的数据存入pyspider自带的resultdb中。
但是override以后却无法将结果存入Mongodb中。
congfig.json文件:

{
      "taskdb": "mongodb+taskdb://127.0.0.1:27017/pyspider_taskdb",
      "projectdb": "mongodb+projectdb://127.0.0.1:27017/pyspider_projectdb",
      "resultdb": "mongodb+resultdb://127.0.0.1:27017/pyspider_resultdb",
      "message_queue": "redis://127.0.0.1:6379/db",
      "webui": {
                    "port": 5001
    }
}

重载的on_result函数:

    def on_result(self, result):
        if not result:
            return

        client = pymongo.MongoClient(host='127.0.0.1', port=27017)
        db = client['pyspider_resultdb']
        coll = db['website']

        data = {
              'title': result['title'],
              'tags': result['tags'],
              'description': result['description'],
              'website_url': result['website_url'],
              'image_url_list': result['image_url_list']
        }

        data_id = coll.insert(data)
        print (data_id)

运行后没有报错,一切正常,但是mongo中却只有两个数据库,没有pyspider_resultdb:

每次新建的任务都会在pyspider_taskdb里更新,但是不知道结果去哪了。
python版本2.7,mongodb版本3.4, pymongo版本3.4。
搞了好久实在不知道问题出在哪里,恳请各位高人指点,谢谢~!

解决方案

pyspider 会自动去重,抓过的连接不会重新抓取,你采取了什么措施让它重抓了吗?
例如 http://docs.pyspider.org/en/l...

这篇关于pyspider 爬取的数据无法存入 MongoDB的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆