蜘蛛的 Scrapy domain_name [英] Scrapy domain_name for spider

查看:33
本文介绍了蜘蛛的 Scrapy domain_name的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

来自 Scrapy 教程:

From the Scrapy tutorial:

domain_name:标识蜘蛛.必须是唯一的,即不能为不同的Spider设置相同的域名.

domain_name: identifies the Spider. It must be unique, that is, you can’t set the same domain name for different Spiders.

这是否意味着 domain_name 必须是一个有效的域名,比如

Does this mean that domain_name must be a valid domain name, like

domain_name = 'example.com'

domain_name = 'example.com'

或者我可以命名

domain_name = 'ex1'

问题是我有一个使用域名的蜘蛛

The problem is I had a spider that worked with domain name

domain_name = 'whitecase.com'

现在我创建了一个新蜘蛛作为 CrawlSpider 的一个实例并将其命名为

Now I created a new spider as an instance of CrawlSpider and named it

domain_name = 'wc2'

但我收到错误找不到域wc2"的蜘蛛"

推荐答案

回答我自己的问题:

域名 = 'wc2'

有效.

这篇关于蜘蛛的 Scrapy domain_name的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆