supervisord相关内容
我正在尝试为laravel设置队列侦听器,但似乎无法使主管正常工作.运行 supervisorctl reload 时出现以下错误: 错误:,[错误2]没有这样的文件或目录:file:/usr/lib/python2.7/socket.py行:228 文件确实存在.如果尝试运行 sudosupervisorctl 我会得到这个 unix://
..
我在docker内部使用 supervisord 来运行两个进程: 主要过程和 主要流程所需的ssh隧道 当主进程正常停止时,ssh隧道进程将永远保持活动状态,从而防止docker停止.这是有问题的,因为容器是作为Kubernetes作业运行的,需要在主进程完成时终止. 问题是,是否可以在主进程停止时杀死ssh隧道,甚至更好:在主进程停止时停止受监管的ssh隧道? 解决方
..
我在centos7服务器上的网站(Django)的生产模式下使用 celery (职位经理). 我的问题是,在芹菜任务中,我的函数未创建文件夹(请参见 my_function ). 功能 def my_fucntion():parent_folder = THE_PARENT_PATH如果不是os.path.exists(centrifuge_recentrifuge_work_d
..
我已经在/etc/supervisor/conf.d/myproject-celery.conf 中为主管创建了一个conf文件. 我的配置文件如下: [program:celery]命令=/var/www/html/project/venv/bin/python/var/www/html/project/manage.py celeryd --loglevel = INFO环境= PYT
..
我正在尝试使用celery和redis队列来为我的Django应用执行任务.Supervisord通过 apt-get 安装在主机上,而celery驻留在我系统上通过`pip安装的特定virtualenv中. 结果,我似乎无法通过超级用户运行 celery 命令.如果我从virtualenv内部运行它,则在外部运行良好,但不能正常运行.如何使它在当前设置下运行?解决方案是否只是通过apt-g
..
我的服务器上运行着两个独立的celeryd进程,由 supervisor 管理.它们被设置为在单独的队列上侦听,例如: [program:celeryd1]命令=/路径/到/芹菜--pool = solo --queues = queue1...[程序:celeryd2]command =/path/to/celeryd --pool = solo --queues = queue2...
..
我有一些用celery运行的定期任务(由supervisord守护进程)运行,但是在尝试为用户设置主目录中的目录后,我为supervisor的进程设置了一个“权限被拒绝"错误.在查看正在运行的celery任务中的 os.environ 字典后,我注意到 USER var设置为"root",而不是我在supervised中设置的用户芹菜的配置. 这是我的/usr/local/etc/super
..
我正在研究Laravel应用程序的日志记录方面,amd计划将数据发送到SQS以便以后进行检索.但是,我想将作业从生产服务器分派到AWS Queue,然后让Queue在监听日志的单独的Logging服务器上工作. 我了解如何设置队列工作程序以侦听队列,但是,Laravel的工作是自我处理的.因此,当日志服务器上的工作程序从SQS检索消息时,它将在相同名称空间(具有相同的类名)中查找作业以进行处
..
我在uwsgi上运行了flask应用程序.我使用主管来管理uwsgi进程.我发现日志中说 您的服务器套接字侦听积压限制为100个连接. 如何克服100个连接限制? 我正在运行的脚本如下: [program:myapp] command=uwsgi --master -s /tmp/app.sock --module myapp:app --processes 2 -H /srv/
..
我已经构建了一个docker镜像 docker build -t ds_backend。,并在下面的错误之后提到了所有配置。 要使用 docker运行映像,请运行ds_backend 及其给出的以下错误。 / usr / lib / python2.7 / dist-packages / supervisor / options.py:461:UserWarning:Supervis
..
supervisor.sock拒绝了Docker容器中的连接 我试图通过 supervisorctl Unix:///var/run/supervisor.sock拒绝连接和 Overlayfs不适用于Unix域套接字 但是,它在我的debain服务器中仍然不起作用。 这是我的docker_supervisor.conf 从python:2.7 RUN pip安装主
..
backgroud 系统是Centos7,具有python2.x。 1GB内存和单核。 我安装了python3.x,可以将python3编码为python3。 django-celery项目基于一个virtualenv python3.x,我在nginx,uwsgi,mariadb上做得很好。至少,我认为这样不会发生任何错误。 我尝试使用主管来控制django-celery
..
我正在使用apache2虚拟服务器在同一服务器上运行多个Django / apache / wsgi网站。我想使用celery,但是如果我为多个网站启动celeryd,则所有网站都将使用我启动的最后一个celeryd实例的配置(日志,数据库等)。 是否可以使用多个Celeryd(每个网站一个)或所有所有Celeryd?似乎应该可行,但是我找不到方法。 解决方案 这个问题让人头疼,我没
..
全部,我试图“强制” RQ工作人员使用主管进行同时执行。我的设置监督设置似乎工作正常,因为rq仪表板显示3个工作程序,3个PID和3个队列(每个工作程序/ PID一个)。 Supervisord的设置如下(仅显示worker 1的设置,在此下面定义了2个worker): [program:rqworker1 ] 命令= rqworker 1 process_name = rqwork
..
我遇到的问题与此处的帖子完全相同: 。 Centos 6.5 Final。 Laravel 4.2,Supervisor 3.0和Python 2.6.6 应用程序的配置: [程序:lvcartsey] 命令= php工匠队列:听--env =“ local” stdout_logfile = / home / mike / web / app / storage
..
我正在管理一个通过Supervisor处理队列的芹菜工人。 这是我的/etc/supervisor/celery.conf: [程序:芹菜] 命令= / var / worker / venv / bin / celery worker -A a_report_tasks -Q a_report_process --loglevel = INFO 目录= / var / work
..
我正在使用Celery + Django + Supervisord,并且尝试通过创建3个不同的队列来设置“优先级”(如 https://stackoverflow.com/a/15827160/54872 )。 有没有一种方法可以在主管的一个命令中为每个队列启动芹菜节拍和工人?或者,我是否需要为每个队列/工人池和一个芹菜拍子制作不同的主管conf文件? 解决方案 为每个队列创建程序
..
我有3台由芹菜工人和Rabbitmq作为经纪人的机器,一个工人正在运行拍子标记,所有这些都由主管管理,有时芹菜因这种错误而死。 该错误仅出现在拍子上,但出现时,所有机器上的工人死亡。 (芹菜== 3.1.12,海带== 3.0.20) [2014-07-05 08 :37:04,297:INFO / MainProcess]已连接到amqp:// user:**@192.168.15.
..
我正在运行 prerender服务器,一切正常,但现在我想使用 basicAuth . 在我的控制台中,我已经导出了用户名和密码 export BASIC_AUTH_USERNAME=hugo export BASIC_AUTH_PASSWORD=boss 在我的server.js中,我添加了这一行: server.use(prerender.basicAuth());
..
我曾经将我所有的Flask应用程序代码和celery代码存储在一个文件中,并且在主管的支持下工作得很好.但是,由于头发很长,所以我将任务拆分为celery_tasks.py,就会发生此问题. 在我的项目目录中,我可以使用以下命令手动启动celery celery -A celery_tasks worker --loglevel=INFO 但是,由于这是服务器,因此我需要celer
..