celery

    1

    1답변

    멀티 테넌트 시스템을 설정했습니다. RabbitMQ가있는 셀러리가 준비되었습니다. 모델의 사전 저장 신호에서 전자 메일을 트리거하는 시스템이 있습니다. 시험은 벌금을 실행하고 심지어 메일 기능을 통해 taversing됩니다 class BaseSetup(TenantTestCase): def setup_tenant(self, tenant):

    0

    2답변

    현재 우리는 Celery & RabbitMQ를 사용하여 Ubuntu 14.04 서버에서 반복 가능한 작업을 수행하고 있으며 모든 것이 잘 작동합니다. Celery는 RMQ에서 작업을 선택하고 올바른 방법을 실행합니다. 12 명의 셀러리 직원이 지속적으로 RMQ 대기열을 모니터링합니다. 우리는 셀러리에서 1 회만 또는 하루에 한 번씩 1 개의 메소드를 실행하

    2

    1답변

    장고 응용 프로그램 내에서 주기적 작업을 만들려고합니다. from datetime import timedelta CELERYBEAT_SCHEDULE = { 'get_checkins': { 'task': 'api.tasks.get_checkins', 'schedule': timedelta(seconds=1) } }

    0

    1답변

    을 얻는 방법을 나는 셀러리 비트를 사용하여 주기적 작업을 설정합니다. 작업이 실행되고 콘솔에서 결과를 볼 수 있습니다. 작업에 의해 던져진 결과를 다시 생각하는 파이썬 스크립트를 갖고 싶습니다. 이 같은 그것을 할 수 : #client.py from cfg_celery import app task_id = '337fef7e-68a6-47b3-a16f-

    0

    1답변

    가이드로 사용 : http://docs.celeryproject.org/en/latest/internals/protocol.html#definition 셀러리 프로그램에 메시지를 보내려고하지만 메시지 서식을 지정하는 방법을 모릅니다. 내가 시도한 것은 무엇이든간에, 나는 KeyError: 'chord' 또는 ValueError('not enough valu

    3

    1답변

    두 개의 서버, 서버 A와 서버 B가 있습니다. 서버 A는 django 웹 앱 실행 전용입니다. 많은 수의 데이터로 인해 서버 B에서 셀러리 작업을 실행하기로 결정했습니다. 서버 A와 B는 공통 데이터베이스를 사용합니다. 작업은 서버 A, webapp에서 모델 저장 후 게시 후 시작됩니다. 내 장고 프로젝트에서 rabbitmq를 사용하여이 아이디어를 구현하

    0

    1답변

    셀러리에서 일부 작업을 한 번만 호출하지만 셀러리는 세 번 모두 실행합니다. 셀러리의 예상되는 동작입니까 아니면 구성 오류입니까? 장고 1.5.11, 셀러리 3.1.23 및 Redis 3.0.6을 사용하고 있습니다.

    0

    1답변

    의 첫 번째 완료/실패 셀러리 작업을 기다립니다 나는 셀러리 작업 목록이 있습니다 tasks = [] tasks.append(f.delay(...)) 어떻게 첫 번째 작업은 (중 실패와 성공 상태) 완성받을 수 있나요? result = get_first_waiting(tasks) 자바 스크립트에서 Promise.race 같은 뭔가 먼저 작업 상태를

    2

    1답변

    장고 앱의 일부로 Celery와 MongoEngine을 사용하고 있습니다. 그것은 명확하게 mongoengine의 기반이된다 멀티와 pyMongo 함께 할 수있는 뭔가가 UserWarning: MongoClient opened before fork. Create MongoClient with connect=False,or create client afte

    0

    1답변

    셀로 레이와 rabbitMq를 사용하여 기류 크기를 조정하려고합니다. EC2. 나는 다음하고 다음 코드 : http://site.clairvoyantsoft.com/setting-apache-airflow-cluster/ 다음은 마스터 노드의 코드입니다. 내가 airflow scheduler을 실행하면 sql_alchemy_conn = postgresql+