작업 완료 후 샐러리가 메모리를 해제하지 않는 것처럼 보입니다. 작업이 끝날 때마다 5 ~ 10m의 메모리 누수가 발생합니다. 따라서 수천 가지 작업으로 곧 모든 메모리가 소모됩니다. 셀러리가 메모리를 해제하지 않습니다.
BROKER_URL = 'amqp://[email protected]:5672/vhost'
# CELERY_RESULT_BACKEND = 'amqp://[email protected]:5672/vhost'
CELERY_IMPORTS = (
'tasks.tasks',
)
CELERY_IGNORE_RESULT = True
CELERY_DISABLE_RATE_LIMITS = True
# CELERY_ACKS_LATE = True
CELERY_TASK_RESULT_EXPIRES = 3600
# maximum time for a task to execute
CELERYD_TASK_TIME_LIMIT = 600
CELERY_DEFAULT_ROUTING_KEY = "default"
CELERY_DEFAULT_QUEUE = 'default'
CELERY_DEFAULT_EXCHANGE = "default"
CELERY_DEFAULT_EXCHANGE_TYPE = "direct"
# CELERYD_MAX_TASKS_PER_CHILD = 50
CELERY_DISABLE_RATE_LIMITS = True
CELERYD_CONCURRENCY = 2
는 문제와 동일 할 수도 있지만 그것은 답이되지 않습니다
RabbitMQ/Celery/Django Memory Leak?
내가 장고를 사용하고 있지 않다, 그리고 나의 패키지는 다음과 같습니다 : 난 그냥 테스트를 추가
Chameleon==2.11
Fabric==1.6.0
Mako==0.8.0
MarkupSafe==0.15
MySQL-python==1.2.4
Paste==1.7.5.1
PasteDeploy==1.5.0
SQLAlchemy==0.8.1
WebOb==1.2.3
altgraph==0.10.2
amqp==1.0.11
anyjson==0.3.3
argparse==1.2.1
billiard==2.7.3.28
biplist==0.5
celery==3.0.19
chaussette==0.9
distribute==0.6.34
flower==0.5.1
gevent==0.13.8
greenlet==0.4.1
kombu==2.5.10
macholib==1.5.1
objgraph==1.7.2
paramiko==1.10.1
pycrypto==2.6
pyes==0.20.0
pyramid==1.4.1
python-dateutil==2.1
redis==2.7.6
repoze.lru==0.6
requests==1.2.3
six==1.3.0
tornado==3.1
translationstring==1.1
urllib3==1.6
venusian==1.0a8
wsgiref==0.1.2
zope.deprecation==4.0.2
zope.interface==4.0.5
test_string과 같은 작업은 큰 문자열이며 여전히 메모리 누수가 있습니다.
@celery.task(ignore_result=True)
def process_crash_xml(test_string, client_ip, request_timestamp):
logger.info("%s %s" % (client_ip, request_timestamp))
test = [test_string] * 5
에서 worker_max_tasks_per_child을 설정하면 virtualenv''사용하고 있습니까? 사용중인 패키지/버전 목록이 있습니까? – dnozay
django를 사용하는 경우 DEBUG = False – monkut