지금까지 작업 흐름을 예약하기 위해 Apache Airflow를 한동안 사용해 왔습니다. 내 DAG 스케줄링 문제가있는 것 같습니다. 나는 참조 할 수 있도록이 SO 질문을 사용하고있다 : 나는 오류로이가 계속공기 흐름 실행 문제 DAG
airflow scheduler
airflow trigger_dag dag_mkdir_folder
:
Airflow not scheduling Correctly Pythonfrom airflow import DAG
from airflow.operators.bash_operator import BashOperator
from datetime import datetime
from datetime import timedelta
default_args = {
'owner': 'airflow',
'depends_on_past': False,
'start_date': datetime.now() - timedelta(minutes=5),
'email': ['[email protected]'],
'email_on_failure': False,
'email_on_retry': False,
'retries': 1,
'retry_delay': timedelta(minutes=5),
}
dag = DAG('dag_mkdir_folder', default_args=default_args,
schedule_interval=timedelta(minutes=5))
task_hello = BashOperator(task_id='print_hello',
bash_command='mkdir test_airflow', dag=dag)
내가 명령의 다음 목록을 사용하여 작업을 실행하기 위해 노력하고있어
[2017-05-15 13:49:06,688] {models.py:322} DagFileProcessor406 INFO - Finding 'running' jobs without a recent heartbeat [2017-05-15 13:49:06,689] {models.py:328} DagFileProcessor406 INFO - Failing jobs without heartbeat after 2017-05-15 13:44:06.689284
bash 명령은 새로운 디렉토리를 생성하기로되어 있습니다. 테스트 버전이 잘 작동합니다.
을? – Lisa