2017-11-06 1 views
1

현재 실행해야 할 스파크 작업 (java)이 있습니다. 너무 많은 리소스가 필요하지 않습니다. 그러나 sqoop 작업 (MapReduce)을 실행할 때마다 작업이 ACCEPTED : AM 컨테이너가 할당되고 시작되고 RM에 등록 될 때까지 대기합니다.스파크 작업이있을 때 Hadoop - Sqoop 작업이 ACCEPTED에서 멈춤 RUNNING

나는 Ambari를 확인했고 일정을위한 spark 설정은 FAIR입니다. 테스트를 위해 동일한 불꽃 작업 2 개를 실행하려고 시도했지만 문제가 발생하지 않았습니다 (상태가 둘 다 실행 중임). 맵 축소 작업을 실행하기에 충분한 코어와 메모리가 남아 있어야합니다.

스파크 명령을 제출 : Both Accepted : 여기

sqoop import -D mapreduce.map.memory.mb=2048 \ 
    --connect "jdbc:sqlserver://some.server\SQL2012;database=SomeDB;username=someUser;passwor =somePass" \ 
    --e "SELECT SOMETHING" where \$CONDITIONS"\ 
    --fields-terminated-by \\002 \ 
    --escaped-by \\ \ 
    --check-column Message_Audit_Log_Id \ 
    --incremental append \ 
    --last-value 1 \ 
    --split-by Message_Audit_Log_Id \ 
    --target-dir /target/path/ 

는 참조 용으로 일부 이미지입니다 : 내 Sqoop을 명령, 나는 메모리 제한을 추가하지만 도움이되지 않았다
/usr/hdp/current/spark-client/bin/spark-submit \ 
    --class com.some.App \ 
    --master yarn-cluster \ 
    --deploy-mode cluster \ 
    --num-executors 1 \ 
    /path/to/file.jar "some.server:6667" "Some_App" "Some_App_Parser" "some.server" 
jdbc:jtds:sqlserver://some.server:1433/HL7_Metadata 
&; done 

Yarn UI

답변

관련 문제