현재 실행해야 할 스파크 작업 (java)이 있습니다. 너무 많은 리소스가 필요하지 않습니다. 그러나 sqoop 작업 (MapReduce)을 실행할 때마다 작업이 ACCEPTED : AM 컨테이너가 할당되고 시작되고 RM에 등록 될 때까지 대기합니다.스파크 작업이있을 때 Hadoop - Sqoop 작업이 ACCEPTED에서 멈춤 RUNNING
나는 Ambari를 확인했고 일정을위한 spark 설정은 FAIR입니다. 테스트를 위해 동일한 불꽃 작업 2 개를 실행하려고 시도했지만 문제가 발생하지 않았습니다 (상태가 둘 다 실행 중임). 맵 축소 작업을 실행하기에 충분한 코어와 메모리가 남아 있어야합니다.
스파크 명령을 제출 : : 여기
sqoop import -D mapreduce.map.memory.mb=2048 \
--connect "jdbc:sqlserver://some.server\SQL2012;database=SomeDB;username=someUser;passwor =somePass" \
--e "SELECT SOMETHING" where \$CONDITIONS"\
--fields-terminated-by \\002 \
--escaped-by \\ \
--check-column Message_Audit_Log_Id \
--incremental append \
--last-value 1 \
--split-by Message_Audit_Log_Id \
--target-dir /target/path/
는 참조 용으로 일부 이미지입니다 : 내 Sqoop을 명령, 나는 메모리 제한을 추가하지만 도움이되지 않았다
/usr/hdp/current/spark-client/bin/spark-submit \
--class com.some.App \
--master yarn-cluster \
--deploy-mode cluster \
--num-executors 1 \
/path/to/file.jar "some.server:6667" "Some_App" "Some_App_Parser" "some.server"
jdbc:jtds:sqlserver://some.server:1433/HL7_Metadata
&; done