Spark-yarn 클러스터 환경을 설정했는데 Spark (2.2.0)는 Windows 7에 있습니다. 원사 클러스터가 하프 업 2.7.3. 내가 SparkSQL를 사용하는 "스파크 쉘"를 실행spark-yarn 클러스터 환경에서 실행할 수있는 스파크 제출은 오직 하나뿐입니다.
:
spark-shell --master yarn --deploy-mode client --conf spark.yarn.archive=hdfs://hadoop_273_namenode_ip:namenode_port/spark-archive.zip
모든 것이 지금까지 OK,하지만 난 다른 "스파크 쉘을"시작할 때 메시지가 아래 결코 보인다 콘솔에 출력을 종료 : I은 F를 닫으면
17/10/17 17:33:53 INFO Client: Application report for application_1640_0003 (state: ACCEPTED)
ResourceManager에 웹 애플리케이션의 UI 상태
[application status] ACCEPTED: waiting for AM container to be allocated, launched and register with RM
를 도시 irst "스파크 셸", 두 번째는 잘 작동합니다.
동시에 (내 환경에서는) 여러 개의 스파크 셸 (스파크 제출)을 허용하지 않는 것 같습니다.
한계를 깨는 방법? AM 용기를 기다리고
첫 번째 작업이 사용 가능한 모든 리소스를 차지할 수 있습니다. 따라서 두 번째 작업은 실행하기 전에 일부 작업을 무료로 기다려야합니다. – Shaido