하나의 마스터 & 슬레이브 2 개를 사용하여 Google Compute Engine에 Hadoop (Yarn + Spark) 클러스터를 배포했습니다. 다음 쉘 스크립트를 실행할 때 :SparkPi 프로그램은 Yarn/Spark/Google Compute Engine에서 계속 실행됩니다.
spark-submit --class org.apache.spark.examples.SparkPi - master yarn-cluster --num-executors 1 - 드라이버 메모리 1g --executor-
작업이 단지 &을 계속 실행 메모리 1g의 --executor 코어 /home/hadoop/spark-install/lib/spark-examples-1.1.0-hadoop2.4.0.jar 10
1 초마다 나는 메시지가15/02/06 22:47:12 INFO yarn.Client: Application report from ResourceManager:
application identifier: application_1423247324488_0008<br>
appId: 8<br>
clientToAMToken: null<br>
appDiagnostics:<br>
appMasterHost: hadoop-w-zrem.c.myapp.internal<br>
appQueue: default<br>
appMasterRpcPort: 0<br>
appStartTime: 1423261517468<br>
yarnAppState: RUNNING<br>
distributedFinalState: UNDEFINED<br>
appTrackingUrl: http://hadoop-m-xxxx:8088/proxy/application_1423247324488_0008/<br>
appUser: achitre
나는 다음과 같은 예외를 얻을 : 스레드 "주요"org.apache.spark.SparkException에서 예외 : SparkContext는 org.apache.spark.SparkContext.runJob (SparkContext에 종료 하고있다. 스칼라 : 1082) at org.apache.spark.SparkContext.runJob (SparkContext.scala : 1158) at org.apache.spark.rdd.RDD.reduce (RDD.scala : 861) at org.apache.spark. 예 : SparkPi.main (SparkPi.scala : 35) at org.apache.spark.examples.SparkPi.main (SparkPi.scala) – DilTeam
구직이 끝나거나 결과를 받기 전에 받고 있습니까? – baju
'yarn logs -applicationId을 실행했을 때 예외적으로 발견되었습니다. "main"스레드의 예외 java.lang.NumberFormatException : 입력 문자열 : "5999m" –
DilTeam