SparkConfig
및 SparkContext
을 갖는 실행 프로그램의 Java (또는 스칼라) 코드 양을 어떻게 구성 할 수 있습니까? 나는 끊임없이 2 명의 유언 집행자를 본다. spark.default.parallelism
과 같은 모양은 작동하지 않으며 다른 것에 관한 것입니다.스파크 집행자의 수를 설정하는 방법은 무엇입니까?
실행 프로그램의 양을 클러스터 크기와 동일하게 설정하면되지만, 항상 2 개만 있습니다. 내 클러스터 크기를 알아. 이 문제가 있으면 나는 원숭이를 먹는다.
spark.default.parallelism 속성은 join, reduceByKey, groupBy와 같은 줄이기 연산을위한 것입니다. – Rags