로컬로 실행되는 Spark 어플리케이션에 최대 메모리를 설정하려고합니다. 나는 많은 다른 방법을 시도했다.스파크 메모리를 설정할 수 없습니다.
프로그램SparkConf conf = new SparkConf();
conf.setMaster("local[2]");
conf.setAppName("app");
conf.set("spark.executor.memory", "4G");
conf.set("spark.driver.memory", "4G");
sc = new JavaSparkContext(conf);
에서
그리고
./bin/spark-submit.cmd ./local/app.jar --master local[2] --driver-memory 4G
을 실행하지만 난 항상
INFO [MemoryStore] MemoryStore started with capacity 366.3 MB
다음
을 얻을 스파크 디스크에 RDD 유출. 스파크 버전은 2.0입니다.어떻게해야합니까?
당신이 작은 'g'를 시도 않았다 전에 가야합니다
--driver-memory
상관 보인다? – numX@numX 작은 g을 시도했지만 그 결과는 같습니다. –