답변

2

pythonfile.py

from pyspark.sql import SparkSession 
spark = SparkSession.builder.appName("appName").getOrCreate() 
sc = spark.sparkContext 
rdd = sc.parallelize([1,2,3,4,5,6,7]) 
print(rdd.count()) 

당신이 원하는 구성으로 위의 프로그램을 실행 예 :

YOUR_SPARK_HOME/bin/spark-submit --master yourSparkMaster --num-executors 20 \ 
     --executor-memory 1G --executor-cores 2 --driver-memory 1G \ 
     pythonfile.py 

이 옵션은 필수하지 않습니다. 같이 달릴 수도 있습니다

YOUR_SPARK_HOME/bin/spark-submit --master sparkMaster/local pythonfile.py 
관련 문제