Jupyter Notebook과 Anaconda에서 Spark를 작동 시키려고 며칠을 보냈습니다. Jupyter Notebook과 Anaconda에서 작동하도록 Spark 구성
PATH="/my/path/to/anaconda3/bin:$PATH"
export JAVA_HOME="/my/path/to/jdk"
export PYTHON_PATH="/my/path/to/anaconda3/bin/python"
export PYSPARK_PYTHON="/my/path/to/anaconda3/bin/python"
export PATH=$PATH:/my/path/to/spark-2.1.0-bin-hadoop2.7/bin
export PYSPARK_DRIVER_PYTHON=jupyter
export PYSPARK_DRIVER_PYTHON_OPTS="notebook" pyspark
export SPARK_HOME=/my/path/to/spark-2.1.0-bin-hadoop2.7
alias pyspark="pyspark --conf spark.local.dir=/home/puifais --num-executors 30 --driver-memory 128g --executor-memory 6g --packages com.databricks:spark-csv_2.11:1.5.0"
내가 /my/path/to/spark-2.1.0-bin-hadoop2.7/bin/spark-shell
을 입력
sc
은 비어 있지 않습니다. 잘 작동하는 것 같습니다.
pyspark
을 입력하면 내 Jupyter 노트북을 정상적으로 시작합니다. 나는 새로운 Python3 노트북을 만들 때이 오류가 나타납니다 내 Jupyter 노트북에서
[IPKernelApp] WARNING | Unknown error in handling PYTHONSTARTUP file /my/path/to/spark-2.1.0-bin-hadoop2.7/python/pyspark/shell.py:
그리고 sc
가 비어 있습니다.
아무도이 상황을 해결할 수 있습니까?
오류를 끝내려면 콜론 뒤에 아무 것도 없습니다. 나는이 post를 사용하여 내 자신의 시작 파일을 만들려고하고 당신이 거기 찾아 갈 필요가 없습니다 그래서 내가 여기에 인용 : 다음과 같이
내가 짧은 초기화 스크립트를 init_spark.py 생성 : 내가 이런 짓을 할 때 오류가 다음되었다
from pyspark import SparkConf, SparkContext
conf = SparkConf().setMaster("yarn-client")
sc = SparkContext(conf = conf)
는와 ~/.ipython/profile_default/시작/디렉토리에 배치 :
[IPKernelApp] WARNING | Unknown error in handling PYTHONSTARTUP file /my/path/to/spark-2.1.0-bin-hadoop2.7/python/pyspark/shell.py:
[IPKernelApp] WARNING | Unknown error in handling startup files:
경고 텍스트의 나머지 부분은 무엇으로 PI를 계산하려고 새로운 Python3 노트북을 만들? 그 줄 끝에 콜론이 있습니다. 그 뒤에 오는 것이 있습니까? – darthbith
아니요! 그것은 비어 있습니다. 쉼표 뒤에 아무 것도 없습니다. – puifais
'alias' 줄을 삭제하거나 그 중 일부 옵션을 삭제하면 어떨까요? 오류가 변경됩니까? – darthbith