2017-09-18 2 views
2

pyspark을 가정용 컴퓨터에 설치하고 싶습니다. 나는했다pip 설치 후 pyspark 실행하기 pyspark

pip install pyspark 
pip install jupyter 

둘 다 잘 작동하는 것처럼 보였다.

하지만 pyspark를 실행하려고하면 나는

pyspark 
Could not find valid SPARK_HOME while searching ['/home/user', '/home/user/.local/bin'] 

SPARK_HOME 어떻게 설정해야 얻을?

답변

5

PyPi의 Pyspark (즉, pip과 함께 설치됨)에는 전체 Pyspark 기능이 포함되어 있지 않습니다. 이것은 이미 존재하는 클러스터에있는 Spark 설치에서만 사용하기위한 것입니다. docs :

스파크 용 파이썬 패키지는 다른 모든 사용 사례를 대체하기위한 것이 아닙니다. 이 Python 패키지 버전의 Spark는 기존 클러스터 (Spark standalone, YARN 또는 Mesos)와의 상호 작용에 적합하지만 독립형 Spark 클러스터를 설정하는 데 필요한 도구는 포함되어 있지 않습니다. Spark의 전체 버전은 Apache Spark downloads 페이지에서 다운로드 할 수 있습니다.

참고 : 당신이 불꽃 독립형 클러스터로 이것을 사용하는 경우 (부 버전 포함) 버전이 일치하는지 확인해야하거나 경험 이상한 오류

당신은 전체 불꽃을 다운로드해야합니다 수를 설명 된 바와 같이 분포가 here입니다.

+1

감사합니다. 독립 실행 형 리눅스 박스에서 pyspark를 처음부터 실행하고 실행하기위한 지침이 있습니까? – eleanora

+2

@eleanora 방금 다운로드하고 압축을 풀고'SPARK_HOME'을 설정하십시오 - 여기 '업그레이드 중'에 대한 내 대답을 참조하십시오 https://stackoverflow.com/questions/33887227/how-to-upgrade-spark-to-newer-version/33914992 # 33914992,하지만 웹은 말 그대로 단계별 자습서로 가득합니다 ... – desertnaut