2016-10-10 3 views
0

나는 spark를 처음 사용하고 우분투 시스템에 설치 한 후에 문제가 발생했습니다.Spark, Ubuntu의 Pyspark 문제

스파크 환경, mongo-hadoop 커넥터를 다운로드했으며이 시스템을 설치 한 후 PySpark (쉘을 얻으려면)를 실행하면 cmd가 발견되지 않거나 cmd를 찾을 수 없거나 패키지를 가져 오는 경우 pyspark_mongo 패키지를 가져 오는 경우 java가 생깁니다. 파이썬 그것은 그런 라이브러리를 보여줍니다. 내가 pyspark을 실행하거나 빈에 제출 촉발하려고하면

/이 오류가 촉발 : 는 스파크 항아리 디렉토리 (/spark/assembly/target/scala-2.10/jars를) 찾지 못했습니다. 이 프로그램을 실행하기 전에 대상 "패키지"로 Spark를 빌드해야합니다.

데이터 분석을 위해이 작업이 필요한 사람은 무엇을 할 수 있는지 조언 해주십시오.

+0

어디서 얻었습니까? 나는 새로운 사람이기도하다. 'spark.apache.org'에서'spark-2.0.0-bin-hadoop2.7.tgz'를 폴더로 압축 해제하고이 폴더'./bin/pyspark'와'./bin/run-example ' SparkPi'는 나를 위해 일한다 - Linux Mint (우분투 14 기반) – furas

+0

이러한 예제들은 디렉토리에 도움을주기 위해 제공된다. 나는 당신과 같은 소스에서 spark를 다시 다운로드했다. http://spark.apache.org/docs/2.0.1/quick-start.html에서 다양한 언어로 된 문서를 참조 할 수 있으며 도움이 되었기를 바랍니다. –

답변

0

"pyspark"명령이 없으므로 제대로 설치되지 않았다고 가정합니다. 기본적으로/bin/pyspark로 사용 가능합니다.

관련 문제