, 나는 명령을 점화 SBT 어셈블리에 오류 쓰기 './bin/spark-shell', 나는 약간의 힌트 follwing을 가지고 : /opt/spark-0.9에서는 스파크 설치 README에서
찾을 여러 스파크 조립 단지를 .0-incubating-bin-hadoop1/assembly/target/scala-2.10 : spark-assembly-0.9.0-incubating-hadoop1.0.4.jar spark-assembly_2.10-0.9.0-incubating-hadoop1.0.4. jar 한 병을 제외하고 모두 제거하십시오.
나는 그 중 하나를 제거하려고 시도했지만 성공하지 못했습니다. 누군가가 문제를 해결할 수 있으면 알려주세요. 덕분에 .
클래스 경로를 수동으로 업데이트하는 방법은 무엇입니까? sparkContext를 초기화하는 동안 오류가 발생합니다. [this] (http://stackoverflow.com/questions/25898282/error-while-defininng-sc-in-sparkcontext-pyspark)를 참조하십시오. – COSTA