2014-04-21 2 views
1

, 나는 명령을 점화 SBT 어셈블리에 오류 쓰기 './bin/spark-shell', 나는 약간의 힌트 follwing을 가지고 : /opt/spark-0.9에서는 스파크 설치 README에서

찾을 여러 스파크 조립 단지를 .0-incubating-bin-hadoop1/assembly/target/scala-2.10 : spark-assembly-0.9.0-incubating-hadoop1.0.4.jar spark-assembly_2.10-0.9.0-incubating-hadoop1.0.4. jar 한 병을 제외하고 모두 제거하십시오.

나는 그 중 하나를 제거하려고 시도했지만 성공하지 못했습니다. 누군가가 문제를 해결할 수 있으면 알려주세요. 덕분에 .

답변

0

어셈블리/대상/scala-2.10 디렉토리로 cd하면됩니다. 다시 컴파일하려면 sbt를 사용하십시오.

다른 컴파일 방법과 호환되지 않기 때문에 발생합니다. maven과 sbt를 모두 사용할 수 있습니까? 당신은 내가 무슨 짓을

SBT/SBT 깨끗한 조립

가 실행할 때

0

문제는 JAR 파일이 어셈블리의 JAR 파일에 내장되어 있다는 것입니다 : SBT/SBT 깨끗한 패키지

이는 것 작은 JAR을 제공합니다. 다음 단계는 bin/compute-classpath.sh 스크립트의 CLASSPATH를 수동으로 업데이트하고 모든 JAR을 추가하는 것입니다.

로 : 그것은 항상 우리가 저장소 경로를 납치 하지 않는 한, 메이븐의 repo에서 끌어 또는 'MVN 설치 할 것이기 때문에 우리는 우리 자신의 하둡 패치를 소개 할 수

SBT/SBT 어셈블리 '로컬. 이것은 내가 생각하는 해킹 이상의 것입니다.

+0

클래스 경로를 수동으로 업데이트하는 방법은 무엇입니까? sparkContext를 초기화하는 동안 오류가 발생합니다. [this] (http://stackoverflow.com/questions/25898282/error-while-defininng-sc-in-sparkcontext-pyspark)를 참조하십시오. – COSTA