Spark는 Scala에 포함되어 있습니까? 그렇다면 라이브러리/바이너리는 어디에 있습니까?
프로젝트 구성은 project/
폴더에 있습니다. 내 경우는 여기있다 :
$ ls project/
build.properties plugins.sbt project SparkBuild.scala target
당신이 sbt/sbt assembly
을 수행 할 때, 그것은 다른 프로젝트 종속성과 함께 스칼라의 적절한 버전을 다운로드합니다. 예를 들어 폴더 target/
를 체크 아웃 : 스칼라 버전은 나를 위해 2.9.2입니다
$ ls target/
scala-2.9.2 streams
하는 것으로.
다른 모드 (배포판)로 Spark를 실행하려면 모든 노드에 스칼라를 설치해야합니까?
예. 코드가 다른 프로젝트에, 당신은 그들이 또한 슬레이브 노드에 존재 확인해야합니다 의존하는 경우 Spark documentation
에 설명 된대로 하나의 조립 단지를 만들 수 있습니다. 가장 많이 사용되는 방법은 코드와 그 종속성을 포함하는 어셈블리 jar (또는 "uber"jar)를 만드는 것입니다. sbt와 Maven 모두 어셈블리 플러그인을 가지고 있습니다. 어셈블리 jar를 만들 때 Spark 자체를 제공된 종속성으로 나열하십시오. 이미 슬레이브에 있기 때문에 번들로 묶을 필요가 없습니다. 어셈블 된 jar가 있으면 여기에 표시된대로 SparkContext에 추가합니다.SparkContext를 생성 할 때, 의존하는 jar를 1 개씩 제출하는 것도 가능합니다.