저는 로컬에서 디버깅하고 클러스터에 배포 할 수있는 Apache Spark 응용 프로그램을 빌드하고 있습니다. 이렇게하려면 다음 요구 사항을 충족시키기 위해 spark-core (Java/scala 라이브러리)에 대한 종속성을 정의해야합니다. 컴파일에 더해어셈블리, 패키징이 아닌 compile, run, test에 라이브러리를 포함하도록 maven의 종속성 범위를 정의하는 방법은 무엇입니까?
제공된 스파크 코어 클러스터에 배포 조립체 (배제 (로컬 디버깅 유닛 테스트)를 실행 및 테스트 포함 (다른 현명한 컴파일 실패)이 감소 항아리 크기별 70M, maven-assembly를 사용하여 해결할 수없는 jar hell 문제가 있으므로 maven-shade 플러그인을 사용 중입니다.
불행히도 maven이 기본적으로 지원하지 않는 사용자 정의 범위 인 것처럼 보입니다. . 일부 플러그인을 사용하여 활성화 할 수있는 방법이 있습니까?
http://stackoverflow.com/questions/18838944/sbt-how (모든 스파크 이적 종속성 최종 항아리에 추가) -with-add-supplied-dependencies-back-to-run-test-tasks-classpath 즉, sbt 대신에 maven을 사용하여 동일한 결과를 얻고 싶습니다. – tribbloid
실제 문제는 무엇입니까? maven을 사용하여 문제없이 불꽃을 실행하십시오 – aaronman