2016-08-19 3 views

답변

1

나는 그렇다고 대답 할 것입니다. Spark에 사용 된 간단한 .sbt 파일 (예 : https://github.com/databricks/learning-spark/blob/master/build.sbt)을 살펴보면 스파크 의존성이 많이 필요하다는 것을 알 수 있습니다. (좋아, 거기에 나열된 모든 것들은 아닙니다 ...). 또한

, 당신은 플러그인이 무엇을 보면, 당신은 좀 더 유틸리티 기능을 찾을 수 있습니다 : https://github.com/databricks/sbt-spark-package/blob/master/src/main/scala/sbtsparkpackage/SparkPackagePlugin.scala

그것은 멋진 플러그인입니다!