build.sbt
for Spark을 설정하는 방법에 대한 자세한 설명을 보았습니다.spark-sbt-plugin의 이해
그러나 나는 플러그인이 불쾌한 일을하고있는 것처럼
https://github.com/databricks/sbt-spark-package
같은 한 줄이 정상 분명히 SBT plugin for Spark packages 읽어보십시오.
이 이해가 정확합니까?
build.sbt
for Spark을 설정하는 방법에 대한 자세한 설명을 보았습니다.spark-sbt-plugin의 이해
그러나 나는 플러그인이 불쾌한 일을하고있는 것처럼
https://github.com/databricks/sbt-spark-package
같은 한 줄이 정상 분명히 SBT plugin for Spark packages 읽어보십시오.
이 이해가 정확합니까?
나는 그렇다고 대답 할 것입니다. Spark에 사용 된 간단한 .sbt 파일 (예 : https://github.com/databricks/learning-spark/blob/master/build.sbt)을 살펴보면 스파크 의존성이 많이 필요하다는 것을 알 수 있습니다. (좋아, 거기에 나열된 모든 것들은 아닙니다 ...). 또한
, 당신은 플러그인이 무엇을 보면, 당신은 좀 더 유틸리티 기능을 찾을 수 있습니다 : https://github.com/databricks/sbt-spark-package/blob/master/src/main/scala/sbtsparkpackage/SparkPackagePlugin.scala
그것은 멋진 플러그인입니다!