spark 1.3.0에서 작업 중입니다. 내 build.sbt는 다음과 같이 보입니다 :sbt 파일의 스파크 라이브러리에서 hadoop 의존성을 제외합니다.
libraryDependencies ++= Seq(
"org.apache.spark" %% "spark-core" % "1.3.0" % "provided",
"org.apache.spark" %% "spark-sql" % "1.3.0" % "provided",
"org.apache.spark" %% "spark-streaming" % "1.3.0" % "provided",
"org.apache.spark" %% "spark-mllib" % "1.3.0" % "provided",
"org.springframework.security" % "spring-security-web" % "3.0.7.RELEASE",
"com.databricks" % "spark-csv_2.10" % "1.4.0"
)
// META-INF discarding
mergeStrategy in assembly <<= (mergeStrategy in assembly) { (old) =>
{
case PathList("META-INF", xs @ _*) => MergeStrategy.discard
case x => MergeStrategy.first
}
}
이 sbt 파일을 컴파일하는 동안 hadoop 2.2.0이 사용되고 있습니다. 하지만 내 실행 환경에는 hadoop 2.6.0이 포함되어 있습니다. 누구든지 스파크 라이브러리에서 hadoop 종속성을 제외하고 sbt 파일에서 hadoop 2.6.0을 언급 할 수있는 방법을 도울 수 있습니까?
감사