저는 Spark의 초보자입니다. "Linux + idea + sbt"를 사용하여 환경을 구축합니다. 문제 : 내 디스크 그들의아이디어 sbt java.lang.NoClassDefFoundError : org/apache/spark/SparkConf
Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/SparkConf
at test$.main(test.scala:11)
at test.main(test.scala)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:498)
at com.intellij.rt.execution.application.AppMain.main(AppMain.java:144)
Caused by: java.lang.ClassNotFoundException: org.apache.spark.SparkConf
at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:331)
at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
... 7 more
버전 :
sbt = 0.13.11
jdk = 1.8
scala = 2.10
idea = 2016
내 디렉토리 구조 :
test/
idea/
out/
project/
build.properties
plugins.sbt
src/
main/
java/
resources/
scala/
scala-2.10/
test.scala
target/
assembly.sbt
build.sbt
build.propert에서 IES :
sbt.version = 0.13.8
plugins.sbt에서
:
logLevel := Level.Warn
addSbtPlugin("com.github.mpeltonen" % "sbt-idea" % "1.6.0")
addSbtPlugin("com.eed3si9n" % "sbt-assembly" % "0.11.2")
build.sbt 물 :
import sbt._
import Keys._
import sbtassembly.Plugin._
import AssemblyKeys._
name := "test"
version := "1.0"
scalaVersion := "2.10.4"
libraryDependencies += "org.apache.spark" % "spark-core_2.10" % "1.6.1" % "provided"
assembly.sbt 물 : test.scala에서
import AssemblyKeys._ // put this at the top of the file
assemblySettings
:
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf
object test {
def main(args: Array[String]) {
val logFile = "/opt/spark-1.6.1-bin-hadoop2.6/README.md" // Should be some file on your system
val conf = new SparkConf().setAppName("Test Application")
val sc = new SparkContext(conf)
val logData = sc.textFile(logFile, 2).cache()
val numAs = logData.filter(line => line.contains("a")).count()
val numBs = logData.filter(line => line.contains("b")).count()
println("Lines with a: %s, Lines with b: %s".format(numAs, numBs))
}
}
이 문제를 어떻게 해결할 수 있습니까?
이 문제는 Scala 클래스'src/main/scala/app/Main.scala'에서 발생합니다. 모든게 괜찮아 보이지만 응용 프로그램이 실행되지만'NoClassDefFoundError'를 받기 때문에'ScparkConf()'를 인스턴스화 할 수 없습니다. 나는이 자습서 (https://hortonworks.com/tutorial/setting-up-a-spark-development-environment-with-scala/)를 따르고 있는데 의존성 관리에서도''제공된 '을 사용합니다. 내가 이해하지 못하는 것은 나에게 이것이 마치 이렇게 작동해야하는 것처럼 보입니다. 그래서'제공된 '을 제거해야합니까, 아니면이 플래그를 설정하더라도이 작업을 할 수 있습니까? – displayname