2014-11-03 3 views
0
import org.apache.spark.rdd.RDD 
import org.apache.spark.SparkContext 
import org.apache.spark.mllib.feature.HashingTF 
import org.apache.spark.mllib.linalg.Vector 

val sc: SparkContext = ... 

// Load documents (one per line). 
val documents: RDD[Seq[String]] = sc.textFile("...").map(_.split(" ").toSeq) 

val hashingTF = new HashingTF() 
val tf: RDD[Vector] = hashingTF.transform(documents) 

에 대한 샘플 TFIDF 코드를 컴파일하는 동안, 내가 얻을 수없는 난 내 빌드에서 다음 줄을 추가 한HashingTF 위의 코드를 컴파일하는 동안 아파치 스파크

[error] /siva/test/src/main/scala/com/chimpler/sparknaivebayesreuters/Tokenizer.scala:10: object feature is not a member of package org.apache.spark.mllib 
[error] import org.apache.spark.mllib.feature.HashingTF 
[error]        ^
[error] /siva/test/src/main/scala/com/chimpler/sparknaivebayesreuters/Tokenizer.scala:36: not found: type HashingTF 
[error] val hashingTF = new HashingTF() 
[error]     ^
[error] /siva/test/src/main/scala/com/chimpler/sparknaivebayesreuters/Tokenizer.scala:37: not found: value hasingTF 
[error] val tf: RDD[Vector] = hasingTF.transform(documents) 
[error]      ^
[error] three errors found 
[error] (compile:compile) Compilation failed 
[error] Total time: 14 s, completed 3 Nov, 2014 1:57:31 PM 

다음과 같은 오류가 발생합니다. sbt 파일.

libraryDependencies ++= Seq(
    "org.apache.spark" %% "spark-core"    % "1.0.2" % "provided", 
    "org.apache.spark" %% "spark-mllib"    % "1.0.2" % "provided") 
// "org.apache.spark" %% "spark-streaming"   % "1.0.0" % "provided") 

모든 포인터?

답변

1

잘못된 버전의 mllib를 사용하고있었습니다. libraryDependencies를 spark-mllib 1.1.0으로 수정하여 수정했습니다.

관련 문제