아파치 피닉스에서 스파크 데이터 프레임으로 데이터를로드하려고합니다.스파크 피닉스 데이터 프레임을 만들 수 없습니다.
내가 성공적으로 다음 코드와 함께 RDD를 만들 수 있었다 : 나는 DataFrame을 만들려고 그렇게 운이 없었다 그러나
val sc = new SparkContext("local", "phoenix-test")
val sqlContext = new org.apache.spark.sql.SQLContext(sc)
val foo: RDD[Map[String, AnyRef]] = sc.phoenixTableAsRDD(
table = "FOO",
columns = Seq("ID", "MESSAGE_EPOCH", "MESSAGE_VALUE"),
zkUrl = Some("<zk-ip-address>:2181:/hbase-unsecure"))
foo.collect().foreach(x => println(x))
. 나의 현재의 시도는 다음과 같습니다는 ClassCastException에서
val sc = new SparkContext("local", "phoenix-test")
val sqlContext = new SQLContext(sc)
val df = sqlContext.phoenixTableAsDataFrame(
table = "FOO",
columns = Seq("ID", "MESSAGE_EPOCH", "MESSAGE_VALUE"),
zkUrl = Some("<zk-ip-address>:2181:/hbase-unsecure"))
df.select(df("ID")).show
불행하게도 위의 코드 결과 :
java.lang.ClassCastException: org.apache.spark.sql.catalyst.expressions.GenericMutableRow cannot be cast to org.apache.spark.sql.Row
난 여전히 불꽃 매우 새로운 오전. 누구든지 도움을받을 수 있다면 대단히 감사하겠습니다! HBase를 1.1.1 독립 모드에서 실행 :
당신이 당신의 스파크 버전과 예외의 세부 사항을 언급하지 않았지만
내 대답은 괜찮습니다. 투표로 다른 사용자에게 포인터로 도움이되는 "승인 된 소유자" –