Zeppelin 노트북에서 Amazon S3에있는 avro 파일을 읽고 싶습니다. 나는 Databricks가 그것을위한 멋진 패키지를 가지고 있다고 이해합니다 spark-avro
. 이 jar 파일을 클러스터로 부트 스트랩하여 작동하게하려면 필요한 단계는 무엇입니까? <console>:34: error: value avro is not a member of org.apache.spark.sql.DataFrameReader
Amazon EMR 클러스터에 spark-avrojar 부트 스트랩
내가 this을 살펴 있었다 -
내 노트북이 쓰기
, val df = sqlContext.read.avro("s3n://path_to_avro_files_in_one_bucket/")
나는 아래의 오류가 발생합니다. 아마 거기에 게시 된 솔루션은 Amazon EMR의 최신 버전에서 작동하지 않는다고 생각합니다.
누군가 포인터를 줄 수 있다면 정말 도움이 될 것입니다.