2017-11-08 6 views
0

하이브 테이블을 사용하여 Sparksession을 사용하려고했습니다. 나는 다음과 같은 코드를 사용했다 : val spark = SparkSession.builder() .appName ("spark") master ("local"). enableHiveSupport(). getOrCreate() spark.sql ("select * from data") .show()spark session with hivecontext

테이블을 찾을 수 없지만 테이블은 하이브에 있습니다. 이것 좀 도와주세요.

+0

당신이 불꽃의 conf에서 하이브-site.xml 파일을 추가 했습니까? –

답변

0

안녕하세요 당신이 좋아, 창고의 경로를 제공해야 자세한 내용

// warehouseLocation points to the default location for managed databases and tables 
val warehouseLocation = new File("spark-warehouse").getAbsolutePath 

val spark = SparkSession 
    .builder() 
    .appName("Spark Hive Example") 
    .config("spark.sql.warehouse.dir", warehouseLocation) 
    .enableHiveSupport() 
    .getOrCreate() 

, 당신은 여기에서 볼 수 있습니다 : Hive Tables with Spark