2017-11-29 1 views
0

Windows 상자에 Scala, Spark, SBT 및 winutils를 설치했습니다. 또한 JAVA_HOME, SPARK_HOME, SCALA_HOME, SBT_HOME을 적절하게 구성했습니다. 그래도 '스파크 셸'을 실행하려고하면 많은 사람들이 직면 한 매우 일반적인 문제가 발생합니다. winutils와 windows explorer를 통해 c :/tmp/hive 디렉토리에 대한 액세스 권한을 부여하려고 시도했습니다. 그러나 같은 문제. 누군가 내가 누락되었을 수있는 것이 무엇인지 말할 수 있다면 고맙겠습니다. 버전 : 스파크 : 2.1.1 스칼라 : 2.11 은 아래 스크린 샷에 링크입니다 : https://filedropper.com/filemanager/public.php?service=files&t=b5cc12549b9ae19ff969c65cb952c135spark-shell 초기화 오류/tmp/hive 쓸 수 없음

https://filedropper.com/filemanager/public.php?service=files&t=cb5b9b8f14980963be6f0a6511f71455

https://filedropper.com/filemanager/public.php?service=files&t=a2d471abfe57ca020a700c226b906faf

당신의 도움을 주셔서 감사합니다! 감사합니다. 매니큐어

+0

HiveSupport를 활성화 할 때까지'spark-shell'은'/ tmp/hive'를 읽을 필요가 없습니다 ... –

+0

'spark-shell' ** 하이브 사용 가능'SparkSession'을 사용하므로 해당 계층을 올바르게 구성해야합니다. –

답변

0

감사합니다. cricket_007 및 Jacek. 나는 당신의 의견에 감사드립니다. winutils와의 버전 호환성 문제가 발견되었습니다. 올바른 버전으로/tmp/hive에 대한 권한이 변경 될 때까지 여러 버전을 사용해 보았습니다