spark-mongo-connector을 사용하여 MongoDB에 데이터를 저장하는 MS Windows 10 64 비트 Spark Streaming 응용 프로그램을 실행합니다. java.lang.RuntimeException가 :Windows 10에서 Spark Streaming 응용 프로그램을 실행하는 방법은 무엇입니까?
에 의해 발생 : 심지어
pyspark
나는 스파크 응용 프로그램을 실행할 때마다, 나는 다음과 같은 예외가 루트 스크래치 디렉토리는 : HDFS의/tmp/하이브 쓸 수 있어야한다. 현재 권한은 다음과 같습니다 RW-RW-rw-을
전체 스택 추적 :
Caused by: java.lang.RuntimeException: The root scratch dir: /tmp/hive on HDFS should be writable. Current permissions are: rw-rw-rw-
at org.apache.hadoop.hive.ql.session.SessionState.createRootHDFSDir(SessionState.java:612)
at org.apache.hadoop.hive.ql.session.SessionState.createSessionDirs(SessionState.java:554)
at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:508)
... 32 more
내가 경로에 HADOOP_HOME
환경 변수를 가리키는 로컬로 자신을 설치하는 하둡 3.0.0 알파 1 사용 Hadoop dir 및 %HADOOP_HOME%\bin
은 PATH
환경 변수에 있습니다.
hdfs dfs -chmod 777 /tmp/hive
하지만이 명령 출력 :
이 util.NativeCodeLoader 경고를
> hdfs dfs -ls /tmp Found 1 items drw-rw-rw- - 0 2016-12-26 16:08 /tmp/hive
나는 다음과 같은 권한을 변경하려고 :
그래서 나는 다음을 수행하려고 : 해당 플랫폼에 native-hadoop 라이브러리를로드 할 수 없습니다 ... 내장 Java 클래스 사용 해당되는 경우
내 OS 용 Hadoop의 기본 라이브러리가 누락 된 것 같습니다.이 라이브러리를 살펴본 후에는 64 비트 플랫폼 용 libhadoop.so.1.0.0
을 다시 작성해야합니다.
Windows 10 64 비트 용 기본 라이브러리는 어디에서 찾을 수 있습니까? 다른 해결책이 있습니까? 도서관에서 가져 왔니?
당신이있는 경우, 당신은 당신의 불꽃 스트리밍 응용 프로그램을 실행할 때, 스파크는 자신에 대한'winutils.exe'을 사용 그래서 당신은'제어판의 HADOOP_HOME'와'PATH' 환경 변수를 정의하는지 확인 낮은 수준의 물건. –
사실 그것은 실제로 사용 권한을 변경했지만 스파크는 여전히 동일한 예외의 출력을 표시합니다 – MrRobot
Spark 앱을 어떻게 실행합니까? Spark 앱을 예외로 시작한 후 처음부터 전체 출력을 붙여 넣을 수 있습니까? gist.github.com을 사용하여 전체 출력을 붙여 넣으십시오 (또는 충분히 짧으면 질문에 붙여 넣으십시오). –