2017-11-23 1 views
2

s3의 여러 테이블 (마루판 형식)에 데이터를 쓰는 qubole에서 실행되는 apache spark 1.6.3의 코드가 있습니다. 테이블에 쓸 때 나는 계속 java.io.FileNotFound exception을 얻는다.java.io.FileNotFound qubole에서 apache spark에 쓰는 동안 예외가 발생했습니다.

나는 심지어 설정합니다 : spark.sql.parquet.output.committer.class=org.apache.spark.sql.parquet.DirectParquetOutputCommitter.
하지만 이건 내 문제를 해결하지 않는 것 같습니다. 또한 로그를 확인하는 동안 예외는 _temporary location being missing으로 인한 것입니다. 나는 왜 DirectParquetOutputCommitter을 사용한 후에도 _temporary 위치를 이해하지 못한다. 이 예외는 계속 발생합니다.

누구나이 문제를 해결할 수 있는지 알려 주시기 바랍니다. 감사.

답변

0

S3는 일관된 파일 시스템이 아닙니다. 그것은 결과적으로 일관된 객체 저장소이며, 목록 작업은 생성 된 파일에 잠시 뒤쳐지는 경향이 있습니다.

이 세상에서 볼 때 쓰여진 데이터가 "있을 수 있음"으로 간주되는 코드는이 세상에서 부러 질 수 있습니다. 죄송합니다.

관련 문제