df
이라는 DataFrame이 있다고 가정 해보십시오. 파일이 디렉토리 example
에, 나는 두 개의 파일과 디렉토리를 참조 (만들어 졌는지 여부를 확인하기 위해 나는이 작업을 수행 할 때, 그러나Spark SQL 데이터 프레임을 저장하려고하면 빈 디렉토리가 항상 나타납니다.
df.coalesce(1).
write.
format("com.databricks.spark.csv").
option("header", "true").
parquet("example")
}
을 가서 : 나는 로컬로 저장하려고 다음 명령을 실행하여
_SUCCESS ._SUCCESS.crc
가 어떻게이 DataFrame 제대로 파일을 저장할 수 있습니까?
것이 중요 경우
, 나는 또한 내가 로컬 말할 때, 그래서 본질적으로 Jupyter 노트북을 통해이 일을하고, 나는 의미 저장해 Jupyter Notebook 서버에서, Spark가 실행되고있는 곳이 아닌 곳 (Spark이 다른 마스터 노드를 가리키고 있음).
이전에 시도해 보았습니다. 그 경우에는 제목이 약간 오도 된 경우에는 죄송합니다. 나는 또한 단순화를 위해 쪽모이 세공을하려고했습니다. 불행히도, 나는 여전히 빈 디렉토리를 얻는다. –
헤더 옵션 제거에 도움이되는지 확인하십시오. csv 형식의 옵션이 예상대로 작동하지 않는 경우가 있음을 기억합니다. –