0
내가 AWS-EMR에 pyspark 작업을 실행하고 나는 다음과 같은 오류가 발생했습니다 :pyspark : IO 오류 : [errno를 20] 아니 디렉토리
IOError: [Errno 20] Not a directory: '/mnt/yarn/usercache/hadoop/filecache/12/my_common-9.0-py2.7.egg/my_common/data_tools/myData.yaml'
사람이 내가 놓친 것 알고 있나요? 감사!
은 more info, spark job 또는 입출력 인수를 공유합니다. –
해결책을 찾았습니까? 나는 같은 문제에 직면 해있다. –