2016-07-15 2 views
0

내가 AWS-EMR에 pyspark 작업을 실행하고 나는 다음과 같은 오류가 발생했습니다 :pyspark : IO 오류 : [errno를 20] 아니 디렉토리

IOError: [Errno 20] Not a directory: '/mnt/yarn/usercache/hadoop/filecache/12/my_common-9.0-py2.7.egg/my_common/data_tools/myData.yaml' 

사람이 내가 놓친 것 알고 있나요? 감사!

+0

은 more info, spark job 또는 입출력 인수를 공유합니다. –

+0

해결책을 찾았습니까? 나는 같은 문제에 직면 해있다. –

답변

0

오류 상태 my_common-9.0-py2.7.egg은 (는) 디렉토리가 아닙니다.

경로에 공간이 부족합니까?

/mnt/yarn/usercache/hadoop/filecache/12/my_common-9.0-py2.7.egg /my_common/data_tools/myData.yaml

관련 문제