EMR의 워크 플로를 사용하여 s3에서 hdfs로 파일을 복사하려고하는데 아래 명령을 실행하면 jobflow가 성공적으로 시작되지만 파일을 복사하려고 할 때 오류가 발생합니다. HDFS. 입력 파일 권한을 설정해야합니까?s3distcp를 사용하여 amazon s3에서 hdfs로 파일을 복사 할 수 없습니다.
명령 :
./elastic-mapreduce --jobflow J-35D6JOYEDCELA --jar S3 : //us-east-1.elasticmapreduce/libs/s3distcp/1.latest/s3distcp.jar - -args '--src, S3 : // odsh/입/- 이명 령, HDFS : /// 사용자
출력
작업 TASKID = "task_201301310606_0001_r_000000"TASK_TYPE = "줄이기"를 TASK_STATUS = "FAILED"FINISH_TIME = "1359612576612"ERROR = "java.lang.RuntimeException : 감속 기 작업이 1 개의 파일을 복사하지 못했습니다 : s3 : // odsh/input/GL _01112_20121019.dat 등 조직에서 org.apache.hadoop.mapred.ReduceTask.runOldReducer (ReduceTask.java:538) 에서 com.amazon.external.elasticmapreduce.s3distcp.CopyFilesReducer.close (CopyFilesReducer.java:70) 에서 . apache.hadoop.mapred.ReduceTask.run (ReduceTask.java:429) at org.apache.hadoop.mapred.Child $ 4.run (Child.java:255) at java.security.AccessController.doPrivileged (네이티브 메소드) at javax.security.auth.Subject.doAs (Subject.java:396) at org.apache.hadoop.security.UserGroupInformation.doAs (UserGroupInformation.java:1132) at org.apache.hadoop.mapred.Child. main (Child.java:249)
누구 아는 사람? –