s3cmd CLI를 사용하여 32GB 파일을 S3 버킷에 업로드하려고합니다. 다중 업로드를하고 있으며 종종 실패합니다. 저는 1000mbps의 대역폭을 가지고있는 서버에서이 작업을하고 있습니다. 그러나 업로드는 여전히 매우 느립니다. 이 속도를 높이기 위해 할 수있는 일이 있습니까?Amazon S3 멀티 파트 업로드가 종종 실패합니다.
반면에 파일은 내가 언급 한 서버의 HDFS에 있습니다. Amazon Elastic Map Reduce 작업을 참조하여이 HDFS에서 가져 오는 방법이 있습니까? 여전히 업로드되지만 작업이 실행되고 있습니다. 따라서 전반적인 프로세스가 훨씬 빠릅니다.
참조하십시오. http://stackoverflow.com/questions/5774808/s3cmd-failed-too-many -타임스 – Amar