S3에서 데이터를 복제하려고합니다. 우리는 합리적으로 큰 수십억 개의 얼룩 (1GB ~ 100GB 범위의 많은 것들)에 대해 이야기하고 있습니다. 이 작업은 미국 표준의 S3 얼룩에 대해 미국 동부의 기계에서 수행됩니다.gsutil cp -Rn s3 : // foo gs : // bar가 느리고 egret보다 많이 들어갑니다.
gsutil 3.34는 몇 시간 동안 실행 한 후에도 이탈보다 훨씬 더 많이 걸리는 것 같습니다. 몇 가지 옵션을 조정하려고했지만 어디에도 가지 않았습니다.
측정 예 : 78387.82KB/s에서 3154.36KB/s. 나는 2x 비율을 얻는다고해도 좋지만 10x +는 정말로 옳다고 생각하지 않습니다.
어떤 일이 벌어 질지 궁금하십니까?
업로드 할 때 파일이 gzip으로 압축 될 수 있습니다. – jterrace
아하! 그것은 그럴 수 있습니다. –
처음에는 파일들이 GNU gzip에 의해 gzip으로 압축 된 것을 제외하고 ... –