아마존 S3에서 몇 개의 큰 버킷을 동기화하려고합니다.S3cmd sync가 "kill"을 반환합니다.
S3cmd sync --recursive 명령을 실행하면 "죽었다"라는 응답이 나타납니다.
누구에게 이것이 무엇을 의미하는지 알고 있습니까? S3에서 동기화 할 수있는 파일 수에 제한이 있습니까?
당신의 도움을위한 Thx
아마존 S3에서 몇 개의 큰 버킷을 동기화하려고합니다.S3cmd sync가 "kill"을 반환합니다.
S3cmd sync --recursive 명령을 실행하면 "죽었다"라는 응답이 나타납니다.
누구에게 이것이 무엇을 의미하는지 알고 있습니까? S3에서 동기화 할 수있는 파일 수에 제한이 있습니까?
당신의 도움을위한 Thx
주위를 읽은 후 프로그램에 메모리 소비 문제가있는 것처럼 보입니다. 특히 이로 인해 OOM killer (메모리 부족 킬러)이 프로세스를 중단시키고 시스템이 멈추는 것을 방지 할 수 있습니다. 프로세스가 종료 된 후 dmesg
을 간략히 살펴보면 일반적인지 여부를 알 수 있습니다.
그 점을 염두에 두어 최신 릴리스를 확인했습니다. 이는 메모리 소비 문제가 release notes에서 해결되고 있음을 나타냅니다.
이전 질문이지만 실제 메모리를 추가하거나 메모리를 늘리려면 먼저 스왑을 추가하십시오.
낮은 RAM (총 700MB, 사용 가능한 15MB 만 사용)이있는 4 대의 서버 (우분투 및 Centos)로이 작업을 수행 했으므로 이제는 정상적으로 작동하고 있습니다.
버튼 오른쪽 위에 있습니다. 그러나 최신 소스에서 s3cmd를 설치 한 후에도 프로세스가 계속 종료됩니다. EC2 인스턴스의 메모리를 늘리거나 다음 단계 중 하나를 수행해야 할 수도 있습니다. http://stackoverflow.com/a/15266865/242426 – plainjimbo
나는 이것도 실행하고 있었지만 방랑에서 뛰고있었습니다. 팁이 메모리 문제 였기 때문에, 방황 설정을 확인한 결과 VM이 256MB 밖에 안되는 것으로 나타났습니다. 문제가 해결되면 문제가 해결되었습니다. – SunSparc
여기 같은, 메모리 증가 (제 경우에는 512MB에서 2GB로)로 문제가 해결되었습니다. – Pavel