1

AWS S3에 기반한 텍스트 분석을위한 웹 API를 개발 중입니다. 클라이언트가 대형 (멀티 MB 또는 다중 GB) 파일을 업로드 할 수있게하기 위해 나는 S3 멀티 파트 업로드 기능을 살펴 보았습니다. 클라이언트가 업로드하는 엔드 포인트는 내 API에 속하므로 S3 사용을 직접 노출하지 않습니다. 제 생각에 (대수롭지 않은) 가정은 대용량 파일을 제출할 때 먼저 내 서버에 파일의 다중 업로드를 처리 한 다음 내 서버에서 S3으로 두 번째 다중 업로드를 수행해야한다는 것입니다. 그게 맞는 것 같니? 또는 어떤 종류의 방향 전환. 가능성은 특히 효율적으로 들리지 않습니다 ...API에서 S3로 멀티 파트 업로드

나는 DropBox가 아마도 S3에 의해 뒷받침된다는 점을 감안할 때 아마도 DropBox는 이와 같은 작업을 수행합니다. DropBox 자체를 원시 S3 API가 아닌 쉽고 빠르게 사용할 수 있는지 궁금합니다.

답변

0

고객은 API를 통해 그대로 대용량 파일을 업로드 할 수 있으며,이 성능을 S3에 여러 부분으로 업로드를하고 단일 파트 업로드에 대한 5기가바이트 제한 휴식에서 :

http://aws.amazon.com/s3/faqs/#How_much_data_can_I_store

을 당신도 클라이언트가 서비스에 업로드하는 동안 여러 부분을 S3로 보내거나 모든 것을 캐시하고 요청을 끝내고 비동기 적으로 제공하십시오.

보관 용 응용 프로그램은 큰 파일을 허용하지만, 드롭 박스는 300메가바이트에 자신의 웹 인터페이스를 통해 업로드의 크기를 제한 :

https://www.dropbox.com/help/5/en

관련 문제