대용량 파일 (게놈 데이터가 포함되어 크기가 ~ 10GB에 이른다)을 사용하는 Docker 이미지 (결과적으로 해당 이미지의 컨테이너)를 만들어야합니다.Docker 컨테이너의 거대한 파일
어떻게 사용량을 최적화해야합니까? 용기에 넣어야합니까 (예 : COPY large_folder large_folder_in_container
)? 이러한 파일을 참조하는 더 좋은 방법이 있습니까? 중요한 점은 내 개인 저장소에서 그러한 컨테이너 (10GB 이상)를 밀어내는 것이 이상하게 들린다는 것입니다. 모든 GB를 함께 포장하지 않고도 일종의 볼륨을 컨테이너에 부착 할 수있는 방법이 있는지 궁금합니다.
감사합니다.
확실히 유용합니다. 하지만 레지스트리에있는 이미지를 팝업 (컨테이너를 실행) 할 때 시스템의 snappiness가 걱정됩니다. 이것을 (배치 단계에서) Packer를 통해 새로운 OpenStack 인스턴스에 컨테이너를로드해야하는 CI/CD 파이프 라인에 맞추려고합니다. 그러한 인스턴스는 항상 다르기 때문에 새로 생성 된 OpenStack 인스턴스에 거대한 컨테이너를로드하기 위해 CD 파이프 라인을 통과 할 때마다 매번 커밋 할 때마다 10GB를 이동해야 할 때가 있습니다. 이 솔루션이 가장 적합한 솔루션입니까? – Eleanore
@Eleanore 이미지가 슬레이브의 로컬 도커 레지스트리에로드되면 컨테이너가 즉시 시작됩니다. 그러나 이미지가 변경되면 이전 이미지를 기반으로 새 이미지를 점진적으로 작성하고 변경 사항 만 포함하는 것이 가장 좋습니다. 즉, * 모든 * 10GB가 한 이미지에서 다음 이미지로 바뀌면 ... 실제로 문제가있는 것입니다. – VonC