는
pg_dump -Fc -Z 9 --file=file.dump myDb
된 Fc와 덤프를 만듭니다 pg_restore에에 입력에 적합한 출력 사용자 정의 아카이브를. 이것은 데이터를로드하고 오브젝트 정의를 다시 정렬 할 수있는 가장 유연한 형식입니다. 이 형식은 기본적으로 압축되어 있습니다.
Z 9 --compress = 0..9 사용할 압축 수준을 지정하십시오. 0은 압축이 없음을 의미합니다. 사용자 정의 아카이브 형식의 경우 개별 테이블 데이터 세그먼트의 압축을 지정하며 기본값은 중간 수준에서 압축하는 것입니다.일반 텍스트 출력의 경우, 0이 아닌 압축 레벨을 설정하면 gzip을 통해 공급 된 것처럼 전체 출력 파일이 압축됩니다. 그러나 기본값은 압축되지 않습니다. tar 아카이브 형식은 현재 압축을 전혀 지원하지 않습니다.
및
pg_restore -Fc -j 8 file.dump
-j 그것을 복원 : --jobs = 수 - 중 - 일 pg_restore에 가장 시간이 많이 걸리는 부분 실행 - 그 부하 데이터, 인덱스를 만들거나 제약 조건을 만들 - 여러 개의 동시 작업 사용. 이 옵션은 대형 데이터베이스를 다중 프로세서 시스템에서 실행중인 서버로 복원하는 시간을 크게 줄여줍니다.
각 작업은 운영 체제에 따라 하나의 프로세스 또는 하나의 스레드이며 서버에 별도의 연결을 사용합니다.
이 옵션의 최적 값은 서버, 클라이언트 및 네트워크의 하드웨어 설정에 따라 다릅니다. CPU 코어 수 및 디스크 설정 등이 요인입니다. 시작하기 좋은 곳은 서버의 CPU 코어 수이지만 그보다 큰 값은 많은 경우에 더 빠른 복원 시간을 초래할 수 있습니다. 물론 너무 높은 값은 스 래싱 때문에 성능이 저하 될 수 있습니다.
이 옵션에서는 사용자 지정 보관 형식 만 지원됩니다. 입력 파일은 정규 파일이어야합니다 (예 : 파이프가 아님). 이 옵션은 데이터베이스 서버에 직접 연결하지 않고 스크립트를 내보낼 때 무시됩니다. 또한 여러 작업을 --single-transaction 옵션과 함께 사용할 수 없습니다.
링크 :
pg_dump
pg_restore
어느 쪽이든, 1200 만 개 삽입 튜닝을 사용, 그것은 일반적으로 중간 괜찮은에 분 같은의 문제 하드웨어, psql 및 일반 SQL 덤프 포함. 7 시간이 걸렸다면, 셋업에 문제가 생길 수 있습니다. –
이것은 아마도 명백 할 것이지만, 덤프에 cross-db 호환성 옵션'--inserts' 또는'--column-inserts'를 제공하지 않았는지 확인하십시오. ASCII 스크립트가'COPY'를 사용하여 데이터를 다시로드하는지 점검 할 수도 있습니다. –
자세한 내용은 EC2 마이크로 인스턴스로 작업 중이므로 약간의 메모리 제한이 있습니다. 데이터가 이전 7.4 설정에서 왔기 때문에 Postgresql 7.4 (직접 컴파일해야 함)입니다. –