2011-03-01 1 views
2

현재 내가 아카이브로, 아마존 S3에 내 사진을 동기화하기 위해 우분투에서이 같은 것을 쓰고 있어요 :대안은 로컬 폴더 사이에 동기화 할 s3cmd하는 아마존 S3 암호화 기능이

cd /media/PHOTO/Pictures 
s3cmd sync --dry-run --delete-removed ./ s3://bob.photos/Pictures/ > ~/Desktop/output.txt 

내가 생각 때문에 내 사진 매우 민감한 데이터는 아니므로 암호화 문제는 제쳐두고 그대로 둡니다. 그러나 gmail이 모든 사용자의 이메일을 지우는 데 문제가 있기 때문에 s3을 gmail의 대체 백업으로 생각하고 있습니다.

Gmail에서 메일을 가져 오는 데 getmail을 사용하고 있지만 s3에도 업로드하려고했지만 암호화 문제가 다시 발생합니다. 이번에는 암호화해야합니다.

나는 s3cmd 설명서를 보았으며, 매번 다시 모든 파일을 업로드해야한다고 말했고, 돈이 낭비 될 것이라고 생각합니다.

누구나 s3cmd 대신 암호화 기능을 제안 할 수 있습니다 (즉, 업로드 할 때 암호화하고 다운로드 할 때 암호를 해독합니다.). 명령으로 조작해도 좋습니다. 그리고 괜찮 으면 내 사진에도 사용하겠습니다.

미리 감사드립니다.

답변

0

그냥 해결책은 전자 메일을 다운로드하고, gpg를 실행하고, 출력을 저장하고, s3cmd를 통해 s3으로 동기화로 업로드한다고 말하는 것이 좋습니다. 새로운 이메일과 gpg 만 다운로드하면 파일을 반복적으로 업로드하지 않게됩니다. 이 같은 기본적으로 뭔가 :

getmail 
gpg -e 
s3cmd sync 

내가 분명히 여기 프로토 타입거야하지만 생각이 작동합니다 (난 당신이 원하는 일을하려고 적이 없다).

1

시도 Rclone 이렇게하면 Rsync와 유사한 작업을 수행 할 수 있습니다. 그것은 멀티 파트 업로드를 할 수 있고 parrallel에서 업로드를 만들 수 있습니다 .. 그것은 또한 퓨즈 capabilties을 가지고 ... 내 웹 사이트에 그것을 사용합니다. 당신이 로그인 할 수 있습니다 볼 수 있듯이

rclone sync /LOCALDIRECTORYFORFILETOBEUPLOADED CONFIGURATIONFORCLOUD:my-bucket-in-the-cloud --retries 4 --verbose --transfers=4 --log-file /var/log/rclonelog/rclone.log 

, 선택

rclone mkdir CONFIGURATIONFORCLOUD:my-bucket-in-the-cloud 

드라이 실행 :

rclone --dry-run --verbose --transfers=2 -q --checkers=1 copy CONFIGURATIONFORCLOUD:my-bucket-in-the-cloud /LOCALDIRECTORYFORFILETOBEUPLOADED --log-file /var/log/rclonelog/rclone.log 

시작 로컬 폴더 및 원격 버킷 사이의 동기화

버킷 만들기 동시 세션 수 및 재시도 횟수. 당신은 업로드으로 multipart 수있는 드라를 수행

Rclone는 다른 buckest 수준 액세스 여러 사용자가있는 경우,이

+0

몇 가지 주석을 추가 할 수있는 권한에 맞게 사용할 수 있도록, 리눅스 사용자 당 파일 PROFIL을 만들 , 로깅 추가 등. – MouIdri