重複を使用してすべてのファイルをAmazon S3にバックアップするバックアップルーチンを既に設定しています。 Google Cloud Storageで同様のバックアップルーチンを作成したいと思います。 GCSで作業するために重複を取得することは可能ですか?
(2013-07-19-バージョン0.6.22以降)Google Cloud Storageを複製で直接使用できるようになりました。
gsutil config -a
構成ファイルを作成するには、~/.boto
を使用する必要があります。そして、次のような複製を使用できます。
duplicity local_dir gs://yourbucket
また、古い認証メカニズムのみがサポートされていることにも注意してください。 Google Storage Console から「相互運用アクセス」を有効にする必要があります。
http://www.willdurness.com/back-up-your-vm-to-google-cloud-storage-using-duplicity の詳細な手順.
_boto_single.py
ファイルから始めて変更するのが最も簡単です。gsutil
ツールを使用してS3とGCSを同期する必要があります。ホルヘの答えは示しています。または、Duplicityを使用してローカルにバックアップし、gsutil
を使用してGCSと同期することもできます。これは次の人を助けるかもしれない部分的な答えです:
これまでのところ、Googleドライブ/ドキュメントへのコピーがサポートされているようです:
duplicity localdir gdocs://username:[email protected]/remotedir/
ただし、これはGoogle Cloud Storageとは異なります。 Ithinkこれは、重複と gsutil の両方がbotoを使用するため実行可能になりますが、これに作業が必要かどうかはわかりませんただし、複製自体で行われます。
これをソートするまでの回避策として、s3からGCSバケットに直接コピーできます。
gsutil -m cp -R s3://yourbucket gs://yourbucket
Duplicityのバージョンv0.6.22(2013/08/22)には、Google Cloud Storageのサポートが追加されました。
deja-dup
34.1(duplicityのGUI)に「Google Cloud Storageの実験的サポート」が追加されました( https://launchpad.net/deja-dup/+milestone/34.1 )
(GCSバケットでHMAC認証の相互運用性を有効にし、以前のバージョンのDeja-DupでS3バケットを指定しようとしました-duplicity
が行う方法と同様ですが、利用できませんでした)