私はLinuxサーバー(Ubuntu 16.04)を使用しており、外部の「ストレージボックス」をマウントして、数テラバイトのサーバーデータ(高頻度と低頻度の両方の変更)を定期的にバックアップし、ユーザーの属性(所有者/グループ)を追跡します。/permissions)。
これらのストレージボックスのプロバイダーは、次のプロトコルを提供します:FTP、FTPS、SFTP、SCP、Samba/CIFS、HTTPS、WebDAV
どのバックアップツールを検討すればよいですか?最初にデータをローカルにマウントする必要があるので、rsyncを提案した場合、マウントにはどのプロトコルを使用すればよいですか?ユーザーの属性をバックアップすることは可能ですか(つまり、サーバーとホスト間のユーザーのマッピング)。
これは、実際にはネットワークの詳細と、ストレージアプライアンスの設計方法によって異なります。
ストレージディレクトリをファイルシステムとしてマウントする必要がある場合は、SMB/CIFSまたはSSHFS(ストレージデバイス上で動作するSFTPサポートが必要なだけ)を使用してスタックしていることは明らかです。これら2つのうち、SMBは、ほとんどの場合、バルク転送以外のすべてのパフォーマンスが向上します(バルク転送の場合、どちらかが勝つ可能性があります)。NFSv4サポートが機能している場合(およびOEMの発言に関係なく、Ubuntuボックスである場合は絶対にできるはずです)。通常、SMB/CIFSとSSHFSの両方でほとんどの場合、パフォーマンスは優れています。
ネットワーク経由でデータを送信したいだけの場合、正直に言うと、選択肢はそれほど多くありません。 SFTPとSCPは私がおそらくあなたの状況で使用するものです。通常のFTP(およびFTPS(FTP over SSL))はがらくたであり、WebDAV(HTTPまたはHTTPSを介しているかどうかに関係なく)はバルクストレージシナリオ用に設計されていません(DAVスタンド)これは、コンテンツをWebサーバーにプッシュするためのFTPの代替として設計されたという事実をよく説明しています。そのための理想的な状況では、rsync(多くのファイルを転送する必要がある場合)、またはおそらくnetcat(1つだけコピーする必要がある場合bigファイル)を使用します。
重複性を使用することをお勧めします(ただし、数テラバイトの規模ではテストしていません)。これには、多くのバックエンドがあり、増分バックアップがチャンクに分割され(デフォルトでは25 MB)、チャンクをダウンロードするだけです。復元に必要です。正常に動作するため、scp/sftpで使用することをお勧めします。
ネットワークがファイルを転送できる速度でバックアップする必要がある場合、これらのプロトコルはどれも理想的ではありません。ただし、1つの大きなバックアップの場合、数GBの重複性のみの毎日(または1時間ごと)の増分バックアップは正常に機能します。