たくさんの小さなファイル(数百万のファイル、1.5を超えるデータ)を備えたサーバーがあります。TB)適切なバックアップ戦略が必要です。
ファイルシステムベースのバックアップには時間がかかりすぎます。コピーする必要のあるファイルを列挙するだけでも1日かかります。
Acronisは24時間でディスクイメージを実行できますが、翌日に差分バックアップを実行しようとすると失敗します。
DFS-Rは、これほど多くのファイルを含むボリュームを複製しません。
継続的なレプリケーションができるように見えるDoubleTakeを見始めています。 WANを介したファイルごとではなく、ブロックまたはセクターレベルで継続的なレプリケーションを実行できる他のソリューションはありますか?
いくつかの詳細:
ファイルは約75,000のディレクトリに分割されます。
毎日の変更の99%は、新しいディレクトリの追加によるものです。既存のファイルが変更されることはめったにありません。
他にも関連する議論があります ここ 。
1.5 TBは http://www.exdupe.com/ :pで30分かかります
...ディスクが十分に高速であるとすると(exdupeは非常に高速であるため、CPUバウンドではなくIOバウンド)です)。
そして、私はまだファイル数の制限に達していません。何百万もありました。
編集:ああ、ファイルシステムレベルではなく、パーティション/セクターベースのバックアップが必要ですか?それはできません...多分http:// www。 drivesnapshot.de/en/は一撃の価値があります(スパム保護のためにスペースを追加する必要がありました)。差分バックアップとシャドウボリュームコピーも行います(再起動なし)。
価格にもかかわらず、私はDoubletakeで幸運に恵まれました。彼らの「移動」製品は予算に合うかもしれませんが...
同様の質問に対する私の答えを参照してください ここ 。
Shadowprotectをチェックしてください。連続的ではありませんが、15分ごとに増分を実行するように設定できます。それはかなり素晴らしいソフトウェアです。 ImageManagerエンタープライズ部分を追加すると、オフサイトバックアップ用の優れたレプリケーション機能も提供されます。