web-dev-qa-db-ja.com

スパースファイルのディレクトリをバックアップおよび復元するための最良の方法を探しています

スパースファイルのディレクトリがあります(duはこれらのファイルの1つに対して240Mを返します; lsは960Mを返します)。

これらのファイルの1つをS3にコピーすると、最終的に960M全体がアップロードされ、S3からダウンロードすると、duは960M全体を返すようになります。

gzippingを試してみました。これにより、アップロード/ダウンロードのサイズが小さくなります。ただし、抽出されたサイズはまだ960Mです(duを使用)。

これらのファイルをスパースファイルに戻す方法はありますか?

1
Jedi

Util-linuxの最新バージョンを指定すると、fallocate --Dig-holesを使用してこれを行うことができます。

または、cp --sparse=alwaysは、コピー先としてスパースファイルを作成します(その後、元のファイルの上に移動できます)。

スパースファイルは、GNU tarのtar -Sまたはtar --sparseオプションを使用してアーカイブできます。たとえば、圧縮も必要な場合はtar -czSf foo.tar.gz foo 、またはそうでない場合はtar -cSf foo.tar foo

2
user1686