私たちのサーバーはUbuntu Linuxを実行しており、バイナリファイルは大規模なMongoDBコレクションのBSONダンプです。 split
のようなツールはどの程度信頼できますか?これを行うためのより速いまたはより良い方法はありますか?
分割は非常に信頼できます。大きなログファイルを移植するために使用し、最大数GBまで正常に機能しました(とにかく50 GBではありません)。
要件に応じて分割を使用してみてください。私たちに知らせてください。
5GBファイルに分割
split --bytes = 5G入力ファイル
5GBの複数のファイルに分割され、xaa、xab、xacなどの名前が付けられます。
連結
猫x *>出力ファイル
これにより、相手側で1つのファイルとして連結できます。
split
&cat
は完全に信頼できます。さらに、このようにインラインで圧縮できます。入力ファイルが_dump.bson
_であるとします。
_gzip < dump.bson | split -b 32M - dump.bson.gz.
_
そして、これで再構成します:
_cat dump.bson.gz.* | gunzip > dump.bson
_
ヒント:これは、xz(dec)
の代わりにg(un)Zip
を使用しても同様に機能します。
Rarがインストールされている場合、それは私にとって非常にうまくいきます:
分離する
rar a -m0 -v5000m newfilename giantfile.foo
再構成するには:
unrar x newfilename.*
メリット: