Gentoo Linuxを新しくインストールし、別のマシンからソフトウェアRAID 5アレイを備えた新しく構築されたマシンがあります(4 IDEオフボードPCIコントローラーに接続されたディスク)。コントローラーを正常に移動しました新しいマシンへ;ドライブはカーネルによって検出されます;そして私はmdadm --examineを使用して、単一のRAIDパーティションが検出され、クリーンで、さらに「正しい」順序であるかを検証しました(hde1 ==ドライブ0、hdg1 ==ドライブ1など)。
私がアクセスできないのは、古いマシンの元の構成ファイルです。データを失うことなく、このアレイを再度アクティブ化するにはどうすればよいですか?
オリジナルのmdadm.confファイルが本当に必要です。ただし、それがない場合は、再作成する必要があります。まず、何かを行う前に、 マニュアルページからmdadmを読んでください 。把握していない状況やコマンドでデータを失う可能性があるのはなぜですか?
つまり、このアドバイスはあなた自身の責任です。間違ったコマンドですべてのデータを簡単に失う可能性があります。何かを実行する前に、 コマンドの影響を再確認してください 。私はあなたが取るあらゆる行動に関連するデータ損失またはその他の問題について責任を負うことはできません-そのためすべてを再確認してください。
あなたはこれを試すことができます:
mdadm --assemble --scan --verbose /dev/md{number} /dev/{disk1} /dev/{disk2} /dev/{disk3} /dev/{disk4}
これにより、IDとともに、作業を開始するための情報が提供されます。また、新しいアレイデバイス/ dev/md {number}が作成され、そこからマウントを見つけることができます。 --auto
オプションを使用しないでください。manページの冗長性は、特定の状況下で、これがドライブのアレイ設定を上書きする可能性があることを意味します。これはおそらくではなくケースであり、おそらくページを明確にするために書き直す必要がありますが、なぜそれが起こるのでしょうか?
配列が正しくアセンブルされ、すべてが「正常」である場合、mdadm.confを/etc
に書き込んで保存し、起動時に使用できるようにしてください。配列の新しいIDをファイルに含めて、それを支援します。
少なくともDebianに対する私の完全な回答を追加したかっただけです。
Sudo apt-get install mdadm
を介してRAIDマネージャーをインストールします-> Sudo mdadm --assemble --scan
で古いRAIDディスクをスキャンします
この時点で、私はBLKID
を確認し、確認のためにraidを手動でマウントします。
blkid mount /dev/md0 /mnt
mdadm --detail --scan >> /etc/mdadm/mdadm.conf
を介してmdadm.confに情報を追加します-> update-initramfs -u
でinitramfsを更新します
トラブルシューティング:
mdadm --detail --scan
の出力が/etc/mdadm/mdadm.conf
と一致することを確認してください
nano /etc/mdadm/mdadm.conf
ARRAY /dev/md/0 level=raid5 num-devices=3 metadata=00.90 UUID=a44a52e4:0211e47f:f15bce44:817d167c
FSTABの例
/dev/md0 /mnt/mdadm ext4 defaults,nobootwait,nofail 0 2
https://unix.stackexchange.com/questions/23879/using-mdadm-examine-to-write-mdadm-conf/52935#52935
mdadm -Ac partitions -m 0 /dev/md0
/ proc/partitionsにリストされているすべてのパーティションとデバイスをスキャンし、マイナー番号が0のRAIDスーパーブロックを使用して、そのようなデバイスすべてから/ dev/md0をアセンブルします。
confが成功した場合、-detail --scan >> /etc/mdadm/mdadm.confを追加して、起動時にそれをキャッチできます。