最近家を引っ越しましたが、mdadm RAID5セットアップを使用しているファイルサーバーの電源を入れた後、電源に問題が発生しました。私が使用しているファイルシステムはext4です。
--examineをざっと見た後、ある時点で2つ(5つのうち)のディスクがほぼ同時にアレイから落ちたようです。ルートディレクトリまたはホームディレクトリのマウントポイントとして使用されておらず、当時は使用されていなかったため、ディスクへの書き込みが行われてパリティが失われる可能性は低いと考えました(ただし、使用されていた可能性があります)。マウント)。
だから私はこれがアレイを停止して試すのに良い時期だと思いました
mdadm --assemble --scan --force -v
アレイの一部としてキックアウトされる2番目のディスクを受け入れますが、最初のディスクは受け入れません。最後の同期日が「遠すぎる」ことを除いて、ひどく悪いことは何もないようです。さらに悪いことに、5つのディスクのうち4つでアレイを起動できたとしても、アレイは正しくアセンブルされていないように見えます。
注目に値するもう1つの点は、アレイ内のディスクを再度起動した後、ドライブ文字が変更されたように見えることです。 SATAコントローラーに問題がある可能性がありますか?
他の何かがさらに物事を台無しにしようとした場合に備えて、いくつかの交換用ディスクが現在の内容をddするように注文します。
幸いなことに、私はほとんどのコンテンツのバックアップを持っていますが、それらは少し古いので、可能であればそれらを使用することに頼らないようにしたいと思います。
これを回避する方法がない場合、誰かがこの種のシナリオを処理するファイル回復ツールの提案を持っていますか?私はそれが不可能であるべき方法を知っていますが、正しく尋ねることは害はありませんか?
(これはおそらく手遅れですが、誰かがこれに遭遇した場合に備えて...)
最近、RAID10アレイで同様のことが起こりました。ドライブが数週間誤って取り外されました(尋ねないでください...)。再挿入すると、mdadm --add
およびmdadm --re-add
両方とも失敗しました。私がしなければなりませんでした mdadm --zero-superblock
ドライブ上で、次にmdadm --add
正常に動作しました。
5つの作業ディスクのうち4つがあり、永続的なスーパーブロックを使用している場合、アレイは劣化モードで起動する必要があります。 「正しく組み立てられていないように見える」とはどういう意味か正確にはわかりません。シャットダウンが汚れていた場合は、--force
おそらく必要であり、すでに使用しています。
RAIDリカバリに関する情報もたくさんあります https://raid.wiki.kernel.org/index.php/RAID_Recovery 。