XFSファイルシステムを搭載したmdadmで管理されている3つのディスクRAID5アレイがあります。マシンを使用しているときに、マシンが突然応答しなくなった(新しいプログラムが起動しないなど)ことに気付きましたが、それでも新しいxtermを開いてdmesgを実行するのに十分でした。カーネルログには、多数のSATAリンクタイムアウトが示されていました。マシンを再起動すると、2台のドライブ(DVDドライブと一緒にアレイ内の1台のドライブ)がBIOSによって報告されませんでした。問題はDVDドライブであることが判明し(私はしばらくの間問題を抱えていました)、それを切断するとハードドライブが再び見えるようになりました。 smartctl
で問題のディスク(/dev/sdc
)を見ると問題ないように見えるので、これはディスク障害ではないと思います。
問題は、アレイを再アクティブ化する方法がわからないことです。 /dev/sda3
を使用してパーティション/dev/sdb3
とmdadm --examine
(失敗しなかったもの)を見ると、どちらももちろん/dev/sdc3
が不良/削除されていると考えていることがわかりますが、/dev/sdc3
大丈夫だと思います。さらに悪いことに、配列はアクティブに書き込まれていたため、イベントカウントが異なり、sda3とsdb3の値が高くなっています。 (私はその新しく書かれたデータを完全に捨てることをいとわないでしょうが、それは適切ではないと思います)。
回復のための最善の行動方針は何ですか? mdadm -A /dev/md2
を実行しても何も実行されず、mdadm --auto-detect
はアレイを検出しません。
$ Sudo mdadm --query /dev/md2
/dev/md2: is an md device which is not active
$ Sudo mdadm --query /dev/sda3
/dev/sda3: device 0 in 3 device undetected raid5 /dev/md2. Use mdadm --examine for more detail.
ただし、mdadm --examine --scan -c none
を実行すると、正しいUUIDで配列が出力されるため、明らかにそれが検出されます。 /proc/mdstat
の関連部分は、すべてのドライブをスペアとして表示しています。
md2 : inactive sda3[0](S) sdc3[2](S) sdb3[1](S)
811868544 blocks
RAID5で1つのドライブに障害が発生したために、アレイにアクセスできなくなったのは非常に興味深いことです。 :(
ここでの最善の行動方針は何ですか?
/ proc/mdstatに配列が表示されている場合、配列はアセンブルされています。あなたはそれを始める必要があります:
Sudo mdadm -R /dev/md2
起動しない場合は、-v
スイッチ(詳細)を使用してコマンドを再実行し、結果を投稿してみてください。
有効にすると、ステータスを確認し、必要に応じてsdc3を再度追加できるようになります。