私の現在のmdstat:
$ cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md0 : active raid6 sde[8] sdh[4] sdg[1] sdd[6] sdb[5] sdc[7]
9766914560 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/6] [UUUUU_U]
unused devices: <none>
これがmdadm--detailです:
$ Sudo mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Fri Apr 26 21:52:21 2013
Raid Level : raid6
Array Size : 9766914560 (9314.46 GiB 10001.32 GB)
Used Dev Size : 1953382912 (1862.89 GiB 2000.26 GB)
Raid Devices : 7
Total Devices : 6
Persistence : Superblock is persistent
Update Time : Tue Mar 28 15:19:34 2017
State : clean, degraded
Active Devices : 6
Working Devices : 6
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Name : server:0 (local to Host server)
UUID : 7dfb32ef:8454e49b:ec03ac98:cdb2e691
Events : 34230
Number Major Minor RaidDevice State
8 8 64 0 active sync /dev/sde
1 8 96 1 active sync /dev/sdg
4 8 112 2 active sync /dev/sdh
5 8 16 3 active sync /dev/sdb
6 8 48 4 active sync /dev/sdd
10 0 0 10 removed
7 8 32 6 active sync /dev/sdc
私の質問は次のとおりです。
[〜#〜] update [〜#〜]正解はsdfです。 mdadm出力に表示されるディスクのセットとシステム内のすべてのディスク(sda-はOSを搭載したブートディスク)を比較して見つけましたが、それでもそのような手順は難しすぎることがわかりました。
mdadm --detail /dev/md0
を実行して、RAIDアレイのUUIDを取得できます。この場合は「7dfb32ef:8454e49b:ec03ac98:cdb2e691」です。
次に、mdadm --examine /dev/sda
を実行し、それがどのArray UID
に属しているかを確認します。それが同じで、sdaがmdadm --detail /dev/md0
出力にない場合は、ディスクが取り外された可能性があります。
mdadm
がディスクを削除する理由についてはお答えできませんが、dmesg
と/var/log
で詳細情報を見つけることができるはずです。
それらの場所に問題がなく、SMART
がディスクに問題がないことを示している場合は、ディスクを再度追加しても安全です。
mdadm --monitor
を構成して、RAIDセットを実行および監視し、何かが発生した場合に電子メールで送信することをお勧めします。
RAIDアレイ内のディスクの順序は重要です。コマンドmdadm --detail /dev/md0
の出力で確認できます。あなたの例ではそれは:
sde sdg sdh sdb sdd missed sdc
ディスクが故障したかプラグが抜かれた場合でも、ディスクはRAIDアレイに属します。あなたの例では、mdadmコマンドを使用して手動でRAIDアレイからディスクを削除しました。 smartctl
は、ディスクの状態を表示するための優れたプログラムです。ただし、アレイ内のディスクがわからない場合、このプログラムは役に立ちません。