1つのディスクからRAID 10に移行できない
発行されるコマンドは次のとおりです。
mdadm --create /dev/md0 --level=10 --raid-devices=8 /dev/sd[abcdefgh]1
出力は次のとおりです。
mdadm mdadm: cannot open /dev/sda1: Device or resource busy
これはDMとは関係がないことを確認しました。
]# dmsetup status
No devices found
ファイルシステムはGPTで、パーティションテーブルをコピーするためにsgdisk --load-backup = table/dev/sdbからsdhに続いてsgdisk --backup = table/dev/sdaを使用しました
テーブルは次のようになります。
Number Start End Size File system Name Flags
1 1049kB 525MB 524MB ext3 boot
2 525MB 86.4GB 85.9GB ext4
3 86.4GB 90.7GB 4295MB linux-swap(v1)
4 90.7GB 1000GB 909GB
他のアレイを作成しましたが、1番目と2番目のパーティションのRAIDを作成できません。
現在の状態:
]# cat /proc/mdstat
Personalities : [raid10]
md3 : active raid10 sdh3[7] sdg3[6] sdf3[5] sde3[4] sdd3[3] sdc3[2] sdb3[1] sda3[0]
16766976 blocks super 1.2 512K chunks 2 near-copies [8/8] [UUUUUUUU]
resync=DELAYED
md4 : active raid10 sdh4[7] sdg4[6] sdf4[5] sde4[4] sdd4[3] sdc4[2] sdb4[1] sda4[0]
3552147456 blocks super 1.2 512K chunks 2 near-copies [8/8] [UUUUUUUU]
[========>............] resync = 42.5% (1513033344/3552147456) finish=76.2min speed=445722K/sec
unused devices: <none>
誰かがアドバイスを提供できますか?マウントされていないときにレスキューディスクから起動して/および/ bootのアレイを作成する必要がありますか?
/および/ bootの配列を
...
createする必要がありますかマウントされていない場合?
正確に。
古いコンテンツがプロセスでワイプされることにもお気づきでしょう。1つのデバイスが欠落している新しいアレイを作成することをお勧めします(mdadm --level=10 --raid-devices=8 --missing /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1 /dev/sdh1
を使用)。次に、新しいアレイボリュームでファイルシステムをフォーマットし、すべてのデータを/ dev/sda1からそれにコピーします。次に、アレイから再起動し(/ dev/sda1ルートを使用しない)、実際に/ dev/sda1を追加します。
それに応じてブートローダーを調整することを忘れないでください。
アレイを再組み立てする前に停止してみてください:
Sudo mdadm -Esv
Sudo mdadm --stop /dev/md*
Sudo mdadm --misc --scan --detail /dev/md0
Sudo mdadm -v --assemble "$array" "$disk1$part" "$disk2$part"
最初にこのファイル/ proc/mdstatを開き、ブロックデバイス/ dev/sda1がmd *の一部であるかどうかを確認します。そこにある場合は、mdadm --stop md *(*はmdの後の番号を意味します/ dev/sdaは)に属します
同じ問題がありました。障害のあるドライブを交換して(障害が発生し、RAID 1から削除した後)、元に戻すことができなかった。リソースは常にビジー状態でした。
次のように解決...
問題は、システムが新しいディスクをmd126およびmd127としてマップしたことでした(理由は不明)。そのため、これらの2つの追加ドライブが未接続で表示されていましたが、cat/proc/mdstatに存在していました。
Mdadm --stop/dev/md *を実行すると、md126およびmd127エントリが削除されました。次に、使用中のリソースのエラーがなくなり、mdadmin --manage/dev/md0 --add/dev/sdb1を実行したときに、リソースが機能していました。わーい :-)