13x1TBドライブを備えたmdadmraid6アレイがありました。 10分以内にこれらのドライブのうち3つがアレイから外れました...コントローラーカードへのケーブルが不良であると想定して交換しましたが、ドライブを動作中のアレイに戻す必要があります。
md0が失敗としてマークされたため、mdadmアレイを削除し、元の13台のドライブで新しいmd0を作成しました。再構築中に1が再び失敗したため、md0が劣化しています。問題は、lvmがmdadm内に存在する配列を認識しないことです。データを取り戻すためにできることはありますか?
$ pvscan
PV /dev/sda5 VG nasbox lvm2 [29.57 GiB / 0 free]
Total: 1 [29.57 GiB] / in use: 1 [29.57 GiB] / in no VG: 0 [0 ]
$ cat/proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid6 sdc1[1] sdg1[5] sdb1[0] sdf1[4] sde1[3] sdd1[2] sdi1[7] sdl1[10] dm1[11] sdh1[6] sdj1[8] sdn1[12]
10744336064 blocks super 1.2 level 6, 64k chunk, algorithm 2 [13/12] [UUUUUUUUU_UUU]
unused devices: <none>
私がする必要があると思うのは、lvmにmdadmアレイを検出させてマウントできるようにすることですが、LVMで新しいボリュームグループを作成すると、アレイからすべてのデータが消去されます。
簡単に言うと、md0からデータを取得するにはどうすればよいですか...
[〜#〜] update [〜#〜]:sysadminの1人がLVM構成バックアップを復元できたため、LVMに表示されるようになりましたが、表示用にドライブをマウントできませんデータの。多分悪いパーティションテーブル?
$ pvscan
PV /dev/sda5 VG nasbox lvm2 [29.57 GiB / 0 free]
PV /dev/md0 VG zeus lvm2 [10.01 TiB / 4.28 TiB free]
Total: 2 [10.04 TiB] / in use: 2 [10.04 TiB] / in no VG: 0 [0 ]
$ mount/dev/md
mount: /dev/mapper/zeus-data already mounted or /mnt/zeus busy
情報はこの記事から取られています、それが何か助けになるかどうか見てください: http://www.linuxjournal.com/article/8874
pvscan
は、LVM物理ボリュームが存在することを示していますが、LVMボリュームグループは必ずしもアクティブである必要はありません。 vgdisplay
の出力を参照してください。次のようになります。
--- Volume group ---
VG Name zeus
System ID
Format lvm2
[...]
zeus
ボリュームグループが表示されない場合は、vgchange zeus -a y
で使用できるようにする必要がある場合があります。次に、lvdisplay
の出力を確認します。これにより、システム内の各論理ボリュームが出力されます。
--- Logical volume ---
LV Name /dev/zeus/volume_name
VG Name zeus
LV Status available
[etc...]
そして、mount /dev/zeus/volume_name /mnt/target
を使用して目的のボリュームをマウントできるはずです。