私はLinuxとソフトウェアレイドの世界では全く新しいのですが、問題が発生したので、皆さんが私を助けてくれることを願っています。
数日前、システムは適切にシャットダウンされず、mdadmソフトウェアraidを起動すると、マウントされなくなり、/ dev/sdb1(私のraid 0アレイの一部)に悪いスーパーブロックがあるというエラーが表示されました。私のシステムはそれに依存しないため、マウントを無視することにしました。だから私はログインして、いくつかのテストを行うことができました。
アレイには、RAID0に設定された2つのディスク(sdb1およびsde1)が含まれています。両方のドライブは同一です。
fsck /dev/sdb1
を実行すると、スーパーブロックに物理ドライブよりも多くのブロックがあるというエラーが表示されます。
$ fsck /dev/sdb1
fsck from util-linux 2.20.1
e2fsck 1.42 (29-Nov-2011)
The filesystem size (according to the superblock) is 488380672 blocks
The physical size of the device is 244190390 blocks
Either the superblock or the partition table is likely to be corrupt!
Abort<y>?
私の他のドライブは大丈夫のように見えましたが、今は次のエラーが表示されます。
$ fsck /dev/sde1
fsck from util-linux 2.20.1
fsck: fsck.linux_raid_member: not found
fsck: error 2 while executing fsck.linux_raid_member for /dev/sde1
Fdiskでは、すべてが大丈夫であるか、少なくとも以前のように見えます。
$ fdisk -l
Disk /dev/sda: 200.0 GB, 200049647616 bytes
255 heads, 63 sectors/track, 24321 cylinders, total 390721968 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000a091a
Device Boot Start End Blocks Id System
/dev/sda1 * 2048 499711 248832 83 Linux
/dev/sda2 501758 390721535 195109889 5 Extended
/dev/sda5 501760 390721535 195109888 8e Linux LVM
Disk /dev/mapper/Server1-root: 193.6 GB, 193646821376 bytes
255 heads, 63 sectors/track, 23542 cylinders, total 378216448 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Disk /dev/mapper/Server1-root doesn't contain a valid partition table
Disk /dev/mapper/Server1-swap_1: 2143 MB, 2143289344 bytes
255 heads, 63 sectors/track, 260 cylinders, total 4186112 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Disk /dev/mapper/Server1-swap_1 doesn't contain a valid partition table
WARNING: GPT (GUID Partition Table) detected on '/dev/sdb'! The util fdisk doesn't support GPT. Use GNU Parted.
Disk /dev/sdb: 1000.2 GB, 1000204886016 bytes
78 heads, 63 sectors/track, 397542 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000300
Device Boot Start End Blocks Id System
/dev/sdb1 2048 1953525167 976761560 fd Linux raid autodetect
Disk /dev/sdc: 1000.2 GB, 1000204886016 bytes
24 heads, 63 sectors/track, 1292014 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Device Boot Start End Blocks Id System
/dev/sdc1 2048 1953525167 976761560 83 Linux
WARNING: GPT (GUID Partition Table) detected on '/dev/sdd'! The util fdisk doesn't support GPT. Use GNU Parted.
Disk /dev/sdd: 500.1 GB, 500107862016 bytes
81 heads, 63 sectors/track, 191411 cylinders, total 976773168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Device Boot Start End Blocks Id System
/dev/sdd1 2048 976773167 488385560 83 Linux
WARNING: GPT (GUID Partition Table) detected on '/dev/sde'! The util fdisk doesn't support GPT. Use GNU Parted.
Disk /dev/sde: 1000.2 GB, 1000204886016 bytes
78 heads, 63 sectors/track, 397542 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000300
Device Boot Start End Blocks Id System
/dev/sde1 2048 1953525167 976761560 fd Linux raid autodetect
dumpe2fs /dev/sdb1
を実行すると、次の結果が得られます。
dumpe2fs 1.42 (29-Nov-2011)
Filesystem volume name: <none>
Last mounted on: /media/raid0
Filesystem UUID: 52e0e3eb-40d7-49fa-9b35-be6513a782d2
Filesystem magic number: 0xEF53
Filesystem revision #: 1 (dynamic)
Filesystem features: ext_attr resize_inode dir_index filetype extent flex_bg sparse_super large_file huge_file uninit_bg dir_nlink extra_isize
Filesystem flags: signed_directory_hash
Default mount options: (none)
Filesystem state: not clean with errors
Errors behavior: Continue
Filesystem OS type: Linux
Inode count: 122101760
Block count: 488380672
Reserved block count: 4883806
Free blocks: 166355414
Free inodes: 121871448
First block: 0
Block size: 4096
Fragment size: 4096
Reserved GDT blocks: 907
Blocks per group: 32768
Fragments per group: 32768
Inodes per group: 8192
Inode blocks per group: 512
RAID stride: 128
RAID stripe width: 256
Flex block group size: 16
Filesystem created: Sun Apr 22 21:57:36 2012
Last mount time: Thu May 3 00:01:08 2012
Last write time: Tue May 8 20:33:15 2012
Mount count: 24
Maximum mount count: 35
Last checked: Sun Apr 22 21:57:36 2012
Check interval: 15552000 (6 months)
Next check after: Fri Oct 19 21:57:36 2012
Lifetime writes: 1809 GB
Reserved blocks uid: 0 (user root)
Reserved blocks gid: 0 (group root)
First inode: 11
Inode size: 256
Required extra isize: 28
Desired extra isize: 28
Default directory hash: half_md4
Directory Hash Seed: 54b59b52-4cfc-4bea-8c5a-5fc730317f4f
Journal backup: inode blocks
そして、これらの全体の束:
Group 0: (Blocks 0-32767) [ITABLE_ZEROED]
Checksum 0x6848, unused inodes 0
Primary superblock at 0, Group descriptors at 1-117
Reserved GDT blocks at 118-1024
Block bitmap at 1025 (+1025), Inode bitmap at 1041 (+1041)
Inode table at 1057-1568 (+1057)
23517 free blocks, 8182 free inodes, 1 directories
cat /proc/mdstat
を実行すると、次の結果が得られます。
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : inactive sdb[0](S)
976761560 blocks super 1.2
md127 : inactive sde1[1](S)
976760536 blocks super 1.2
unused devices: <none>
だから突然、私は今2つのレイドアレイを持っています...
this のトピックで言及されている方法を試してみましたが、バックアップセクターの使用が推奨されています。しかし、幸運なことに、物理ドライブよりも大きいスーパーブロックに関するエラーは持続します。
助けてくれませんか?今、自分のデータを失ったのが怖いです。
編集:mdadm.confファイルの内容が追加されました
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
# MAILADDR
# definitions of existing MD arrays
#ARRAY /dev/md/0 metadata=1.2 UUID=7658dc76:c33da511:d40c5dee:c5d5143d name=Server1:0
# This file was auto-generated on Fri, 27 Apr 2012 18:38:03 +0200
# by mkconf $Id$
ARRAY /dev/md/0 metadata=1.2 UUID=7658dc76:c33da511:d40c5dee:c5d5143d name=Server1:0
ARRAY /dev/md/0 metadata=1.2 UUID=3720f7a5:ae73fb52:deee0813:677105ae name=Server1:0
RAIDメンバーでのfsckの実行を停止します。そこにファイルシステムは存在しないはずなので、そこにあるRAIDスーパーブロックを簡単に破壊できます。
そもそもRAIDのセットアップに何か問題があります。これがパーティションテーブルの外観です。
root @ mark21:〜#fdisk -l Disk/dev/sda:640.1 GB、640135028736バイト 255ヘッド、63セクター/トラック、77825シリンダー、合計1250263728セクター 単位= 1のセクター= 512 = 512バイト セクターサイズ(論理/物理):512バイト/ 512バイト I/Oサイズ(最小/最適) ):512バイト/ 512バイト ディスク識別子:0x0000ffc4 デバイスブートスタートエンドブロックIDシステム /dev/sda1 2048 1240233983 620115968 fd Linux raid autodetect
RAIDセットの一部にした後、SDデバイスをファイルシステムでフォーマットしたように見えますが、完全に壊れています。 MDデバイスをフォーマットして使用することになっています。