2つのRAID、raid5(md0)とraid1(md128)があります。 「/」を拡張するにはどうすればよいですか? OSは現在RAID5にあります。
root@backup:~# cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid10]
md128 : active raid1 sde1[1] sdd1[0]
2930134016 blocks super 1.2 [2/2] [UU]
bitmap: 0/22 pages [0KB], 65536KB chunk
md0 : active raid5 sdc1[2] sdb1[1] sda1[0]
1953259520 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
bitmap: 3/8 pages [12KB], 65536KB chunk
root@backup:~# df -T
Filesystem Type 1K-blocks Used Available Use% Mounted on
udev devtmpfs 1841008 0 1841008 0% /dev
tmpfs tmpfs 378804 10440 368364 3% /run
/dev/md0p1 ext4 1918608432 1800052 1819325628 1% /
tmpfs tmpfs 1894020 0 1894020 0% /dev/shm
tmpfs tmpfs 5120 0 5120 0% /run/lock
tmpfs tmpfs 1894020 0 1894020 0% /sys/fs/cgroup
tmpfs tmpfs 378804 0 378804 0% /run/user/0
root@backup:~# Sudo lsblk -f
NAME FSTYPE LABEL UUID MOUNTPOINT
sda
└─sda1 linux_raid_member backup:0 9c8af56c-1472-3844-c14b-5ff1fd2469cc
└─md0
├─md0p1 ext4 9f23d9b1-5573-4adb-bd98-11c06dc46602 /
├─md0p2
└─md0p5 swap 5e5c48d6-2fde-48b8-845b-796c9980e9c5 [SWAP]
sdb
└─sdb1 linux_raid_member backup:0 9c8af56c-1472-3844-c14b-5ff1fd2469cc
└─md0
├─md0p1 ext4 9f23d9b1-5573-4adb-bd98-11c06dc46602 /
├─md0p2
└─md0p5 swap 5e5c48d6-2fde-48b8-845b-796c9980e9c5 [SWAP]
sdc
└─sdc1 linux_raid_member backup:0 9c8af56c-1472-3844-c14b-5ff1fd2469cc
└─md0
├─md0p1 ext4 9f23d9b1-5573-4adb-bd98-11c06dc46602 /
├─md0p2
└─md0p5 swap 5e5c48d6-2fde-48b8-845b-796c9980e9c5 [SWAP]
sdd
└─sdd1 linux_raid_member 192-168-0-11:128 d4539e00-7885-2a62-84a0-94c1884e253c
└─md128 LVM2_member wp1Qak-hzu5-Eb2q-JNvb-aceu-mhQf-703K5N
sde
└─sde1 linux_raid_member 192-168-0-11:128 d4539e00-7885-2a62-84a0-94c1884e253c
└─md128 LVM2_member wp1Qak-hzu5-Eb2q-JNvb-aceu-mhQf-703K5N
root@backup:~# dumpe2fs /dev/md128 | grep -i superblock
dumpe2fs 1.42.13 (17-May-2015)
dumpe2fs: Bad magic number in super-block while trying to open /dev/md128
Couldn't find valid filesystem superblock.
残念ながら、ルートパーティションはLVMに基づいていないため、ファイルシステムを拡張する方法はRAIDmd0
を拡張する必要があります。 lsblk
の出力は、md128
にLVMがインストールされていることを示していますが、そのドライブに論理ボリューム(したがってアクティブデータ)があるかどうかはわかりません。 pvscan
、vgscan
、およびlvscan
で見つけることができます。
続行する前に、すべての貴重なデータの有効なバックアップがあることを確認してください!!
Md128に(貴重な)データがない/マウントされたパーティションがない場合は、md128
を停止し、2つのディスクをmd0
に追加して、最初に/dev/md0
の合計スペースを増やすことができます。
mdadm --stop /dev/md128 # this will break the md128
mdadm --add /dev/md0 /dev/sdd1 /dev/sdd2 # this will add two hot spares to md0
mdadm --grow /dev/md0 --raid-devices=5 # this will extend md0 to five disks
RAIDを再同期する必要があるため、これには非常に長い時間(数時間から数日)かかる可能性があります。
mdadm構成ファイル(/etc/mdadm/mdadm.conf
)がある場合は、新しい構成を反映するように変更する必要があります。
/dev/md0
が増加したので(fdisk -l /dev/md0
で表示される場合があります)、ルートパーティションを増やす必要があります。 /
はmd0p1にあり、swap
は拡張パーティションmd0p5
の論理パーティションであるmd0p2
にあるため、最初にmd0p5
/md0p2
をmd0
の末尾に移動する必要があります。これはgparted
で行うことができます。 gparted
feature list は、RAIDはofflineモードでのみサポートされると述べているため、インストールメディアからtry ubuntu
modeに再起動する必要があります次に、gparted
を開始します。
変更するデバイスとしてmd0
を選択し、拡張パーティション(md0p2
)を「ディスク」の最後に移動してから、/dev/md0p1
を増やします。これにより、ファイルシステムのサイズも変更されます。したがって、最終的にはルートパーティションとファイルシステムが増加します。
特にlinux/raid/filesystemsを初めて使用する場合は、このプロセスにリスクがないわけではないことに注意してください。現時点ではmdraidを使用していないため、プロセスを写真で詳細に説明することはできません。
Sdd/sdeにはすでにLVMが準備されたRAID1があるので、より簡単な(そしてリスクの少ない)ソリューションを実行して、データを2番目のRAIDのファイルシステムに移動し、それを/
の下のどこかにマウントすることもできます(例:move home
)。それがあなたに実行可能であるならば、私もそれをサポートすることができます。