Raid0を2ディスクから3ディスク(AmazonAWSでは各1TBEBS)に拡張したかったのですが、その後サイズは変わりませんでした。 RAIDは2つのディスクsdcとsddで始まり、新しいディスクはsdfでした。
これがgrow-commandです:
Sudo mdadm --grow /dev/md0 --raid-devices=3 --add /dev/xvdf
数時間後、mdstatsは次の情報を表示しました(cat /proc/mdstat
を使用):
Personalities : [raid0] [raid6] [raid5] [raid4]
md0 : active raid0 xvdf[3] xvdd[1] xvdc[0]
3221223936 blocks super 1.2 512k chunks
だから私はそれがうまくいくことを望みましたが、df -h
は私に:
Filesystem Size Used Avail Use% Mounted on
/dev/md0 2.0T 1.6T 297G 85% /mnt/md0
とSudo mdadm --detail /dev/md0
が示した:
/dev/md0:
Version : 1.2
Creation Time : Tue Jul 22 16:05:40 2014
Raid Level : raid0
Array Size : 3221223936 (3072.00 GiB 3298.53 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Sun Sep 7 01:37:39 2014
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Chunk Size : 512K
Number Major Minor RaidDevice State
0 202 32 0 active sync /dev/sdc
1 202 48 1 active sync /dev/sdd
3 202 80 2 active sync /dev/sdf
したがって、RAIDには3つのデバイスと正しいサイズ(3072 GB)があるように見えますが、df
はこれを示していません。不思議なことに、新しいディスク(sdf)は番号3としてリストされており、番号2はリストされていません。
注:フォーマットせずに「空の」EBSを使用しました-(フォーマット済みの)RAIDに追加する前に新しいRAIDディスクをフォーマットする必要がありますか?
何が足りないのですか?新しいRAIDディスクを(部分的に)フォーマットする必要がありますか(必要なRAIDにはまだデータがあります(ただし、バックアップはあります))? df
はRAIDを読み間違えていますか、それともRAIDの拡張はまだ完了していませんか?
あなたのステップでは、/ dev/md0にある実際のファイルシステムを拡張することについては触れていませんでした。 RAID(「物理」ディスク)を拡張し、その上にファイルシステム(ext4など)を拡張して、df
に表示させる必要があります。