これは緊急の問題ではありませんが、現在両方のハードドライブを使用しているかどうか(および/またはそれを修正できるかどうか)を知りたいです。
基本的に、私は OSのないこのコンピューター を購入し、Ubuntu Serverを正常にインストールしました。
コンピュータには、23TBハードドライブが付属しています。
私の理解では、6 TBのストレージスペースを持つRAID0構成、または1 3 TBドライブが他の3をミラーリングするRAID1構成TBドライブ。
サーバーで分析を開始したので、ハードドライブ(RAID1)のミラーリングで問題ありません。
しかし、私はそれを成功させたとは思いません。たとえば、/proc/mdstat
ファイルを確認すると、次のようになります。
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda[1] sdb[0]
2930264064 blocks super external:/md127/0 [2/2] [UU]
md127 : inactive sda[1](S) sdb[0](S)
5040 blocks super external:imsm
unused devices: <none>
同様に、これらのドライブがlsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT
を使用して認識される方法
NAME SIZE FSTYPE TYPE MOUNTPOINT
sda 2.7T isw_raid_member disk
└─md126 2.7T raid1
├─md126p1 512M vfat md /boot/efi
└─md126p2 2.7T ext4 md /
sdb 2.7T isw_raid_member disk
└─md126 2.7T raid1
├─md126p1 512M vfat md /boot/efi
└─md126p2 2.7T ext4 md /
sr0 1024M rom
これは私がdf
を使用している利用可能なスペースです:
Filesystem 1K-blocks Used Available Use% Mounted on
udev 16370772 0 16370772 0% /dev
tmpfs 3280440 940 3279500 1% /run
/dev/md126p2 2882700496 223265236 2512931992 9% /
tmpfs 16402180 0 16402180 0% /dev/shm
tmpfs 5120 0 5120 0% /run/lock
tmpfs 16402180 0 16402180 0% /sys/fs/cgroup
/dev/md126p1 523248 6152 517096 2% /boot/efi
tmpfs 3280436 0 3280436 0% /run/user/1000
だから、私の質問は次のとおりです:
実際にハードドライブをRAID1構成でミラーリングしていますか?
もしそうなら、どうすればハードドライブを回復できますか?
/proc/mdstat
ファイルから、ドライブ間に何らかのリンクがあるように見えます(2行目のmd126
はsuper external:/md127/0
とリストされているため)
両方のハードドライブが現在使用されていない場合(RAID1ミラーリングの場合)、何を変更する必要がありますか?現在最初のドライブにあるものをすべて消去せずに、最初のハードドライブのミラーリングを開始できますか?
質問の追加情報を提供するために2つの回答を変換しました(以下を参照してください)。
コメント/更新#1
MD管理関数mdadm
を使用すると、次の情報が表示されます。
これは最初のRAIDハードドライブ用だと思います。
$ Sudo mdadm --detail /dev/md126
/dev/md126:
Container : /dev/md/imsm0, member 0
Raid Level : raid1
Array Size : 2930264064 (2794.52 GiB 3000.59 GB)
Used Dev Size : 2930264064 (2794.52 GiB 3000.59 GB)
Raid Devices : 2
Total Devices : 2
State : active
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
UUID : xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
Number Major Minor RaidDevice State
1 8 0 0 active sync /dev/sda
0 8 16 1 active sync /dev/sdb
$ Sudo mdadm --detail /dev/md126p1
/dev/md126p1:
Container : /dev/md/imsm0, member 0
Raid Level : raid1
Array Size : 524288 (512.00 MiB 536.87 MB)
Used Dev Size : 18446744073709551615
Raid Devices : 2
Total Devices : 2
State : active
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
UUID : xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
Number Major Minor RaidDevice State
1 8 0 0 active sync /dev/sda
0 8 16 1 active sync /dev/sdb
$ Sudo mdadm --detail /dev/md126p2
/dev/md126p2:
Container : /dev/md/imsm0, member 0
Raid Level : raid1
Array Size : 2929737728 (2794.02 GiB 3000.05 GB)
Used Dev Size : 2930264064 (2794.52 GiB 3000.59 GB)
Raid Devices : 2
Total Devices : 2
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
UUID : xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
Number Major Minor RaidDevice State
1 8 0 0 active sync /dev/sda
0 8 16 1 active sync /dev/sdb
これは2番目のRAIDハードドライブ用だと思います。
$ Sudo mdadm --detail /dev/md127
/dev/md127:
Version : imsm
Raid Level : container
Total Devices : 2
Working Devices : 2
UUID : xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
Member Arrays : /dev/md/Volume1
Number Major Minor RaidDevice
- 8 0 - /dev/sda
- 8 16 - /dev/sdb
それ以外の場合、RAID1構成がセットアップされていると思います(それがmd126p1
およびmd126p2
の意味です)?
たとえば、最初のドライブの場合はRaid Level : raid1
と表示されますが、なぜ2番目のドライブの場合はそうではないのでしょうか。
オンラインで投稿するために、UUIDを「xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx」に設定しましたが、それ以外の場合は正確な出力を提供しました。
2番目のドライブを参照していると思われる「Volume1」など、追加情報を検索できる他の4つのファイルもあります。
$ ls /dev/md/
imsm0 Volume1 Volume1p1 Volume1p2
~$ Sudo mdadm --detail /dev/md/Volume1
/dev/md/Volume1:
Container : /dev/md/imsm0, member 0
Raid Level : raid1
Array Size : 2930264064 (2794.52 GiB 3000.59 GB)
Used Dev Size : 2930264064 (2794.52 GiB 3000.59 GB)
Raid Devices : 2
Total Devices : 2
State : active
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
UUID : xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
Number Major Minor RaidDevice State
1 8 0 0 active sync /dev/sda
0 8 16 1 active sync /dev/sdb
mdadm --create
、mdadm --grow
、mdadm --incremental
関数もあります。
参考までに、このクラスを受講した後、これらのメモを追加することにしました: https://www.udemy.com/course/the-complete-ubuntu-linux-server-administration-course/
コメント/更新#2
1)Sudo fdisk -l
を使用すると、次の情報を確認できます。
Disk /dev/sda: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
Device Start End Sectors Size Type
/dev/sda1 2048 1050623 1048576 512M EFI System
/dev/sda2 1050624 5860526079 5859475456 2.7T Linux filesystem
Disk /dev/sdb: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
Device Start End Sectors Size Type
/dev/sdb1 2048 1050623 1048576 512M EFI System
/dev/sdb2 1050624 5860526079 5859475456 2.7T Linux filesystem
Disk /dev/md126: 2.7 TiB, 3000590401536 bytes, 5860528128 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
Device Start End Sectors Size Type
/dev/md126p1 2048 1050623 1048576 512M EFI System
/dev/md126p2 1050624 5860526079 5859475456 2.7T Linux filesystem
これはすでに/ dev/sdbがLinuxファイルシステムであると言っているので、その部分は問題ないと思います。
オンラインで投稿するために、UUIDを「xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx」に設定しましたが、それ以外の場合は正確な出力を提供しました。
2)注意したいのですが、次のステップにはmkfs.ext4
コマンドが含まれていると思います。ただし、現在のファイルシステムに影響を与える可能性のある(またはそうでない可能性のある)ことを行う前に、注意深く詳細を学びたいと思います。
mount
コマンドを使用しようとすると、次のようになります。
$:/mnt$ Sudo mount /dev/sda1 /mnt/test1
mount: /mnt/test1: special device /dev/sda1 does not exist.
$:/mnt$ Sudo mount /dev/sda2 /mnt/test1
mount: /mnt/test1: special device /dev/sda2 does not exist.
$:/mnt$ Sudo mount /dev/sdb1 /mnt/test1
mount: /mnt/test1: /dev/sdb1 already mounted or mount point busy.
$:/mnt$ Sudo mount /dev/sdb2 /mnt/test1
mount: /mnt/test1: /dev/sdb2 already mounted or mount point busy.
ちなみに、私は以前fdisk
について学びましたが、それを以前のメモに見ていませんでした。それ以外の場合は、次のクラスから新しいメモを追加しました。
https://www.linkedin.com/learning/building-an-ubuntu-home-server/add-storage-with-a-local-disk
データ回復のテスト方法はまだわかりませんが、私の質問には、RAID1をセットアップしたことを確認するための回答が含まれていると思います。
同様に、これらのドライブがlsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT
を使用して認識される方法
NAME SIZE FSTYPE TYPE MOUNTPOINT
sda 2.7T isw_raid_member disk
└─md126 2.7T raid1
├─md126p1 512M vfat md /boot/efi
└─md126p2 2.7T ext4 md /
sdb 2.7T isw_raid_member disk
└─md126 2.7T raid1
├─md126p1 512M vfat md /boot/efi
└─md126p2 2.7T ext4 md /
sr0 1024M rom
RAID構成がなかった場合は、両方のハードドライブ(sdaとsdb)について上記の「raid1」と言ったはずではありません。