web-dev-qa-db-ja.com

RAID1ドライブのペアが正常にミラーリングされていることを確認する方法は?

これは緊急の問題ではありませんが、現在両方のハードドライブを使用しているかどうか(および/またはそれを修正できるかどうか)を知りたいです。

基本的に、私は OSのないこのコンピューター を購入し、Ubuntu Serverを正常にインストールしました。

コンピュータには、23TBハードドライブが付属しています。

私の理解では、6 TBのストレージスペースを持つRAID0構成、または1 3 TBドライブが他の3をミラーリングするRAID1構成TBドライブ。

サーバーで分析を開始したので、ハードドライブ(RAID1)のミラーリングで問題ありません。

しかし、私はそれを成功させたとは思いません。たとえば、/proc/mdstatファイルを確認すると、次のようになります。

Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda[1] sdb[0]
      2930264064 blocks super external:/md127/0 [2/2] [UU]

md127 : inactive sda[1](S) sdb[0](S)
      5040 blocks super external:imsm

unused devices: <none>

同様に、これらのドライブがlsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINTを使用して認識される方法

NAME         SIZE FSTYPE          TYPE  MOUNTPOINT
sda          2.7T isw_raid_member disk
└─md126      2.7T                 raid1
  ├─md126p1  512M vfat            md    /boot/efi
  └─md126p2  2.7T ext4            md    /
sdb          2.7T isw_raid_member disk
└─md126      2.7T                 raid1
  ├─md126p1  512M vfat            md    /boot/efi
  └─md126p2  2.7T ext4            md    /
sr0         1024M                 rom

これは私がdfを使用している利用可能なスペースです:

Filesystem      1K-blocks      Used  Available Use% Mounted on
udev             16370772         0   16370772   0% /dev
tmpfs             3280440       940    3279500   1% /run
/dev/md126p2   2882700496 223265236 2512931992   9% /
tmpfs            16402180         0   16402180   0% /dev/shm
tmpfs                5120         0       5120   0% /run/lock
tmpfs            16402180         0   16402180   0% /sys/fs/cgroup
/dev/md126p1       523248      6152     517096   2% /boot/efi
tmpfs             3280436         0    3280436   0% /run/user/1000

だから、私の質問は次のとおりです:

  1. 実際にハードドライブをRAID1構成でミラーリングしていますか?
    もしそうなら、どうすればハードドライブを回復できますか?

    /proc/mdstatファイルから、ドライブ間に何らかのリンクがあるように見えます(2行目のmd126super external:/md127/0とリストされているため)

  2. 両方のハードドライブが現在使用されていない場合(RAID1ミラーリングの場合)、何を変更する必要がありますか?現在最初のドライブにあるものをすべて消去せずに、最初のハードドライブのミラーリングを開始できますか?

質問の追加情報を提供するために2つの回答を変換しました(以下を参照してください)。

コメント/更新#1

MD管理関数mdadmを使用すると、次の情報が表示されます。

これは最初のRAIDハードドライブ用だと思います。

$ Sudo mdadm --detail /dev/md126
/dev/md126:
         Container : /dev/md/imsm0, member 0
        Raid Level : raid1
        Array Size : 2930264064 (2794.52 GiB 3000.59 GB)
     Used Dev Size : 2930264064 (2794.52 GiB 3000.59 GB)
      Raid Devices : 2
     Total Devices : 2

             State : active
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync


              UUID : xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
    Number   Major   Minor   RaidDevice State
       1       8        0        0      active sync   /dev/sda
       0       8       16        1      active sync   /dev/sdb
$ Sudo mdadm --detail /dev/md126p1
/dev/md126p1:
         Container : /dev/md/imsm0, member 0
        Raid Level : raid1
        Array Size : 524288 (512.00 MiB 536.87 MB)
     Used Dev Size : 18446744073709551615
      Raid Devices : 2
     Total Devices : 2

             State : active
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync


              UUID : xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
    Number   Major   Minor   RaidDevice State
       1       8        0        0      active sync   /dev/sda
       0       8       16        1      active sync   /dev/sdb

$ Sudo mdadm --detail /dev/md126p2
/dev/md126p2:
         Container : /dev/md/imsm0, member 0
        Raid Level : raid1
        Array Size : 2929737728 (2794.02 GiB 3000.05 GB)
     Used Dev Size : 2930264064 (2794.52 GiB 3000.59 GB)
      Raid Devices : 2
     Total Devices : 2

             State : clean
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync


              UUID : xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
    Number   Major   Minor   RaidDevice State
       1       8        0        0      active sync   /dev/sda
       0       8       16        1      active sync   /dev/sdb

これは2番目のRAIDハードドライブ用だと思います。

$ Sudo mdadm --detail /dev/md127
/dev/md127:
           Version : imsm
        Raid Level : container
     Total Devices : 2

   Working Devices : 2


              UUID : xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
     Member Arrays : /dev/md/Volume1

    Number   Major   Minor   RaidDevice

       -       8        0        -        /dev/sda
       -       8       16        -        /dev/sdb

それ以外の場合、RAID1構成がセットアップされていると思います(それがmd126p1およびmd126p2の意味です)?

たとえば、最初のドライブの場合はRaid Level : raid1と表示されますが、なぜ2番目のドライブの場合はそうではないのでしょうか。

オンラインで投稿するために、UUIDを「xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx」に設定しましたが、それ以外の場合は正確な出力を提供しました。

2番目のドライブを参照していると思われる「Volume1」など、追加情報を検索できる他の4つのファイルもあります。

$ ls /dev/md/
imsm0      Volume1    Volume1p1  Volume1p2
~$ Sudo mdadm --detail /dev/md/Volume1
/dev/md/Volume1:
         Container : /dev/md/imsm0, member 0
        Raid Level : raid1
        Array Size : 2930264064 (2794.52 GiB 3000.59 GB)
     Used Dev Size : 2930264064 (2794.52 GiB 3000.59 GB)
      Raid Devices : 2
     Total Devices : 2

             State : active
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync


              UUID : xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
    Number   Major   Minor   RaidDevice State
       1       8        0        0      active sync   /dev/sda
       0       8       16        1      active sync   /dev/sdb

mdadm --createmdadm --growmdadm --incremental関数もあります。

参考までに、このクラスを受講した後、これらのメモを追加することにしました: https://www.udemy.com/course/the-complete-ubuntu-linux-server-administration-course/

コメント/更新#2

1)Sudo fdisk -lを使用すると、次の情報を確認できます。

Disk /dev/sda: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx

Device       Start        End    Sectors  Size Type
/dev/sda1     2048    1050623    1048576  512M EFI System
/dev/sda2  1050624 5860526079 5859475456  2.7T Linux filesystem

Disk /dev/sdb: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx

Device       Start        End    Sectors  Size Type
/dev/sdb1     2048    1050623    1048576  512M EFI System
/dev/sdb2  1050624 5860526079 5859475456  2.7T Linux filesystem

Disk /dev/md126: 2.7 TiB, 3000590401536 bytes, 5860528128 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx

Device         Start        End    Sectors  Size Type
/dev/md126p1    2048    1050623    1048576  512M EFI System
/dev/md126p2 1050624 5860526079 5859475456  2.7T Linux filesystem

これはすでに/ dev/sdbがLinuxファイルシステムであると言っているので、その部分は問題ないと思います。

オンラインで投稿するために、UUIDを「xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx」に設定しましたが、それ以外の場合は正確な出力を提供しました。

2)注意したいのですが、次のステップにはmkfs.ext4コマンドが含まれていると思います。ただし、現在のファイルシステムに影響を与える可能性のある(またはそうでない可能性のある)ことを行う前に、注意深く詳細を学びたいと思います。

mountコマンドを使用しようとすると、次のようになります。

$:/mnt$ Sudo mount /dev/sda1 /mnt/test1
mount: /mnt/test1: special device /dev/sda1 does not exist.
$:/mnt$ Sudo mount /dev/sda2 /mnt/test1
mount: /mnt/test1: special device /dev/sda2 does not exist.
$:/mnt$ Sudo mount /dev/sdb1 /mnt/test1
mount: /mnt/test1: /dev/sdb1 already mounted or mount point busy.
$:/mnt$ Sudo mount /dev/sdb2 /mnt/test1
mount: /mnt/test1: /dev/sdb2 already mounted or mount point busy.

ちなみに、私は以前fdiskについて学びましたが、それを以前のメモに見ていませんでした。それ以外の場合は、次のクラスから新しいメモを追加しました。

https://www.linkedin.com/learning/building-an-ubuntu-home-server/add-storage-with-a-local-disk

2
Charles W

データ回復のテスト方法はまだわかりませんが、私の質問には、RAID1をセットアップしたことを確認するための回答が含まれていると思います。

同様に、これらのドライブがlsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINTを使用して認識される方法

NAME         SIZE FSTYPE          TYPE  MOUNTPOINT
sda          2.7T isw_raid_member disk
└─md126      2.7T                 raid1
  ├─md126p1  512M vfat            md    /boot/efi
  └─md126p2  2.7T ext4            md    /
sdb          2.7T isw_raid_member disk
└─md126      2.7T                 raid1
  ├─md126p1  512M vfat            md    /boot/efi
  └─md126p2  2.7T ext4            md    /
sr0         1024M                 rom

RAID構成がなかった場合は、両方のハードドライブ(sdaとsdb)について上記の「raid1」と言ったはずではありません。

0
Charles W