4つの仮想ハードドライブを備えたVMware仮想マシンでLinuxサーバーを実行しています。ボックスが1か月実行された後、vSphereクライアントに4つのハードドライブのうち2つを追加しました。もっとスペースが必要です。私は数週間前にこの手順を実行し、ファイルシステムを作成してマウントを設定する前に別のプロジェクトに引き込まれました。さて、Linux内のどのドライブがどれなのかわかりません。/dev/sda、/ dev/sda1、/ dev/sda2、および/ dev/sdbがあります
どのドライブに既存のデータがあり、どのドライブが新しいかを判別するにはどうすればよいですか?または、ドライブを削除して最初からやり直す方法(vSphereクライアントでドライブを削除する方法は知っていますが、Linuxでドライブへの参照を削除する方法はわかりません)。
これがdmesg| grep sd
の結果です。
[ 1.361162] sd 2:0:0:0: [sda] 16777216 512-byte logical blocks: (8.58 GB/8.00 GiB)
[ 1.361205] sd 2:0:0:0: [sda] Write Protect is off
[ 1.361210] sd 2:0:0:0: [sda] Mode Sense: 61 00 00 00
[ 1.361253] sd 2:0:0:0: [sda] Cache data unavailable
[ 1.361257] sd 2:0:0:0: [sda] Assuming drive cache: write through
[ 1.363223] sd 2:0:0:0: Attached scsi generic sg1 type 0
[ 1.363398] sda: sda1 sda2
[ 1.363788] sd 2:0:0:0: [sda] Attached SCSI disk
[ 1.364425] sd 2:0:1:0: [sdb] 1572864000 512-byte logical blocks: (805 GB/750 GiB)
[ 1.364466] sd 2:0:1:0: [sdb] Write Protect is off
[ 1.364471] sd 2:0:1:0: [sdb] Mode Sense: 61 00 00 00
[ 1.364512] sd 2:0:1:0: [sdb] Cache data unavailable
[ 1.364515] sd 2:0:1:0: [sdb] Assuming drive cache: write through
[ 1.370673] sd 2:0:1:0: Attached scsi generic sg2 type 0
[ 1.405886] sdb: unknown partition table
[ 1.406228] sd 2:0:1:0: [sdb] Attached SCSI disk
[ 4.493214] Installing knfsd (copyright (C) 1996 [email protected]).
[ 4.493849] SELinux: initialized (dev nfsd, type nfsd), uses genfs_contexts
[ 5.933636] EXT4-fs (sdb): mounted filesystem with ordered data mode. Opts: (null)
[ 5.933649] SELinux: initialized (dev sdb, type ext4), uses xattr
[ 6.099670] EXT4-fs (sda1): mounted filesystem with ordered data mode. Opts: (null)
[ 6.108488] SELinux: initialized (dev sda1, type ext4), uses xattr
fdisk -l
からの出力
Disk /dev/sda: 8 GiB, 8589934592 bytes, 16777216 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x000dfc09
Device Boot Start End Blocks Id System
/dev/sda1 * 2048 1026047 512000 83 Linux
/dev/sda2 1026048 16777215 7875584 8e Linux LVM
Disk /dev/sdb: 750 GiB, 805306368000 bytes, 1572864000 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/mapper/Fedora_dataserv-swap: 820 MiB, 859832320 bytes, 1679360 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/mapper/Fedora_dataserv-root: 6.7 GiB, 7201619968 bytes, 14065664 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
答えてくれた皆さんありがとう。そうしたすべての人が、問題の追跡を手伝ってくれて、多くのことを教えてくれました!
何らかの理由で、Linuxは2つの新しいドライブを認識していませんでした。 (私は他の人の答えから学ぶまでそれを知りませんでした。
最終的な解決策は:
fdisk -l
)、それを行いましたfdisk -lは/ dev/sdcおよび/ dev/sddを表示するようになりました
助けてくれた皆さま、ありがとうございました!
入力した情報から、2つのVMディスク:
/ dev/sda:2つのパーティション/ dev/sda1および/ dev/sda2
/ dev/sdb:パーティションのない750GB。これは、新しく追加したパーティションでなければなりません。
fdisk -lコマンドの結果は、Fedora_dataservというLVMボリュームを作成し、ディスク容量を使用している場合、/ dev/sdaディスクのみを使用しています。
Answer 以前に投稿したことがあるので、deb-web138の値をFedora_dataserv。例えば:
# vgextend deb-web138 /dev/sdb1
# lvresize -L+70G /dev/deb-web138/root
# resize2fs /dev/deb-web138/root
に変更されます:
# vgextend Fedora_dataserv /dev/sdb1
# lvresize -L+70G /dev/Fedora_dataserv/root
# resize2fs /dev/Fedora_dataserv/root
使用できるスペースを増やすため。
単純にタイプすると
mount
どのフォルダがどのディスクにマウントされているかがわかります。
lsscsi
dmesg| grep sd
cat /proc/scsi/scsi
fdisk -l
sdaは、VM構成の最初の論理ポートに接続されているドライブです。 sdbは、VMの構成で2番目の論理ポートに接続されているドライブです。 sda1とsda2は最初のドライブの2つのパーティションであり、sdbにはパーティションがないように見えます(つまり、追加したものです)。 gpartedまたは(そのようにフォーマットされている場合はlvm)を使用して、パーティションのレイアウトを確認できます。
blkid
はドライブをリストします。サイズ、パーティション、UUID、ファイルシステムタイプなどに基づいてそれらを識別できるはずです。 lsblk
は、デバイスのグラフィカルな概要を取得するのにも非常に役立ちますが、ファイルシステムのタイプは表示されません。
/ dev/mapperは、マウントされたLUNとLVMパーティションが、通常はわかりやすい名前で自動マウントされる場所です。
システムでLVMを使用している場合は、lvmを実行します。マウントされたLUNを使用している場合は、dm-multipathを確認してください。