問題 :::
Hddに障害があったサーバーにRedhat 5.10 x64をインストールします。古い障害のあるhddを削除し、500 GBの容量の新しいHDDをインストールしました。インストール後に、古いHDDから/ u001の下の新しいHDDにデータをコピーする必要があります。だから私は古いhdd(320GB)をサーバーに接続しました。 fdisk -l
に表示されていますが、マウントしようとすると
Sudoマウント/ dev/sdb2または/ dev/sdb5と表示されています
注:fdisk -l
で確認できるように、古いhddにも古いOSがインストールされていました
/dev/sda =新しいHDD
/dev/sdb =古いHDD
デバイスはすでにマウントされているか、リソースがビジーです
Disk /dev/sda: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 * 1 25 200781 83 Linux
/dev/sda2 26 10346 82903432+ 8e Linux LVM
/dev/sda3 10347 11390 8385930 82 Linux swap / Solaris
/dev/sda4 11391 60801 396893857+ 5 Extended
/dev/sda5 11391 60801 396893826 8e Linux LVM
Disk /dev/sdb: 320.0 GB, 320072933376 bytes
255 heads, 63 sectors/track, 38913 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 * 1 13 104391 83 Linux
/dev/sdb2 14 10242 82164442+ 8e Linux LVM
/dev/sdb3 10243 11286 8385930 82 Linux swap / Solaris
/dev/sdb4 11287 38888 221713065 5 Extended
/dev/sdb5 11287 38888 221713033+ 8e Linux LVM
[admin@testsrv ~]$ Sudo mount /dev/sdb2 /media/test/
mount: /dev/sdb2 already mounted or /media/test/ busy
[admin@testsrv ~]$ Sudo mount /dev/sdb5 /media/test/
mount: /dev/sdb5 already mounted or /media/test/ busy
マウント結果:::
/dev/mapper/VolGroup00_root-LogVol00 on / type ext3 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts on /dev/pts type devpts (rw,gid=5,mode=620)
/dev/mapper/VolGroup00_u001-LogVol00 on /u001/app/Oracle type ext3 (rw)
/dev/sda1 on /boot type ext3 (rw)
tmpfs on /dev/shm type tmpfs (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
PVDISPLAY ::出力
Sudo pvdisplay
--- Physical volume ---
PV Name /dev/sda5
VG Name VolGroup00_u001
PV Size 378.51 GB / not usable 7.63 MB
Allocatable yes (but full)
PE Size (KByte) 32768
Total PE 12112
Free PE 0
Allocated PE 12112
PV UUID E2ibW6-uaDJ-7FMA-OZS0-sApR-DNwK-0jO3Ob
--- Physical volume ---
PV Name /dev/sda2
VG Name VolGroup00_root
PV Size 79.06 GB / not usable 392.50 KB
Allocatable yes
PE Size (KByte) 32768
Total PE 2530
Free PE 1
Allocated PE 2529
PV UUID YSGQwx-yIsO-CR0C-4G6r-GI9O-nUya-gE22yk
LVMDISkSCAN :: Output
Sudo lvmdiskscan
/dev/ramdisk [ 16.00 MB]
/dev/root [ 79.03 GB]
/dev/ram [ 16.00 MB]
/dev/sda1 [ 196.08 MB]
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45 [ 297.90 GB]
/dev/ram2 [ 16.00 MB]
/dev/sda2 [ 79.06 GB] LVM physical volume
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p1 [ 101.94 MB]
/dev/ram3 [ 16.00 MB]
/dev/sda3 [ 8.00 GB]
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p2 [ 78.36 GB] LVM physical volume
/dev/ram4 [ 16.00 MB]
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p3 [ 8.00 GB]
/dev/ram5 [ 16.00 MB]
/dev/sda5 [ 378.51 GB] LVM physical volume
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p5 [ 211.44 GB] LVM physical volume
/dev/ram6 [ 16.00 MB]
/dev/VolGroup00_ora/LogVol00 [ 211.44 GB]
/dev/ram7 [ 16.00 MB]
/dev/VolGroup00_u001/LogVol00 [ 378.50 GB]
/dev/ram8 [ 16.00 MB]
/dev/ram9 [ 16.00 MB]
/dev/ram10 [ 16.00 MB]
/dev/ram11 [ 16.00 MB]
/dev/ram12 [ 16.00 MB]
/dev/ram13 [ 16.00 MB]
/dev/ram14 [ 16.00 MB]
/dev/ram15 [ 16.00 MB]
/dev/sdb1 [ 101.94 MB]
/dev/sdb2 [ 78.36 GB]
/dev/sdb3 [ 8.00 GB]
/dev/sdb5 [ 211.44 GB]
3 disks
25 partitions
0 LVM physical volume whole disks
4 LVM physical volumes
5.xに戻ってさえ、RHELはデフォルトでLVMを使用していました。 LVMボリュームをマウントする前に、まずいくつかの手順を実行する必要があります。
新しいディスクで古いVGと同じVG名を使用した場合、少し問題があります。同じ名前の2つのVGがあります。操作するVG(つまり/dev/sdb
のVG)を一意に識別するには、VG UUIDが必要です。実行:
# pvs -o +vg_uuid
vG UUIDを含む、検出されたすべてのLVM PVをリストします。各パーティションのVG名も表示されるため、名前の競合があるかどうかを確認できます。
LVMは概して、あなたが本当に混乱して混乱しない限り、アクティブなVG設定を台無しにしないように十分にスマートです。したがって、上記のpvs
コマンドで/dev/sdb
に何も表示されない場合は、vgscan
を実行してから、もう一度試してください。
VG UUIDがわかったら、vgrenameコマンドを使用して、競合するVGの名前を変更できます。名前の競合がない場合は、vgchange
までスキップできます。
(VG内にLVをマウントするには、VGをアクティブにする必要があります。また、その名前が既存のVGと競合している場合、VGはアクティブになりません。)
VGの名前を変更するコマンドは次のようになります。
vgrename Zvlifi-Ep3t-e0Ng-U42h-o0ye-KHu1-nl7Ns4 new_name_for_vg
ここで、Zvlifi-...
アルファベットスープはVG UUIDであり、他のパラメーターはこのVGの新しい名前です。
VG名の競合が解決されたら(または最初に競合がない場合)、/dev/sdb
でVGをアクティブ化する必要があります。次のコマンドを使用して、LVMが見るすべての非アクティブVGをアクティブにすることができます。
vgchange -ay
VGをアクティブ化すると、VG内のLVのデバイス名(リンク)は/dev/mapper/<VG name>-<LV name>
として表示されます。 (以前の互換性の理由から/dev/<VG name>/<LV name>
としても。)
この時点で、通常どおりにマウントできます。
たとえば.
mount /dev/sda1 /mnt/tmp
プリント
mount: /dev/sda1 is already mounted or /mnt/tmp busy
そのデバイス(/ dev/sda1)を使用しているプロセスがあるかどうかを確認します。
多くの場合、システム起動時に自動的に実行されるfsckプロセスです。すぐに確認できます。沿って
ps aux | grep sda1
私はそのような状況に直面しました。経験と解決策は私の ブログ で説明されています。
スニペットはここにあります:
エラー:マウント:/ dev/mapper/STORBCK-backupはすでにマウントされていますか、/ STORBCKはビジーですか?
診断:/ STORBCK FSをマウントしようとすると、上記のエラーが発生します。
解決策:1.その他FS=が読み取り専用になったため、iscsiサービスを停止/開始しました。デバイスに正常にログインしました。/etc/init.d/iscsi stop/etc/init.d/iscsi start https://manastri.blogspot.in/2016/11/mount-devmapperstorbck-backup-already.html