web-dev-qa-db-ja.com

マウントされたドライブから空き容量を取得する方法Redhat7

VMインフラストラクチャでは、SANに接続するクラスター化されたホストがあります。

私が理解しようとしているのは、Redhatサーバー内のファイルを削除するときに残っている「空白」の量です。私たちのWindowsサーバーではsdeleteを使用しており、それによってその問題は解決されますが、Linuxでは解決策を見つけるのに苦労しています。

「空白」をセクターとして定義していますか? SSDドライブが書き込みを行う前に、最初にゼロにする必要があることをゼロにしない残りの部分。

私が指摘することの1つは、Linuxに関しては、危険であることが十分にわかっているが、スーパーユーザーではないということです。

ドライブとパーティションを確認します。

[root@rhserver1-DATA10 /]# fdisk -l

Disk /dev/sda: 53.7 GB, 53687091200 bytes, 104857600 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x0005d52e

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *        2048     1026047      512000   83  Linux
/dev/sda2         1026048   104857599    51915776   8e  Linux LVM

Disk /dev/sdb: 53.7 GB, 53687091200 bytes, 104857600 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk /dev/mapper/rhel_rhserver1--data10-root: 51.0 GB, 50964987904 bytes, 99540992 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk /dev/mapper/rhel_rhserver1--data10-swap: 2147 MB, 2147483648 bytes, 4194304 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

ディスク使用量を見てみましょう。

[root@rhserver1-DATA10 /]# df -h
Filesystem                              Size  Used Avail Use% Mounted on
/dev/mapper/rhel_rhserver1--data10-root   48G  6.1G   42G  13% /
devtmpfs                                906M     0  906M   0% /dev
tmpfs                                   921M  340K  920M   1% /dev/shm
tmpfs                                   921M   90M  831M  10% /run
tmpfs                                   921M     0  921M   0% /sys/fs/cgroup
/dev/sdb                                 50G  3.5G   44G   8% /ACMS01Backup
/dev/sda1                               497M  210M  288M  43% /boot
tmpfs                                   185M   20K  185M   1% /run/user/1000
tmpfs                                   185M     0  185M   0% /run/user/1002

何時間もグーグルで調べたところ、これを見つけました。これは、どれだけの「空白」をクリアできるかを示していると思います。

[root@rhserver1-DATA10 /]#  parted /dev/sda unit MB print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
1.02MB
[root@rhserver1-DATA10 /]#  parted /dev/sda unit '%' print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
0.00%

497Mパーティションの出力は妥当だと思います。

だから今、私はマウントされたドライブでのみ同じことをしたいです(私はそれがマウントされていると思います)。

 parted /dev/mapper/rhel_rhserver1--data10-root unit MB print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
 parted /dev/mapper/rhel_rhserver1--data10-root unit '%' print free | grep 'Free Space' | tail -n1 | awk '{print $3}'

それは私に何も与えません。

私の/ etc/fstab /:

[root@rhserver1-DATA10 /]# cat /etc/fstab
/dev/mapper/rhel_rhserver1--data10-root /                       xfs     defaults        0 0
UUID=2f97a17c-a6d5-4904-ad5c-7c16b4510201 /boot                   xfs     defaults        0 0
/dev/mapper/rhel_rhserver1--data10-swap swap                    swap    defaults        0 0
/dev/disk/by-uuid/be4c45cf-5d72-4b97-b647-2e585947041f /ACMS01Backup auto nosuid,nodev,nofail,x-gvfs-show 0 0

だから私の質問は私が正しい道を進んでいるのかということです。

私が探しているものをよく説明しましたか?

グーグルに役立つ「空白」という用語はありますか?

ルートで「fstrim-v /」を実行できることがわかりましたが、実際にどのくらいのスペースがあるかを知りたいです。

また、これらは本番システムがfstrim I/Oを集中的に使用していることを理解しようとしていますが、オフピーク時に実行する必要がありますか?

「fstrim-v /」を実行するとデータが失われる可能性はありますか?

14
Anthony Fornito

/パーティションでfstrimを実行できることが最善の解決策ですが、ESXiの構成方法ではそれは不可能です。

VMとストレージデバイスの両方で破棄を有効にできる必要があります。

Xfsファイルシステムでパーティションまたは論理ボリュームのサイズに縮小しようとすると実行できません。これはFedoraの既知のバグです。この機能に興味がある場合は、Red Hatサポートに連絡し、Red Hat bugzilla 1062667を参照して、XFSの削減/縮小が必要なユースケースを提供してください。

一部の環境で考えられる回避策として、シンプロビジョニングされたLVMボリュームは、XFSファイルシステムの下の追加レイヤーと見なすことができます。

VMが熱心にシックプロビジョニングされたVMDKである場合、これは、ボリュームをトリミング(技術的に言えば、SCSI UNMAP)しようとしたときに再利用するものがないことを意味します。

バックエンドストレージがシンプロビジョニングを実行している場合は、ストレージを削減し、バックエンドがウォームデータをキャッシュ/重複排除できるようにするために、レイジーゼロ化VMDKファイルも使用する必要があります。

2つの可能なオプション:

  1. SANを介してリモートサーバーによってストレージが提供される場合、ストレージがシンプロビジョニングされている場合にのみブロックを破棄できます。

    1. すべてのVMを別のデータストアにVMotionし、組み込みのVMWareツールを使用する
    2. SSHを使用してESXiホストに接続します
    3. 仮想マシンフォルダに移動します
    4. Duでディスク使用量を確認する
    5. Vmkfstools -K [disk]を実行します
    6. Duでディスク使用量を確認する
  2. dd if =/dev/zero of = BIGFILE bs = 1024000 rm -f BIGFILE

私の知る限り、これはsdeleteと同じことを行いますが、ディスクI/Oのスパイクを引き起こし、実行に時間がかかる可能性があります。

一晩試してみる何か

どちらのオプションも最善ではありませんが、ext3またはext4を取得するためにVM)ごとに再フォーマットすることは現実的ではありません。

実行できる可能性があるのは、すべてのLinux VMのアフィニティルールを設定し、上記のオプション1を使用することです。

12
Brian Curless

私は数週間前に同じことをしようとしましたが、その方法がわかりません。 Redhatサポートポータルで公式声明を共有します。

現在、xfsファイルシステムを使用してパーティションまたは論理ボリュームのサイズを縮小することはできません。この機能に興味がある場合は、Red Hatサポートに連絡し、Red Hat bugzilla 1062667を参照して、XFSの削減/縮小が必要なユースケースを提供してください。一部の環境で考えられる回避策として、シンプロビジョニングされたLVMボリュームは、XFSファイルシステムの下の追加レイヤーと見なすことができます。

幸運を!!

12
BennyBoy