私たちのストレージのパフォーマンスに関する私の質問のいくつかに答えていただければ幸いです。セットアップ
基本的に、ストレージを確認する必要があった主な理由は、監視VMをホストの1つのローカルディスクからストレージに転送することでした。したがって、移行を行う前に、新しいセットアップを行います。 VM iometerを使用して、クラスターで実行されている重要なジョブがない夜間にテストを実行しました。このVMからのダイナモワーカースレッドは1つだけでした。
Access Specification Name IOps Read IOps Write IOps MBps Read MBps Write MBps Transactions per Second Average Response Time Average Read Response Time
512B; 100% Read; 0% random 5617.191059 5617.191059 0.000000 2.742769 2.742769 0.000000 5617.191059 0.176979 0.176979
512B; 75% Read; 0% random 3190.524306 2369.761725 820.762581 1.557873 1.157110 0.400763 3190.524306 0.312244 0.321925
512B; 50% Read; 0% random 1055.807449 524.819993 530.987456 0.515531 0.256260 0.259271 1055.807449 0.946000 0.421600
512B; 25% Read; 0% random 1006.956966 239.414257 767.542709 0.491678 0.116901 0.374777 1006.956966 0.853556 0.687116
512B; 0% Read; 0% random 35.123065 0.000000 35.123065 0.017150 0.000000 0.017150 35.123065 28.349538 0.000000
4K; 75% Read; 0% random 3034.296095 2247.847150 786.448945 11.852719 8.780653 3.072066 3034.296095 0.328614 0.333793
4K; 25% Read; 0% random 2237.793260 587.671309 1650.121951 8.741380 2.295591 6.445789 2237.793260 0.445755 0.636275
16K; 75% Read; 0% random 627.852712 474.796322 153.056389 9.810199 7.418693 2.391506 627.852712 1.591288 1.840213
16K; 25% Read; 0% random 478.619741 116.666329 361.953412 7.478433 1.822911 5.655522 478.619741 2.086953 1.281547
32K; 75% Read; 0% random 848.266506 649.372846 198.893660 26.508328 20.292901 6.215427 848.266506 1.176316 1.334378
32K; 25% Read; 0% random 443.441341 117.275291 326.166050 13.857542 3.664853 10.192689 443.441341 2.253707 7.158792
hdparm読み取りテスト(hdparm -t/dev/sdaを使用)では300MB/sが得られました。
私たちの監視システムは、+-40のVMと30のデバイスから情報を取得します。すべてのホストには少なくとも10のサービスがありますが、実際にはそれがIOPSの大部分を生成するサボテンです。 RRDデータを毎分同時に大量に更新します。この事実にもかかわらず、私はVMをストレージに移行することにしました。移行後、監視から生成されたIOPSを測定しました。平均値は800でしたが、読み取り操作後の応答時間はすべてのVMはひどいものでした-5-10秒、カーネルがいくつかのIO操作でタイムアウトしたため、監視は実際にいくつかのVMを強制終了しました.hdparmは1.4MB /秒を提供しました。サボテンRRD処理をオフにすると、正常に実行されますが、グラフがありません。
私の質問:
1)このセットアップでのiometerのパフォーマンスについてどう思いますか?それはより良いはずです、それは大丈夫ですか、それとも私はいくつかの設定ミスを探すべきですか?
2)監視ソフトウェアを備えた別個の物理ホストを用意し、この種のIOPSでストレージを「妨害」しないことをお勧めしますか?
)この質問はより一般的です。ストレージテストの後、さまざまなブロックサイズのIOPS/mbpsを取得できます。しかし、アプリケーションが主に使用しているブロックサイズをどのように評価できますか?たとえば、データベースシステムは75%の読み取り操作を使用することがよくありますが、結果と比較できるようにブロックサイズはどのくらいですか?この情報を知らなくても、私のiometerテストは単なる数値です。
更新1:回答ありがとうございます。
つまり、rrd処理用のramdiskを作成し、すべてのrrdを1時間ごとに監視ディスクに同期しました。すべてが非常に高速に動作しますが、優れた書き込みパフォーマンスを必要とするこの種のIOPS用にRAID10で別のRAIDグループを作成することを検討します。
説明されているセットアップは、潜在的に可能なほど高速ではありません。最大4つのホストをセットアップに接続できるため、これはサポートされている配置です(SASマルチパスを使用しない場合)。
あなたのポイントに:
パフォーマンスは良くありませんが、構成したものには適切です。 Server Fault canonical RAID post を参照します。これは、基本的にRAID6はランダム書き込みワークロードには適していないと述べています。仮想マシンと監視システムは、このアクセスパターンで有名です。可能であれば、RAID 1 +0の方が適しています。
私はdo監視ホストを仮想化しますが、それに対応するためにストレージを構築します(より大きな書き込みキャッシュへのバイアス、VMで適切なI/Oエレベータオプションを設定します)。これは他のRRDベースのツール( orca および OpenNMS )用ですが、間違いなくCactiに適用されます。
テストに関しては、平均トランザクション/ブロックサイズを追跡することはそれほど重要ではないと思います。アーキテクチャの問題が大きいほど、全体的に大きな利益が得られる可能性があるからです。ただし、アプリケーションを追跡することはできます。また、vCenterまたはesxtop/resxtopを介してVMストレージパフォーマンスを調べることを検討してください。
正直に言うと、この種のセットアップがサポートされていることは確かですが、2つ以上のホストの直接接続SAS VMWareクラスターはこれまで見たことがありません。 2つのホストで問題ありませんが、3つ以上はこの方法を使用した私の専門分野外です。
とはいえ、統計は私には問題ないように見えます。最終的には、R6アレイに非常に遅いディスクがいくつかあるため、これまでの速度には制限があります。443IOPSは、私が期待するようなパフォーマンスです。
2番目の質問については、負荷がそれほどひどい場合は、R1に専用ディスクのペアを使用してP2000に別の論理ディスクを作成し、その上にVMを配置するか、移動することを検討できます。 vMotion/DRS/HA機能なしで生活できる場合は、ローカルDASに送信します。
3番目の質問-多分iotop?