RAID 10を実行する7200 RPM SATAドライブと4つのギガビットネットワークインターフェイスカードを搭載したDellストレージサーバーを購入しました。さらに、512MBのオンボードキャッシュを備えたPERC H700コントローラカードを備えています。仮想マシンを保存するハイパーバイザーをDellサーバー(ブロックレベルストレージ)に接続します。
私たちの質問は、iSCSIを使用し、各ハイパーバイザーとDellストレージサーバー間の単一のギガビット接続を使用する場合、ハイパーバイザーあたりの理論上の最大転送速度が1000メガビット/ 8 = 125メガバイト/秒であることは本当ですか?または、私は完全に間違っています。iSCSIはある種の圧縮を行い、より高いI/Oスループットレートを達成できます。
12のスピンドルがあり、RAID 10を実行しているので、1秒あたり125メガバイトは実際に見ると多少遅くなります。ネットワークのボトルネックを解消するために、ファイバーチャネル以外にいくつかの代替手段がありますか?ジャンボフレームを有効にすることは承知しており、それ以外のことはすべて試します。ハイパーバイザーごとに単一のギガビット接続を使用すると、どのようなパフォーマンスが期待できますか?
100MB /秒を壊すのは幸運だと思います。理論的には、はい、1000 Mbpsまたは125 MB /秒を転送できますが、オーバーヘッドのさまざまなレイヤー間(イーサネットおよびIPヘッダー、iSCSI自体、パケット間で時間がかかるという事実)には、実際にはそれが表示されることはありません。
また、NASボックスから125MB/s(またはそれ以下)が飛んでいくのが見えることを忘れないでください。これは、すべてのVMサーバー。したがって、各VM server。
速度を上げるには、10Gbpsネットワーキング(安価ではない)に進むか、特定のベンダーが好むものであれば、Etherchannel /チャネルボンディング/ LACP /を使用し、複数の1Gbpsリンクを接着してより大きなパイプを形成します。それがオプションではない場合(私が見た1RUサーバーには拡張ポートが1つある)、別のプロトコルを検討することをお勧めします-個人的には、ATA over Ethernetは悲しいことに無視されているオプションだと思います良いSAN(NASとは対照的に))プロトコル。
また、7200RPM SATAドライブは、特にランダムI/Oの場合、実際にはパフォーマンスが低く、さらに重要なことには、エラー処理に関するかなり厄介な問題が発生する傾向があることにも注意してください(いわゆる「エンタープライズ」ドライブでも、 d高性能SAN環境)で「適切」と呼びます。SANがこの種のドライブを使用していたので、率直に言ってdもう一度やるつもりなら、まともなドライブに余分なお金を使う。
iSCSIには圧縮がなく、予想される転送速度は(イーサネット、IP、iSCSI)プロトコルのオーバーヘッドを考慮するとさらに低くなります。
これを増やす最も簡単な方法は、ストレージサーバーとハイパーバイザーの両方にNICを追加し、ポート集約を使用することです。
LACPは役に立ちません。複数のESXホストが1つのiSCSIターゲットにアクセスするときにメリットがありますが、1対1の状況では帯域幅は増加しません。 MPIOは、帯域幅を増やす唯一の方法です。
古い質問ですが、詳細はこちらです。
1000Mbit/sが最大ビットレートです。したがって、これは125MBytes/sと考えるかもしれません。
いいえ、そうではありません。 1000Mbit/sがリンクレベルの物理ビットレートです。まず、プロトコルのオーバーヘッドがあります。 TCP + IP。
TCP/IPを使用した後は、実際の帯域幅1000Mbit/sの95%未満が利用可能です。 VLAN&IPv4なしの1500バイトMTUに基づいています。
参照: プロトコルオーバーヘッド
次に、iSCSIを追加します。また、iSCSIアドは48バイトのヘッダーであるようです。
MTU 1500の場合、残りは1412(1500-40-48)バイトです。したがって、スループットは最大の91%まで低下します。 ((1500-88)/(38 + 1500))
したがって、ジャンボフレームを使用しない場合は、絶対最大値が114MB/sになると予想されます。これは、フレーム全体が満たされ、ドロップされたパケットがない完全な転送を前提としています。
実際には、特に他のユーザーがターゲットマシンを攻撃している場合は、それを下回ることを期待します。
ノート: