現在、プライベートインターコネクトとして1GigEを使用する2ノードのOracle 11gRACがあります。更新のピーク時には、ノード間のトラフィックは35 MByte /秒に達するため、帯域幅の容量に関しては引き続き良好です。トランザクション量の増加をサポートするために、クラスターに3番目のノードを追加することを検討しています。クラスターにノードを追加するとプライベートインターコネクトトラフィックにどのような影響があり、何がInfinibandの使用をトリガーするのか、誰かがすでに見てきたのではないかと思います。私が読んだところによると、Infinibandは帯域幅を増やすだけでなく、ネットワークの待ち時間を大幅に短縮することもできます。 RACプライベートインターコネクトにInfinibandを使用している人は、あなたの経験を私たちと共有できますか?前もって感謝します。
IBを相互接続として使用する4ノードのoltpracデータベースと3ノードのdwracデータベースがあります。
CiscoIBスイッチとCiscoIBカードを使用しています。相互接続プロトコルとしてIPoverIBを使用します。これまでのところ、結果には非常に満足しています。相互接続トラフィックに問題があったことはありません。 gigEパブリックインターフェイスが飽和状態に近づいていますが、IB帯域幅に近いところはありません。 7つのノードはすべて、アクティブ/パッシブフェイルオーバー構成でセットアップされた2つのインフィニバンドスイッチに接続されています。
インスタンス間の同期などのバルクデータ転送の(アプリケーションへの)コストについてより懸念している場合は、現在の35Mbpsのレートは十分に低いため、別のクラスターに移動してもプラスの影響を受ける可能性はほとんどありません。相互接続。
ネットワークスタックの遅延を増やすことなく、1Gbpsイーサネット接続を4Gbpsまたは8Gbps(個々のクラスターノードに固定できる物理ポートの数に応じて)に非常に簡単にトランクできることを忘れないでください。
ファーシーカーが言うように、IBは(商業環境では)仲間に自慢するのにクールです。科学研究コミュニティでは、IBはクラスター相互接続の商品になりつつあります。
IBと10GbEの大きな違いは、レイテンシーであると考えられています。 IBはDMAタイプモデルを使用し、遅延はマイクロ秒の範囲ですが、10GbEでは、通信が両側のスタックを上下に移動する必要があります。IBは、生の帯域幅がよりも高いと想定されています10GbEですが、40GbEと100GbEが出た場合、10GbEはおそらく下位互換性があります。
実際には、IBインターコネクトとIB-> 10GbEスイッチの概念実証を備えた5ノードのOracleクラスターを構築するという任務を負っています。これは、デルと協力しています。したがって、私の情報は主に、POCの準備のために行ってきた調査です。
私は本番環境でInfinibandを使用したことはありませんが、Infinibandにアクセスするのが理にかなっているのは、10GigEに向かって誤っていることに気付いた場合だけです(価格が約10GbEで平衡に達していることを覚えている場合) 。ナノ秒単位で測定されるレイテンシーはかなりクールですが、DBにとって重要ですか?あんまり。
Infinibandのようなものが必要になる前に、2つの1Gb接続(もちろん適切なハードウェアを使用)をチーム化するか、他の調整(ジャンボパケット、MTUの調整など)をいくつでも行うことができます。
そうは言っても、Infinibandは、仲間に自慢したいだけならとてもクールです...