私はNICを選択する前に立っており、ストレージサーバーと仮想化ホストのスイッチを切り替えていますが、bonding-rrを使用して10Gとクアッドギガビットのどちらかを決定できません。 10Gは著しく高価なソリューションであり、実際には10Gは必要ありませんが、4Gで十分です...
ただし、NFSがbonding-rrでどのように拡張されるかについて少し心配しています。誰かがそのような設定でNFSを使用しましたか?単一の高帯域幅リンクの実行可能な代替手段ですか?この種のボンディングのいくつかの優れた方法(衝突を減らすためにリンクのセットごとに4つの個別のVLAN)を知っており、本番環境でのそのようなセットアップを説明するいくつかのストーリーを調べましたが、通常は理論上の帯域幅または単一ギガビットと比較しますパフォーマンス-10Gではありません。
誰かが私が言及されたオプションで考慮すべき他のトピックや問題を知っていますか?
単一のプロトコルが通過する直接のポイントツーポイントリンク以外のボンディングモードとしてbalance-rrを考慮すべきではありません。 balance-rrの主な問題は、過度のジッターと異常な配信が発生することです。これは、NFSやCIFSなどのサービスにとってはかなりひどいことです。ポイントツーポイントトポロジと1つのプロトコルを使用しても、サポートされる最大量の1Gリンクをbalance-rrで結合することは、単一の10Gリンクほど信頼性が高くありません。 balance-rrは、限られたシステムでより多くの帯域幅を実現するための必死の最後の手段です。
LACPは接続のバランスをうまく取りますが、複数のエンドポイントに対してのみ有効です。これらは通常、複数のエンドポイントにストレージを提供する目的で展開されるため、これはほとんどのファイルサーバーとブロックサーバーでは問題になりません。ほとんどのスイッチは8ポートのLACPボンドで最大になり、8ポートでのトラフィックのバランスは完全にはほど遠いです。
10Gイーサネットへの移行にはかなりの費用がかかります。 10Gまたは40Gのインフィニバンドを見たことがありますか?世界的に安価で、すべてのホストを同種の冗長ファブリックに沿って実行でき、RDMAが組み込まれています。