データセンターで、いくつかのVMware vSphere5.5および6.0クラスターのストレージバックエンドの拡張に取り組んでいます。私は主にVMwareエクスペリエンス全体(Solaris ZFS、Isilon、VNX、Linux ZFS)でNFSデータストアを使用しており、環境に Nimble iSCSIアレイ を導入する可能性があります Tegile(ZFS)ハイブリッドアレイ 。
現在のストレージソリューションは、NexentaZFSおよびLinuxZFSベースのアレイであり、vSphereホストにNFSマウントを提供します。ネットワーク接続は、ストレージヘッドの2 x 10GbELACPトランクと各ESXiホストの2x10GbEを介して提供されます。スイッチはデュアルです Arista 7050S-52 トップオブラックユニットは MLAGピア として構成されています。
VSphere側では、2 x 10GbEアップリンクでLACPボンドを使用して構成されたvSphere分散スイッチ(vDS)を使用しており、 ネットワークI/O制御(NIOC) シェアをVMポートグループ、NFS、vMotion、および管理トラフィック。
このソリューションと設計アプローチは何年にもわたって素晴らしく機能してきましたが、iSCSIブロックストレージを追加することは私にとって大きな変化です。近い将来、NFSインフラストラクチャを保持する必要があります。
物理的な設計を変更せずにiSCSIをこの環境に統合する方法を理解したいと思います。 ToRスイッチのMLAGは私にとって非常に重要です。
上記の場合、iSCSIソリューションを最大限に活用するにはどうすればよいですか?
基本的なリンクの冗長性よりも実際にはメリットがないため、iSCSI overLACPを実行することはお勧めしません。
ソフトウェアiSCSIHBAを使用してvDSでiSCSI用のVMkernelスイッチを作成することは、まさにあなたがすべきことです。これにより、真のMPIOが得られます。このブログ投稿は、標準のスイッチから移行する必要性を無視して、あなたがやろうとしていることにいくらか関連しているようです: https://itvlab.wordpress.com/2015/02/14/how-to-migrate-iscsi- storage-from-a-standard-switch-to-a-a-distributed-switch /
ISCSI用にすでに2つある場合は、ネットワークアダプターを追加する必要はありません。ただし、iSCSIネットワークでジャンボフレーム(MTU 9000)を有効にすることをお勧めします。これは、VMkernel、vDS、物理スイッチ、SANアプライアンスなど、ネットワークのすべてのレベルで設定する必要があります。