サーバー間4xSDR InfiniBandリンクを構成して、仮想マシン、特にデータベースサーバーのバックエンドストレージの帯域幅を増やしました。 CentOS 6でTGTDを使用してiSCSIを使用していますが、iperfでテストすると、IPoIBを使用して約6.45Gbpsを達成できます。
SSDへの書き込みが約260MB /秒になるようにiSCSIイニシエーターとターゲットを調整することができました。ただし、ローカルで約500〜600MB/sで書き込むことができるため、これはまだ最適な書き込み速度ではありません。
私が現在使用しているパラメータは次のとおりです。
誰かがこれを調整した経験がありますか?構成を変更してこれより高くすることは可能ですか? 2つのデバイスでRAID0を実行しても、同じ帯域幅しか達成できません。これは、より高いと予想されていたはずです。
得られた結果は、現在の設定でかなり期待できます。 iser
トランスポートモードを使用すると、パフォーマンスをさらに向上させることができます。
README.iser からの構成のヒント
目標:
./tgtadm --lld iser --mode target \
--op new --tid 1 --targetname "iqn.$(hostname).t1"
./tgtadm --lld iser --mode target \
--op bind --tid 1 --initiator-address ALL
./tgtadm --lld iser --mode logicalunit \
--op new --tid 1 --lun 1 \ --backing-store /dev/sde
--bstype rdwr
イニシエータ:
iscsiadm -m discovery -t sendtargets -p $targe
iscsiadm -m node -p $targetip -T $targetname --op update \
-n node.transport_name -v iser
iscsiadm -m node -p $targetip -T $targetname --login
関連する有用なSFの質問: 単純なInfinibandブロックストレージ(SRPまたはiSER)をセットアップする 。