web-dev-qa-db-ja.com

InfiniBandパフォーマンス上のiSCSITGTD

サーバー間4xSDR InfiniBandリンクを構成して、仮想マシン、特にデータベースサーバーのバックエンドストレージの帯域幅を増やしました。 CentOS 6でTGTDを使用してiSCSIを使用していますが、iperfでテストすると、IPoIBを使用して約6.45Gbpsを達成できます。

SSDへの書き込みが約260MB /秒になるようにiSCSIイニシエーターとターゲットを調整することができました。ただし、ローカルで約500〜600MB/sで書き込むことができるため、これはまだ最適な書き込み速度ではありません。

私が現在使用しているパラメータは次のとおりです。

  • MaxRecvDataSegmentLength 4194304
  • MaxXmitDataSegmentLength 524288
  • MaxBurstLength 4194304
  • FirstBurstLength 262144
  • MaxOutstandingUnexpectedPDUs = 0
  • MaxOutstandingR2T = 1
  • MaxCommands = 256
  • QueueDepth = 128

誰かがこれを調整した経験がありますか?構成を変更してこれより高くすることは可能ですか? 2つのデバイスでRAID0を実行しても、同じ帯域幅しか達成できません。これは、より高いと予想されていたはずです。

4
jaseeey

得られた結果は、現在の設定でかなり期待できます。 iserトランスポートモードを使用すると、パフォーマンスをさらに向上させることができます。

README.iser からの構成のヒント

目標:

    ./tgtadm --lld iser --mode target \
             --op new --tid 1 --targetname "iqn.$(hostname).t1"
    ./tgtadm --lld iser --mode target \
             --op bind --tid 1 --initiator-address ALL
    ./tgtadm --lld iser --mode logicalunit \
             --op new --tid 1 --lun 1 \ --backing-store /dev/sde
             --bstype rdwr

イニシエータ:

    iscsiadm -m discovery -t sendtargets -p $targe
    iscsiadm -m node -p $targetip -T $targetname --op update \
        -n node.transport_name -v iser
    iscsiadm -m node -p $targetip -T $targetname --login

関連する有用なSFの質問: 単純なInfinibandブロックストレージ(SRPまたはiSER)をセットアップする

2
Veniamin