RHEL6を実行しているサーバーでIntel82599EB 10G NICを使用しています。パケットが高速で生成されるプログラムを実行しました。NICは以前にインストールされていました別のPCで、各ポートで8〜9 Gbpsのトラフィックを同時に生成できました。このサーバーでは、1つのポートが使用されている場合にのみ8〜9 Gbpsで生成できました。両方のポートで同時に生成する場合は、その後、私の合計送信レートは約12Gbps(各ポートで約6Gbps)に低下します。
関連する「lspci-vvv」の出力は次のようになります。
0b:00.0 Ethernet controller: ...
Capabilities: [a0] Express (v2) Endpoint, MSI 00
LnkCap: Port #1, Speed 5GT/s, Width x8
LnkSta: Speed 5GT/s, Width x4
LnkCtl2: Target Link Speed: 5GT/s
0b:00.1 Ethernet controller: ...
Capabilities: [a0] Express (v2) Endpoint, MSI 00
LnkCap: Port #1, Speed 5GT/s, Width x8
LnkSta: Speed 5GT/s, Width x4
LnkCtl2: Target Link Speed: 2.5GT/s
送信レートは、両方のポートのLnkStaの「x4」によって制限されていますか?また、一方のポートに「ターゲットリンク速度:5GT/s」、もう一方のポートに「ターゲットリンク速度:2.5GT/s」があるとはどういう意味ですか?これはレートの低下にも貢献しますか?
また、NICのPCIEコネクタよりも長いPCIEスロットがいくつかあります。代わりに、これらの長いスロットにNICをインストールできますか?
また、NICのPCIEコネクタよりも長いPCIEスロットがいくつかあります。代わりに、これらの長いスロットにNICをインストールできますか?
ほとんどはい。のように:はい、理論的には、実際にはわかりません-悪いBIOSはそれを吹き飛ばすかもしれません。過去の例では、RAIカードを備えたグラフィックポート(ncice pCIEx16)により、BIOSがうまく処理されないためにブートエラーが発生する可能性があります...それは数年前ですが、最近ではそのような問題は発生しないはずです。私は定期的にそれを行い、グラフィックスロットからRAIDコントローラーを実行し、サーバーシナリオにオンボードグラフィックを使用しています。
ここでは、何が起こるかを試してみてください。PCIeは、標準の小さなコネクタを大きなスロットに挿入できるという点で互換性があります。大きい方のコネクタはすべてのピンを接続する必要はありません-PCIex16コネクタにPCIex1リンクを設定できます。すべてのカードが適合しますが、PCIEx1でのみ機能するという利点があります...ここには、数を計算するためにPCIEx1スロットでグラフィックカードを実行するためのコンバータがいくつかあります。 。
送信レートは、両方のポートのLnkStaの「x4」によって制限されていますか?
さて、ポートの物理的な制限は明らかに回線の速度を制限しますか?はい、それは物理的な制限です-プログラムできるものは何もありません。
また、一方のポートに「ターゲットリンク速度:5GT/s」、もう一方のポートに「ターゲットリンク速度:2.5GT/s」があるとはどういう意味ですか?これはレートの低下にも貢献しますか?
他の誰かが何に答えなければならないでしょう、しかし私はグーグルでこれを見つけました:
http://www.xilinx.com/support/answers/37497.htm
それが私が読んだとおりである場合、それは構成された上限です-そうです、それは理由ですが、問題は理由であるため、他の何かの症状である可能性があります。