2Gbitのネットワーク速度を達成するためにサーバーをボンディングインターフェースとして構成しましたが、ubuntuは1gbitを超えることができず、サーバーからの発信トラフィックは2つのインターフェースでバランスが取れていないようです。
このサーバーの背後にあるスイッチはJuniperスイッチであり、すべての構成はJuniper JTacによって検証されるため、スイッチ側で問題が発生することはありません。 LACP802.3adとして構成されています。
Ubuntuの設定は次のとおりです。
auto p255p1
iface p255p1 inet manual
bond-master bond0
auto p255p2
iface p255p2 inet manual
bond-master bond0
auto bond0
iface bond0 inet static
address xx.xx.xx.x
netmask 255.255.255.248
gateway xx.xx.xx.xx
bond-mode 4
bond-miimon 100
bond-lacp-rate 1
bond-slaves none
このような構成の経験があり、この問題を解決するための特別な構成があるかどうかを知っている人はいますか?
繰り返しますが、ここでの問題は、サーバーからの発信トラフィックがバランスが取れておらず、1つのインターフェイスのみを通過し、着信トラフィックがバランスが取れて両方のインターフェイスから発信されていることです。ただし、1ギガビットに制限されており、2ギガビットまでは到達できません。
ありがとう
次の構成は私のために働きます。重要な部分は、送信パケットのインターフェイスハッシュポリシーを制御するbond-xmit-hash-policy layer3 +4です。 https://www.kernel.org/doc/Documentation/networking/bonding.txt これは、パケットの負荷分散に関してスイッチが行うこととほぼ同等です。 http://kb.juniper.net/InfoCenter/index?page=content&id=KB2294 デフォルトでは、宛先MACアドレスの単純なXOR)が使用されるため、次のようになります。宛先が同じサーバーの場合は同じインターフェイス。layer3+ 4では、送信元と宛先のポート番号も機能するため、ほとんどの単一サーバートラフィックが適切に均等化されます。
auto bond0
iface bond0 inet manual
up ifconfig $IFACE up
slaves eth4 eth5
bond-mode 4
bond-miimon 100
bond-downdelay 200
bond-updelay 200
bond-lacp-rate 1
bond-xmit-hash-policy layer3+4
6: eth4: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 9000 qdisc mq master bond0 state UP mode DEFAULT group default qlen 1000
link/ether 90:e2:ba:69:b6:c8 brd ff:ff:ff:ff:ff:ff
RX: bytes packets errors dropped overrun mcast
605614572345 28863625 0 14 0 11413
TX: bytes packets errors dropped carrier collsns
13213800052 20824630 0 0 0 0
7: eth5: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 9000 qdisc mq master bond0 state UP mode DEFAULT group default qlen 1000
link/ether 90:e2:ba:69:b6:c8 brd ff:ff:ff:ff:ff:ff
RX: bytes packets errors dropped overrun mcast
601225223800 25966547 0 14 0 11219
TX: bytes packets errors dropped carrier collsns
8500820678 14501120 0 0 0 0
スイッチが1500のMTUに構成されている可能性があるため、構成でmtu9000ステートメントを省略していることに注意してください。