Puncte:0

Două NIC-uri de 10 Gb legate pe un sistem de operare invitat ESXi care nu utilizează lățimea de bandă completă

drapel cn

Pe o mașină invitată ESXi, cu sistem de operare Ubuntu 18.04, două NIC-uri conectate de la două diferențe de vswitch, fiecare dintre ele având o legătură în sus separată de 10 Gb.

Am făcut un nic legat din aceste două link-uri cu echilibru-rr și echilibru-alb moduri. La testarea lățimii de bandă, aceasta nu depășește limita de 10 Gb (aproximativ 9,7 gbps) pentru interfața legată.

 bwm-ng v0.6.1 (sondare la fiecare 0.500s), apăsați „h” pentru ajutor
  intrare: /proc/net/dev tip: rata
  \ iface Rx Tx Total
  ==================================================== =============================
               lo: 0,00 b/s 0,00 b/s 0,00 b/s
           ens160: 3,82 kb/s 5,30 Gb/s 5,30 Gb/s
           ens192: 15,33 kb/s 4,35 Gb/s 4,35 Gb/s
            bond0: 19,16 kb/s 9,64 Gb/s 9,64 Gb/s
  --------------------------------------------- ----------------------------
            total: 38,31 kb/s 19,28 Gb/s 19,29 Gb/s

# link ip
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state modul NECUNOSCUT DEFAULT grup implicit qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
2: ens160: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 stare UP mode DEFAULT grup implicit qlen 1000
    link/ether 00:0c:29:xx:xx:xx brd ff:ff:ff:ff:ff:ff
3: ens192: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 state UP mode DEFAULT grup implicit qlen 1000
    link/ether 3a:f0:c2:xx:xx:xx brd ff:ff:ff:ff:ff:ff
4: bond0: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT grup implicit qlen 1000
    link/ether 3a:f0:c2:xx:xx:xx brd ff:ff:ff:ff:ff:ff
# cat /proc/net/bonding/bond0
Driver de conectare a canalelor Ethernet: v3.7.1 (27 aprilie 2011)

Modul Bonding: echilibrare adaptivă a sarcinii
Sclav primar: Nici unul
Sclav activ în prezent: ens192
Stare MII: sus
Interval de interogare MII (ms): 100
Întârziere în sus (ms): 0
Întârziere în jos (ms): 0

Interfață slave: ens192
Stare MII: sus
Viteza: 10000 Mbps
Duplex: plin
Număr de erori de legătură: 0
Adresă hardware permanentă: 00:0c:29:xx:xx:xx
ID-ul cozii slave: 0

Interfață slave: ens160
Stare MII: sus
Viteza: 10000 Mbps
Duplex: plin
Număr de erori de legătură: 0
Adresă hardware permanentă: 00:0c:29:xx:xx:xx
ID-ul cozii slave: 0

Am testat deja configurația, fără a folosi ESXi (o mașină Ubuntu pe mașina goală), și am obținut o lățime de bandă agregată de aproximativ 16 Gbps pentru interfața bond0. De asemenea, cu un nic pe un oaspete ESXi, pot să-l satur și să obțin o lățime de bandă de aproximativ 10 gbps.

Există vreo limită pentru ESXi vswitch sau mașina oaspete?

drapel br
Cum sunt configurate vswitch-urile? Folosești cadre jumbo?
drapel br
Citiți și acest lucru; https://unix.stackexchange.com/questions/469346/link-aggregation-bonding-for-bandwidth-does-not-work-when-link-aggregation-gro
raitech avatar
drapel cn
Configurația vswitch rămasă implicită: MTU 1500, hash IP bazat pe rută. Am testat configurația cu un singur Nic și pot obține o lățime de bandă completă de 10 Gb

Postează un răspuns

Majoritatea oamenilor nu înțeleg că a pune multe întrebări deblochează învățarea și îmbunătățește legătura interpersonală. În studiile lui Alison, de exemplu, deși oamenii își puteau aminti cu exactitate câte întrebări au fost puse în conversațiile lor, ei nu au intuit legătura dintre întrebări și apreciere. În patru studii, în care participanții au fost implicați în conversații ei înșiși sau au citit transcrieri ale conversațiilor altora, oamenii au avut tendința să nu realizeze că întrebarea ar influența – sau ar fi influențat – nivelul de prietenie dintre conversatori.