Am crezut că am înțeles destul de bine modul de așteptare a mașinilor virtuale, dar obțin rezultate neașteptate pe care nu le înțeleg prea bine.
Am un sistem care are două procesoare în el, fiecare procesor având 22 de nuclee logice (hyperthreading-ul este DEZACTIVAT). Acest lucru mi-ar da un total de 44 de nuclee. Acum am configurat primul NIC de 10 Gbps să folosească nuclee de la 1 la 22 cu maximum 16 procesoare (31 de cozi de primire în total, deoarece folosesc SET) și am configurat al doilea port de 10 Gbps să folosească nuclee de la 23 la 44.
Cu toate acestea, dacă vă uitați la sarcinile de mai jos, unele dintre ele sunt plasate în GRUPUL 1 nucleul 0, ceea ce nu are niciun sens. Grupurile de procese ar trebui să fie folosite doar dacă aveți mai mult de 64 de nuclee și eu nu. A mai văzut cineva asta sau știe ce se întâmplă?
Hyper-V 2019 rulează pe DL360 Gen9 cu 2021-09 CU comutatorul de rulare în echipă încorporat.

Acum, când mă uit la „Get-NetAdapterRss”, puteți vedea că al doilea NIC are un MaxProcessor de 1:0, ceea ce explică de ce tot ceea ce o NIC 2 este pus pe 1:0.Dar de ce? Cu VMQ, arată că fiecare NIC are 31 de cozi, iar Get-NetadapterRss arată că există un număr de 128 de cozi de primire, dar nu pot crește MaxProcessors-ul peste 16 (16 este maximul din anumite motive, chiar dacă acesta este un server cu 44 de nuclee) :
Descrierea interfeței: Adaptor HPE Ethernet 10Gb 2 porturi 560FLR-SFP+
Activat: Adevărat
NumberOfReceiveQueues: 128
Profil: NUMAStatic
Procesor de bază: [Grup:Număr]: 0:23
MaxProcessor: [Grup:Număr]: 1:0
MaxProcessors: 1
RssProcessorArray: [Grup:Număr/NUMA Distanță]: 1:0/32767
IndirectTable: [Grup:Număr] : 1:0```