Avem o implementare configurată cu HPA pe baza metricii CPU. Poate funcționa bine zile întregi, scalând podurile în sus și în jos. Și apoi, la un moment dat, se pare că ignoră metrica și se scalează la un număr mic de poduri. De obicei, o rezolvăm setând manual un număr minim de pod-uri care ar putea gestiona traficul. Și după o oră sau două pornește din nou la scară.
Iată rezultatul kubectl descrie hpa
comandă în momentul în care autoscalerul nu funcționează pentru noi:
Nume: my-router-hpa
Spațiu de nume: implicit
Etichete: label1=label1
label2=label2
Adnotări: <niciuna>
CreationTimestamp: miercuri, 15 septembrie 2021 12:19:16 +0000
Referință: Deployment/my-router-v001
Valori: (actual/țintă)
CPU cu resurse pe pod-uri (ca procent de solicitare): 188% (943m) / 85%
Replici minime: 10
Număr maxim de replici: 100
Pod-uri de implementare: 10 curente / 10 dorite
Conditii:
Tastați Status Motiv Message
---- ------ ------ -------
Dimensiunea recomandată AbleToScale True ReadyForNewScale se potrivește cu dimensiunea actuală
ScalingActive True ValidMetricFound că HPA a reușit să calculeze cu succes un număr de replici din utilizarea resurselor CPU (procent de solicitare)
ScalingLimited True TooFewReplicas numărul de replici dorit este mai mic decât numărul minim de replici
Evenimente:
Introduceți Motivul Vârsta din mesaj
---- ------ ---- ---- -------
Normal SuccesRescale 60m orizontal-pod-autoscaler Dimensiune nouă: 15; motiv: utilizarea resurselor CPU (procent de solicitare) peste țintă
Normal SuccesRescale 50m (x2 peste 158m) orizontal-pod-autoscaler Dimensiune nouă: 8; motiv: utilizarea resurselor CPU (procent de solicitare) sub țintă
Normal SuccesRescale 48m orizontal-pod-autoscaler Dimensiune nouă: 7; motiv: utilizarea resurselor CPU (procent de solicitare) sub țintă
Normal SuccesRescale 43m (x2 peste 105m) orizontal-pod-autoscaler Dimensiune nouă: 8; motiv: utilizarea resurselor CPU (procent de solicitare) peste țintă
Normal SuccesRescale 43m orizontal-pod-autoscaler Dimensiune nouă: 12; motiv: utilizarea resurselor CPU (procent de solicitare) peste țintă
Normal SuccesRescale 37m (x2 peste 48m) orizontal-pod-autoscaler Dimensiune nouă: 6; motiv: utilizarea resurselor CPU (procent de solicitare) sub țintă
Normal SuccesRescale 34m (x2 peste 47m) orizontal-pod-autoscaler Dimensiune nouă: 5; motiv: utilizarea resurselor CPU (procent de solicitare) sub țintă
Normal SuccesRescale 29m (x2 peste 46m) orizontal-pod-autoscaler Dimensiune nouă: 4; motiv: utilizarea resurselor CPU (procent de solicitare) sub țintă
Normal SuccesRescale 28m orizontal-pod-autoscaler Dimensiune nouă: 2; motiv: utilizarea resurselor CPU (procent de solicitare) sub țintă
Normal SuccesRescale 16m (x2 peste 106m) orizontal-pod-autoscaler Dimensiune nouă: 1; motiv: utilizarea resurselor CPU (procent de solicitare) sub țintă
Normal SuccesRescale 15m orizontal-pod-autoscaler Dimensiune nouă: 5; motiv: utilizarea resurselor CPU (procent de solicitare) peste țintă
Normal SuccesRescale 13m (x2 peste 148m) orizontal-pod-autoscaler Dimensiune nouă: 10; motiv: utilizarea resurselor CPU (procent de solicitare) peste țintă
Normal SuccesRescale 13m (x3 peste 123m) orizontal-pod-autoscaler Dimensiune nouă: 16; motiv: utilizarea resurselor CPU (procent de solicitare) peste țintă
Normal SuccesRescale 8m3s (x2 peste 129m) orizontal-pod-autoscaler Dimensiune nouă: 10; motiv: utilizarea resurselor CPU (procent de solicitare) sub țintă
Raportează valoarea: „188% (943m) / 85%". Dar ultimul eveniment spune "sub țintă".
M-ați putea ajuta să înțeleg comportamentul autoscalerului GKE sau să sugerați o modalitate de depanare?