Avem un NodePool dedicat agenților CI. Când totul funcționează corect, controlerul nostru CI va crea un pod pentru un agent CI, iar NodePool va fi scalat automat de autoscaler-ul GCP. Aceasta înseamnă că pod-urile vor avea următorul eveniment care spune că niciun nod nu se potrivește cu afinitățile lor:
Sunt disponibile 0/3 noduri: 3 noduri nu s-au potrivit cu afinitatea/selectorul nodului Pod.
Și noile Noduri vor fi în cele din urmă online după scurt timp. Cu toate acestea, de cele mai multe ori, autoscaler-ul nu va spune că:
podul nu a declanșat extinderea: 3 stocare efemeră insuficientă, 6 noduri nu s-au potrivit cu afinitatea/selectorul nodului podului
Când se întâmplă acest lucru, trebuie să scalez manual NodePool prin interfața de utilizare a GCP din secțiunea NodePool, care funcționează imediat.
Sunt destul de încrezător spunând că există o eroare undeva între Kubernetes și infrastructura GCP, poate autoscaler-ul. Tu ce crezi?
Iată configurația NodePool, dacă poate ajuta:
autoscaling:
activat: adevărat
maxNodeCount: 3
config:
diskSizeGb: 100
diskType: pd-standard
ephemeralStorageConfig:
localSsdCount: 2
ImageType: COS_CONTAINERD
etichete:
_redacted_: „adevărat”
MachineType: c2-standard-16
metadate:
disable-legacy-endpoints: „adevărat”
oauthScopes:
- https://www.googleapis.com/auth/cloud-platform
preemptibil: adevărat
serviceAccount: _redacted_
shieldedInstanceConfig:
enableIntegrityMonitoring: adevărat
Etichete:
- gke-main
vicii:
- efect: NO_SCHEDULE
cheie: _redactat_
valoare: „adevărat”
workloadMetadataConfig:
mod: GKE_METADATA
initialNodeCount: 1
instanceGroupUrls:
- _redactat_
locatii:
- europa-vest1-c
- europa-vest1-b
- europa-vest1-d
management:
reparare automată: adevărat
AutoUpgrade: adevărat
maxPodsConstraint:
maxPodsPerNode: „110”
nume: gha
networkConfig:
podIpv4CidrBlock: 10.0.0.0/17
podRange: main-europe-west1-pods
podIpv4CidrSize: 24
selfLink: _redactat_
stare: RUNNING
upgradeSettings:
maxSurge: 1
versiunea: 1.21.11-gke.900
Mulțumiri!