Puncte:0

Amazon EKS: Mutarea podurilor de la un grup de noduri la altul

drapel eg

În prezent, am un grup de noduri gestionate care deservește clusterul meu EKS și am adăugat altul:

  • NodeGroup1 [actual - disc ec2 de 20 gb]
  • NodeGroup2 [nou - disc ec2 de 80gb]

Aș dori să migrez podurile mele actuale de la Grupul de noduri 1 la Grupul de noduri 2 pentru a permite o dimensiune mai mare a discului pentru nodurile de lucru și apoi să nu mai folosesc Grupul de noduri 1. imaginea grupurilor de noduri

Am creat noul grup de noduri ca atare:

eksctl create nodegroup --cluster prod --name NodeGroup2 --node-type t3.medium --nodes 2 --nodes-min 0 --nodes-max 4 --enable-ssm --managed --node-volume-size 80

Am un buget de întrerupere a podului setat, dar în acest moment pot tolera timpul de nefuncționare. Atâta timp cât totul trece de la un grup de noduri gestionate la cel nou, sunt fericit.

Pot să fac pur și simplu eksctl șterge grupul de noduri NodeGroup1 și va muta totul în al doilea grup de noduri?

Iată cum arată grupurile mele de noduri, implementările și podurile mele:

~$ eksctl get nodegroups --cluster prod -o json
[
    {
        „StackName”: „”,
        „Cluster”: „prod”,
        „Nume”: „NodeGroup2”,
        „Stare”: „ACTIV”,
        „MaxSize”: 4,
        „Dimensiune minimă”: 0,
        „Capacitatea dorită”: 2,
        „InstanceType”: „t3.medium”,
        „ImageID”: „AL2_x86_64”,
        „CreationTime”: „2021-11-07T04:15:49.595Z”,
        "NodeInstanceRoleARN": "arn:aws:iam::redacted:role/eks-node-group",
        „AutoScalingGroupName”: „eks-...1d”,
        „Versiune”: „1.20”
    },
    {
        „StackName”: „”,
        „Cluster”: „prod”,
        „Nume”: „NodeGroup1”,
        „Stare”: „ACTIV”,
        „MaxSize”: 4,
        „Dimensiune minimă”: 0,
        „Capacitatea dorită”: 2,
        „InstanceType”: „t3.medium”,
        „ImageID”: „AL2_x86_64”,
        „CreationTime”: „2021-05-25T06:52:25.437Z”,
        "NodeInstanceRoleARN": "arn:aws:iam::redacted:role/eks-node-group",
        „AutoScalingGroupName”: „eks-...01”,
        „Versiune”: „1.20”
    }
    
~$ kubectl obține păstăi -A    

SPAȚIUL DE NUMELE NUMELE STAREA PREGĂTITĂ REINCEPE VÂRSTA
implicit grafana-agent 1/1 Running 0 2d23h
implicit promtail-2a23 1/1 Running 0 3d
implicit promtail-2vg2 1/1 Running 0 3d
implicit prod-application-34 1/1 Running 0 3d
implicit prod-applicationworker-6l 1/1 Running 0 3d
kube-system aws-load-balancer-controller 1/1 Rulează 0 2d23h
kube-system aws-node-5rzk3 1/1 Rulează 0 3d
kube-system aws-node-keljg 1/1 Rulează 0 3d
kube-system cluster-autoscaler 1/1 Rulează 0 2d23h
kube-system coredns-3254s 1/1 Running 0 3d
kube-system coredns-48grd 1/1 Running 0 2d23h
kube-system kube-proxy-6vx89 1/1 Running 0 3d
kube-system kube-proxy-rqb23 1/1 Rulează 0 3d
kube-system metrics-server 1/1 Rulează 0 2d23h
kubernetes-tabloul de bord dashboard-metrics-scraper 1/1 Rulare 0 2d23h
kubernetes-dashboard kubernetes-dashboard 1/1 Rulare 0 2d23h

~$ kubectl obține implementări -A
SPAȚIUL DE NUMELE NUMELE GATA VÂRĂ DISPONIBILĂ ACTUALIZĂ
implicit grafana-agent 1/1 1 1 5d23h
implicit prod-application 1/1 1 1 160d
implicit prod-applicationworker 1/1 1 1 37d
Kube-system aws-load-balancer-controller 1/1 1 1 166d
Kube-system cluster-autoscaler 1/1 1 1 166d
kube-system coredns 2/2 2 2 167d
kube-system metrics-server 1/1 1 1 166d
kubernetes-tabloul de bord tabloul de bord-metrics-scraper 1/1 1 1 165d
Kubernetes-tabloul de bord kubernetes-tabloul de bord 1/1 1 1 165d

Dacă există o modalitate prin care pot încorda temporar un întreg grup de noduri și apoi îl pot scurge, la celălalt grup de noduri (înainte de a-l șterge pe primul), ar fi uimitor.

Îmi pare rău dacă aceasta este o întrebare simplă, dar am ajuns să citesc atât de multe documente care se contrazic ușor.

Noroc, Mike.

moonkotte avatar
drapel in
Pe baza unor cercetări, grupurile de noduri administrate eks are [taints](https://docs.aws.amazon.com/eks/latest/userguide/node-taints-managed-node-groups.html), astfel încât setarea taint pe ` NodeGroup1` cu `noExecute` ar trebui să mute toate podurile într-un alt grup de noduri. Mai multe detalii despre [tints and tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/).

Postează un răspuns

Majoritatea oamenilor nu înțeleg că a pune multe întrebări deblochează învățarea și îmbunătățește legătura interpersonală. În studiile lui Alison, de exemplu, deși oamenii își puteau aminti cu exactitate câte întrebări au fost puse în conversațiile lor, ei nu au intuit legătura dintre întrebări și apreciere. În patru studii, în care participanții au fost implicați în conversații ei înșiși sau au citit transcrieri ale conversațiilor altora, oamenii au avut tendința să nu realizeze că întrebarea ar influența – sau ar fi influențat – nivelul de prietenie dintre conversatori.