În prezent, am un grup de noduri gestionate care deservește clusterul meu EKS și am adăugat altul:
- NodeGroup1 [actual - disc ec2 de 20 gb]
- NodeGroup2 [nou - disc ec2 de 80gb]
Aș dori să migrez podurile mele actuale de la Grupul de noduri 1 la Grupul de noduri 2 pentru a permite o dimensiune mai mare a discului pentru nodurile de lucru și apoi să nu mai folosesc Grupul de noduri 1.
Am creat noul grup de noduri ca atare:
eksctl create nodegroup --cluster prod --name NodeGroup2 --node-type t3.medium --nodes 2 --nodes-min 0 --nodes-max 4 --enable-ssm --managed --node-volume-size 80
Am un buget de întrerupere a podului setat, dar în acest moment pot tolera timpul de nefuncționare. Atâta timp cât totul trece de la un grup de noduri gestionate la cel nou, sunt fericit.
Pot să fac pur și simplu eksctl șterge grupul de noduri NodeGroup1
și va muta totul în al doilea grup de noduri?
Iată cum arată grupurile mele de noduri, implementările și podurile mele:
~$ eksctl get nodegroups --cluster prod -o json
[
{
„StackName”: „”,
„Cluster”: „prod”,
„Nume”: „NodeGroup2”,
„Stare”: „ACTIV”,
„MaxSize”: 4,
„Dimensiune minimă”: 0,
„Capacitatea dorită”: 2,
„InstanceType”: „t3.medium”,
„ImageID”: „AL2_x86_64”,
„CreationTime”: „2021-11-07T04:15:49.595Z”,
"NodeInstanceRoleARN": "arn:aws:iam::redacted:role/eks-node-group",
„AutoScalingGroupName”: „eks-...1d”,
„Versiune”: „1.20”
},
{
„StackName”: „”,
„Cluster”: „prod”,
„Nume”: „NodeGroup1”,
„Stare”: „ACTIV”,
„MaxSize”: 4,
„Dimensiune minimă”: 0,
„Capacitatea dorită”: 2,
„InstanceType”: „t3.medium”,
„ImageID”: „AL2_x86_64”,
„CreationTime”: „2021-05-25T06:52:25.437Z”,
"NodeInstanceRoleARN": "arn:aws:iam::redacted:role/eks-node-group",
„AutoScalingGroupName”: „eks-...01”,
„Versiune”: „1.20”
}
~$ kubectl obține păstăi -A
SPAȚIUL DE NUMELE NUMELE STAREA PREGĂTITĂ REINCEPE VÂRSTA
implicit grafana-agent 1/1 Running 0 2d23h
implicit promtail-2a23 1/1 Running 0 3d
implicit promtail-2vg2 1/1 Running 0 3d
implicit prod-application-34 1/1 Running 0 3d
implicit prod-applicationworker-6l 1/1 Running 0 3d
kube-system aws-load-balancer-controller 1/1 Rulează 0 2d23h
kube-system aws-node-5rzk3 1/1 Rulează 0 3d
kube-system aws-node-keljg 1/1 Rulează 0 3d
kube-system cluster-autoscaler 1/1 Rulează 0 2d23h
kube-system coredns-3254s 1/1 Running 0 3d
kube-system coredns-48grd 1/1 Running 0 2d23h
kube-system kube-proxy-6vx89 1/1 Running 0 3d
kube-system kube-proxy-rqb23 1/1 Rulează 0 3d
kube-system metrics-server 1/1 Rulează 0 2d23h
kubernetes-tabloul de bord dashboard-metrics-scraper 1/1 Rulare 0 2d23h
kubernetes-dashboard kubernetes-dashboard 1/1 Rulare 0 2d23h
~$ kubectl obține implementări -A
SPAȚIUL DE NUMELE NUMELE GATA VÂRĂ DISPONIBILĂ ACTUALIZĂ
implicit grafana-agent 1/1 1 1 5d23h
implicit prod-application 1/1 1 1 160d
implicit prod-applicationworker 1/1 1 1 37d
Kube-system aws-load-balancer-controller 1/1 1 1 166d
Kube-system cluster-autoscaler 1/1 1 1 166d
kube-system coredns 2/2 2 2 167d
kube-system metrics-server 1/1 1 1 166d
kubernetes-tabloul de bord tabloul de bord-metrics-scraper 1/1 1 1 165d
Kubernetes-tabloul de bord kubernetes-tabloul de bord 1/1 1 1 165d
Dacă există o modalitate prin care pot încorda temporar un întreg grup de noduri și apoi îl pot scurge, la celălalt grup de noduri (înainte de a-l șterge pe primul), ar fi uimitor.
Îmi pare rău dacă aceasta este o întrebare simplă, dar am ajuns să citesc atât de multe documente care se contrazic ușor.
Noroc, Mike.