Puncte:0

Cum se poate rezolva un coreDNS pods cu stare ContainerCreating - kubernetes

drapel cn

Sper sa ma ajute cineva.

Ei bine, construiesc un server (CentOS) cu Gitlab, Gitlab-Runner, docker și Kubernetes la CI/CD.

Informații GitLab

Versiune: 14.10.2
Revizie: 07d12f3fd11
Director: /opt/gitlab/embedded/service/gitlab-rails
Adaptor DB: PostgreSQL
Versiunea DB: 12.7    

Gitlab-Runner

Versiune: 14.10.1

Docher

Versiune: 20.10.15

Kubernetes

# versiunea kubectl --short
Versiune client: v1.24.0
Versiune personalizați: v4.5.4
Versiunea serverului: v1.24.0

Weave Addons

# stare țesătură
Versiune: 2.8.1 (nu s-a putut verifica cea mai recentă versiune - vezi jurnalele; următoarea verificare la 2022/05/07 22:50:26)
Serviciu: router
Protocol: țesătură 1..2
Nume: 06:16:91:13:ce:26(srvppk.com.br)
Criptare: dezactivată
PeerDiscovery: activat
Ținte: 0
Conexiuni: 0
Semenii: 1
TrustedSubnets: niciuna
Serviciu: ipam
Stare: gata
Interval: 10.32.0.0/12
DefaultSubnet: 10.32.0.0/12

Am o problemă cu podul coreDNS care este întotdeauna cu starea ContainerCreating. Așadar, am încercat câteva soluții pe care le-am găsit pe forumuri, dar niciuna nu a funcționat pentru mine. Vezi mai jos.

# kubectl obține pods --all-namespaces
SPAȚIUL DE NUMELE NUMELE STAREA PREGĂTITĂ REINCEPE VÂRSTA
kube-system coredns-6d4b75cb6d-fmvwd 0/1 ContainerCreating 0 144m
kube-system coredns-6d4b75cb6d-jshz5 0/1 ContainerCreating 0 144m
kube-system etcd-srvppk.com.br 1/1 Alergare 10 144 m
kube-system kube-apiserver-srvppk.com.br 1/1 Alergare 0 144m
kube-system kube-controller-manager-srvppk.com.br 1/1 Alergare 0 144m
kube-system kube-proxy-hnwfd 1/1 Alergare 0 144m
kube-system kube-scheduler-srvppk.com.br 1/1 Alergare 10 144 m
kube-system weave-net-h6zdk 2/2 Alergare 0 135m

Descrieți primele coredns

# kubectl descrie pod/coredns-6d4b75cb6d-fmvwd -n kube-system
Nume: coredns-6d4b75cb6d-fmvwd
Spațiu de nume: kube-system
Prioritate: 2000000000
Nume clasa prioritară: system-cluster-critical
Nod: srvppk.com.br/10.0.10.20
Ora de începere: sâmbătă, 07 mai 2022 12:29:14 -0400
Etichete: k8s-app=kube-dns
                      pod-template-hash=6d4b75cb6d
Adnotări: <niciuna>
Stare: în așteptare
IP:
IP-uri: <niciunul>
Controlat de: ReplicaSet/coredns-6d4b75cb6d
Containere:
  coredns:
    ID container:
    Imagine: k8s.gcr.io/coredns/coredns:v1.8.6
    ID imagine:
    Porturi: 53/UDP, 53/TCP, 9153/TCP
    Porturi gazdă: 0/UDP, 0/TCP, 0/TCP
    Argumente:
      -conf
      /etc/coredns/Corefile
    Stare: În așteptare
      Motiv: ContainerCreating
    Gata: Fals
    Număr de reporniri: 0
    Limite:
      memorie: 170 Mi
    Cereri:
      CPU: 100 m
      memorie: 70 Mi
    Vioitate: http-get http://:8080/health delay=60s timeout=5s period=10s #success=1 #failure=5
    Pregătire: http-get http://:8181/ready delay=0s timeout=1s period=10s #success=1 #failure=3
    Mediu: <niciun>
    Suporturi:
      /etc/coredns din config-volume (ro)
      /var/run/secrets/kubernetes.io/serviceaccount de la kube-api-access-gj9pl (ro)
Conditii:
  Tastați Stare
  Adevărat inițializat
  Gata Fals
  ContainersReady False
  PodScheduled Adevărat
Volume:
  config-volum:
    Tip: ConfigMap (un volum populat de un ConfigMap)
    Nume: coredns
    Opțional: fals
  kube-api-access-gj9pl:
    Tip: Proiectat (un volum care conține date injectate din mai multe surse)
    TokenExpirationSeconds: 3607
    ConfigMapName: kube-root-ca.crt
    ConfigMapOptional: <nil>
    DownwardAPI: adevărat
Clasa QoS: Burstable
Node-Selectors: kubernetes.io/os=linux
Tolerări: CriticalAddonsOnly op=Există
                             node-role.kubernetes.io/control-plane:NoSchedule
                             node-role.kubernetes.io/master:NoSchedule
                             node.kubernetes.io/not-ready:NoExecute op=Există pentru 300 de secunde
                             node.kubernetes.io/unreachable:NoExecute op=Există timp de 300 de secunde
Evenimente:
  Introduceți Motivul Vârsta din mesaj
  ---- ------ ---- ---- -------
  Warning  FailedCreatePodSandBox  2m52s (x565 over 125m)  kubelet  (combined from similar events): Failed to create pod sandbox: rpc error: code = Unknown desc = failed to setup network for sandbox "28664f04201a02833f7c3f9c19cebe6a3e9ae55849731d7ee643b3ad1825e6ab": failed to find network info for sandbox "28664f04201a02833f7c3f9c19cebe6a3e9ae55849731d7ee643b3ad1825e6ab"

Ce am făcut greșit?

drapel my
De fapt ma intreb cam la fel. Am un StatefulSet în care fiecare pod trebuie să se conecteze la toate celelalte. Dar prima păstă eșuează pentru că celelalte nu au pornit încă.

Postează un răspuns

Majoritatea oamenilor nu înțeleg că a pune multe întrebări deblochează învățarea și îmbunătățește legătura interpersonală. În studiile lui Alison, de exemplu, deși oamenii își puteau aminti cu exactitate câte întrebări au fost puse în conversațiile lor, ei nu au intuit legătura dintre întrebări și apreciere. În patru studii, în care participanții au fost implicați în conversații ei înșiși sau au citit transcrieri ale conversațiilor altora, oamenii au avut tendința să nu realizeze că întrebarea ar influența – sau ar fi influențat – nivelul de prietenie dintre conversatori.