În primul rând, permiteți-mi să vă mulțumesc pentru acest ghid uimitor. Sunt foarte nou în kubernetes și să am un ghid ca acesta de urmat ajută foarte mult când încerc să configurez primul meu cluster!
Acestea fiind spuse, am câteva probleme cu crearea implementărilor, deoarece există două pod-uri care nu sunt create și rămân blocate în stare: ContainerCreating
[root@master ~]# kubectl obține noduri
NUME STARE ROLURI VÂRSTA VERSIUNE
plan de control master Ready 25h v1.24.0
node1 Gata <niciun> 24h v1.24.0
node2 Gata <niciun> 24h v1.24.0
[root@master ~]# kubectl cluster-info
Planul de control Kubernetes rulează la https://192.168.3.200:6443
CoreDNS rulează la https://192.168.3.200:6443/api/v1/namespaces/kube-system/services/kube-dns:dns/proxy
Pentru a depana și a diagnostica în continuare problemele clusterului, utilizați „kubectl cluster-info dump”.
Problema:
[root@master ~]# kubectl obține toate --all-namespaces
SPAȚIUL DE NUMELE NUMELE STAREA PREGĂTITĂ REINCEPE VÂRSTA
kube-system pod/coredns-6d4b75cb6d-v5pvk 0/1 ContainerCreating 0 114m
kube-system pod/coredns-7599c5f99f-q6nwq 0/1 ContainerCreating 0 114m
kube-system pod/coredns-7599c5f99f-sg4wn 0/1 ContainerCreating 0 114m
kube-system pod/etcd-master 1/1 Running 3 (acum 3h26m) 25h
kube-system pod/kube-apiserver-master 1/1 Alergare 3 (acum 3h26m) 25h
kube-system pod/kube-controller-manager-master 1/1 Running 3 (acum 3h26m) 25h
kube-system pod/kube-proxy-ftxzx 1/1 Running 2 (acum 3h11m) 24h
kube-system pod/kube-proxy-pcl8q 1/1 Running 3 (acum 3h26m) 25h
kube-system pod/kube-proxy-q7dpw 1/1 Running 2 (acum 3h23m) 24h
kube-system pod/kube-scheduler-master 1/1 Running 3 (acum 3h26m) 25h
kube-system pod/weave-net-2p47z 2/2 Running 5 (acum 3h23m) 24h
kube-system pod/weave-net-k5529 2/2 Running 4 (acum 3h11m) 24h
kube-system pod/weave-net-tq4bs 2/2 Running 7 (acum 3h26m) 25h
SPAȚIU DE NUMELE NUME TIP CLUSTER-IP EXTERN-IP PORT(E) VÂRSTA
serviciu implicit/kubernetes ClusterIP 10.96.0.1 <niciunul> 443/TCP 25h
serviciul kube-system/kube-dns ClusterIP 10.96.0.10 <niciunul> 53/UDP,53/TCP,9153/TCP 25h
SPAȚIU DE NUME NUME DEZIRAT ACTUAL PREGATA ACTUALIZAT DISPONIBIL VÂRSTA SELECTOR DE NODURI
kube-system daemonset.apps/kube-proxy 3 3 3 3 3 kubernetes.io/os=linux 25h
kube-system daemonset.apps/weave-net 3 3 3 3 3 <niciunul> 25 ore
SPAȚIUL DE NUMELE NUMELE GATA VÂRĂ DISPONIBILĂ ACTUALIZĂ
kube-system deployment.apps/coredns 0/2 2 0 25h
SPAȚIUL DE NUMELE NUMELE VÂRSTA ACTUALĂ DE GĂTIT DEZIRATĂ
kube-system replicaset.apps/coredns-6d4b75cb6d 1 1 0 25h
kube-system replicaset.apps/coredns-7599c5f99f 2 2 0 116m
Rețineți că primele trei păstăi, de la coredns, nu reușesc să pornească.
[root@master ~]# kubectl obține evenimente
ULTIMA VEZĂ TIP MOTIV OBIECT MESAJ
93M AVERTIZARE FAILEDCREATEPODSANDBOX POD/NGINX-DEPLOY-99976564D-S4SHK (combinat din evenimente similare): Eșuat să creeze pod Sandbox: RPC ERROR: Code = necunoscut Dec = Eșec la Rețeaua Sandbox "FD79C77289F42B3CB0EB0BE997A02A42F95595DDF061DEB61 „fd79c77289f42b3cb0eb0be997a02a42f9595df061deb6e2d3678ab00afb5f67”
.
[root@master ~]# kubectl descrie pod coredns-6d4b75cb6d-v5pvk -n kube-system
Nume: coredns-6d4b75cb6d-v5pvk
Spațiu de nume: kube-system
Prioritate: 2000000000
Nume clasa prioritară: system-cluster-critical
Nod: node2/192.168.3.202
Ora de începere: joi, 12 mai 2022 19:45:58 +0000
Etichete: k8s-app=kube-dns
pod-template-hash=6d4b75cb6d
Adnotări: <niciuna>
Stare: în așteptare
IP:
IP-uri: <niciunul>
Controlat de: ReplicaSet/coredns-6d4b75cb6d
Containere:
coredns:
ID container:
Imagine: k8s.gcr.io/coredns/coredns:v1.8.6
ID imagine:
Porturi: 53/UDP, 53/TCP, 9153/TCP
Porturi gazdă: 0/UDP, 0/TCP, 0/TCP
Argumente:
-conf
/etc/coredns/Corefile
Stare: În așteptare
Motiv: ContainerCreating
Gata: Fals
Număr de reporniri: 0
Limite:
memorie: 170 Mi
Cereri:
CPU: 100 m
memorie: 70 Mi
Vioitate: http-get http://:8080/health delay=60s timeout=5s period=10s #success=1 #failure=5
Pregătire: http-get http://:8181/ready delay=0s timeout=1s period=10s #success=1 #failure=3
Mediu: <niciun>
Suporturi:
/etc/coredns din config-volume (ro)
/var/run/secrets/kubernetes.io/serviceaccount de la kube-api-access-4bpvz (ro)
Conditii:
Tastați Stare
Adevărat inițializat
Gata Fals
ContainersReady False
PodScheduled Adevărat
Volume:
config-volum:
Tip: ConfigMap (un volum populat de un ConfigMap)
Nume: coredns
Opțional: fals
kube-api-access-4bpvz:
Tip: Proiectat (un volum care conține date injectate din mai multe surse)
TokenExpirationSeconds: 3607
ConfigMapName: kube-root-ca.crt
ConfigMapOptional: <nil>
DownwardAPI: adevărat
Clasa QoS: Burstable
Node-Selectors: kubernetes.io/os=linux
Tolerări: CriticalAddonsOnly op=Există
node-role.kubernetes.io/control-plane:NoSchedule
node-role.kubernetes.io/master:NoSchedule
node.kubernetes.io/not-ready:NoExecute op=Există pentru 300 de secunde
node.kubernetes.io/unreachable:NoExecute op=Există timp de 300 de secunde
Evenimente:
Introduceți Motivul Vârsta din mesaj
---- ------ ---- ---- -------
Warning FailedCreatePodSandBox 93s (x393 over 124m) kubelet (combined from similar events): Failed to create pod sandbox: rpc error: code = Unknown desc = failed to setup network for sandbox "7d0f8f4b3dbf2dffcf1a8c01b41368e16b1f80bc97ff3faa611c1fd52c0f6967": failed to find network info for sandbox "7d0f8f4b3dbf2dffcf1a8c01b41368e16b1f80bc97ff3faa611c1fd52c0f6967"
Versiuni:
[root@master ~]# docker --version
Docker versiunea 20.10.15, build fd82621
[root@master ~]# kubelet --versiune
Kubernetes v1.24.0
[root@master ~]# versiune kubeadm
Versiune kubeadm: &version.Info{Major:"1", Minor:"24", GitVersion:"v1.24.0", GitCommit:"4ce5a8954017644c5420bae81d72b09b735c21f0", GitTreeState:"clean:":302:":-023 24Z", GoVersion:"go1.18.1", Compiler:"gc", Platforma:"linux/amd64"}
Habar n-am unde să merg de aici. Am căutat pe google cuvinte cheie precum „rpc error weave k8s” și „Failed to create pod sandbox: rpc error”, dar niciuna dintre soluțiile pe care le-am găsit nu a avut o soluție la problema mea. Am văzut câteva probleme menționând plasa de țesut, ar putea fi aceasta problema? Poate am înțeles greșit, dar sunt sigur că am urmat foarte bine instrucțiunile.
Orice ajutor ar fi foarte apreciat!