un nod nu poate rezolva numele de domeniu
Am un cluster k8s. Are un master și trei noduri.
K8smaster, k8snode1, k8snode2, k8snode3
Rulez acest yaml pentru testare.
apiVersion: v1
fel: Pod
metadate:
apiVersion: v1
fel: Pod
metadate:
nume: busybox-0
spatiu de nume: implicit
specificație:
containere:
- imagine: busybox:1.28
comanda:
- dormi
- „3600”
imagePullPolicy: IfNotPresent
nume: busybox-0
restartPolicy: Întotdeauna
hostNetwork: adevărat
dnsPolicy: ClusterFirstWithHostNet
nodeName: k8snode1
---
apiVersion: v1
fel: Pod
metadate:
nume: busybox-1
spatiu de nume: implicit
specificație:
containere:
- imagine: busybox:1.28
comanda:
- dormi
- „3600”
imagePullPolicy: IfNotPresent
nume: busybox-1
restartPolicy: Întotdeauna
hostNetwork: adevărat
dnsPolicy: ClusterFirstWithHostNet
nodeName: k8snode2
---
apiVersion: v1
fel: Pod
metadate:
nume: busybox-2
spatiu de nume: implicit
specificație:
containere:
- imagine: busybox:1.28
comanda:
- dormi
- „3600”
imagePullPolicy: IfNotPresent
nume: busybox-2
restartPolicy: Întotdeauna
hostNetwork: adevărat
dnsPolicy: ClusterFirstWithHostNet
nodeName: k8snode3
[root@k8smaster wxms]# kubectl get pod -o wide | grep ocupat
busybox-0 1/1 Rulează 53 2d5h 192.168.0.117 k8snode1 <niciunul> <niciunul>
busybox-1 1/1 Rulează 53 2d5h 192.168.0.128 k8snode2 <niciunul> <niciunul>
busybox-2 1/1 Rulează 53 2d5h 192.168.0.73 k8snode3 <niciunul> <niciunul>
nodul 1
[root@k8smaster wxms]# kubectl exec -it busybox-0 -- sh
/ #
/ # nume de gazdă
K8snode1
/ #
/ # ping www.baidu.com
ping: adresa greșită „www.baidu.com”
/ #
nodul 2
[root@k8smaster ~]# kubectl exec -it busybox-1 -- sh
/ # nume de gazdă
k8snode2
/ # ping www.baidu.com
PING www.baidu.com (180.101.49.12): 56 de octeți de date
64 de octeți de la 180.101.49.12: seq=0 ttl=47 timp=14,850 ms
64 de octeți de la 180.101.49.12: seq=1 ttl=47 timp=14,731 ms
64 de octeți de la 180.101.49.12: seq=2 ttl=47 timp=14,708 ms
^C
--- www.baidu.com statistici ping ---
3 pachete transmise, 3 pachete primite, 0% pierdere de pachete
dus-întors min/medie/max = 14,708/14,763/14,850 ms
/ #
nodul 3
[root@k8smaster ~]# kubectl exec -it busybox-2 -- sh
/ # nume de gazdă
k8snode3
/ #
/ # ping www.baidu.com
PING www.baidu.com (180.101.49.12): 56 de octeți de date
64 de octeți de la 180.101.49.12: seq=0 ttl=47 timp=17,010 ms
64 de octeți de la 180.101.49.12: seq=1 ttl=47 timp=14,680 ms
64 de octeți de la 180.101.49.12: seq=2 ttl=47 timp=14,414 ms
64 de octeți de la 180.101.49.12: seq=3 ttl=47 timp=14,408 ms
64 de octeți de la 180.101.49.12: seq=4 ttl=47 timp=14,502 ms
64 de octeți de la 180.101.49.12: seq=5 ttl=47 timp=14,427 ms
^C
--- www.baidu.com statistici ping ---
6 pachete transmise, 6 pachete primite, 0% pierdere de pachete
dus-întors min/medie/max = 14,408/14,906/17,010 ms
/ #
coredns
[root@k8smaster ~]# kubectl get po -n kube-system -o wide | grep dns
coredns-5ffc8cf9c9-56lh2 1/1 Running 0 25d 10.244.0.16 k8smaster <niciunul> <niciunul>
coredns-5ffc8cf9c9-8jrtf 1/1 În rulare 0 25d 10.244.3.46 k8snode3 <niciunul> <niciunul>
Dacă schimb „/etc/resolv.conf” server de nume
la un ip coreDNS, funcționează.
#nameserver 10.96.0.10
serverul de nume 10.244.0.16
căutare default.svc.cluster.local svc.cluster.local cluster.local openstacklocal
opțiuni ndots:5
atunci nodul 1
/ # ping www.baidu.com
PING www.baidu.com (180.101.49.11): 56 de octeți de date
64 de octeți de la 180.101.49.11: seq=0 ttl=47 timp=13,709 ms
64 de octeți de la 180.101.49.11: secv=1 ttl=47 timp=11,078 ms
^C
--- www.baidu.com statistici ping ---
2 pachete transmise, 2 pachete primite, 0% pierdere de pachete
dus-întors min/medie/max = 11,078/12,393/13,709 ms
`Kube-dns. busteni
[root@k8smaster ~]# jurnalele kubectl --namespace=kube-system -l k8s-app=kube-dns
[EROARE] plugin/erori: 2 143.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.0.16:59179->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 143.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.0.16:56471->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 144.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.0.16:36941->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 144.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.0.16:59206->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 145.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.0.16:37024->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 145.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.0.16:52478->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 148.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.0.16:46214->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 148.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.0.16:55425->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 158.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.0.16:46974->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 158.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.0.16:49570->114.114.114.114:53: expirare i/o
[INFO] 10.244.2.132:58592 - 2530 "A IN seata-server.default.svc.cluster.local.openstacklocal. udp 71 false 512" NXDOMAIN qr,aa,rd,ra 146 0.088s128
[INFO] 10.244.1.83:37946 - 34309 "A IN seata-server.default.svc.cluster.local.default.svc.cluster.local. udp 82 false 512" NXDOMAIN qr,aa,rd 175 55301s
[INFO] plugin/reîncărcare: rulează configurația MD5 = 4e235fcc3696966e76816bcd9034ebc7
[INFO] Reîncărcare finalizată
[EROARE] plugin/erori: 2 138.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.3.46:49514->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 138.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.3.46:45862->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 140.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.3.46:57703->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 140.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.3.46:35707->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 159.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.3.46:34596->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 159.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.3.46:49975->114.114.114.114:53: expirare i/o
[root@k8smaster ~]# kubectl get ep kube-dns --namespace=kube-system
NUME ENDPOINTS VARSTA
kube-dns 10.244.0.16:53,10.244.3.46:53,10.244.0.16:9153 + încă 3... 392d
[root@k8smaster ~]# kubectl get svc --namespace=kube-system
NUME TIP CLUSTER-IP EXTERN-IP PORT(E) Vârsta
kube-dns ClusterIP 10.96.0.10 <niciunul> 53/UDP,53/TCP,9153/TCP 392d
metrics-server ClusterIP 10.108.23.241 <niciunul> 443/TCP 26d
Kube-proxy
[root@k8smaster ~]# kubectl get pods -n kube-system -o wide | grep kube-proxy
kube-proxy-2j28w 1/1 În rulare 0 2d5h 192.168.0.56 k8smaster <niciunul> <niciunul>
kube-proxy-bxzkt 1/1 În rulare 0 2d5h 192.168.0.117 k8snode1 <niciunul> <niciunul>
kube-proxy-lnmjt 1/1 Rulează 0 2d5h 192.168.0.128 k8snode2 <niciunul> <niciunul>
kube-proxy-th9pp 1/1 Rulează 0 2d5h 192.168.0.73 k8snode3 <niciunul> <niciunul>
[root@k8smaster ~]#
[root@k8smaster ~]# kubectl înregistrează kube-proxy-bxzkt --tail=5 -n kube-system
W0520 08:28:44.004213 1 iptables.go:562] Nu s-a putut verifica iptables canary mangle/KUBE-PROXY-CANARY: starea de ieșire 4
W0520 08:29:14.004129 1 iptables.go:562] Nu s-a putut verifica iptables canary mangle/KUBE-PROXY-CANARY: starea de ieșire 4
W0520 08:29:44.004042 1 iptables.go:562] Nu s-a putut verifica iptables canary mangle/KUBE-PROXY-CANARY: starea de ieșire 4
[root@k8smaster ~]#
[root@k8smaster ~]# kubectl înregistrează kube-proxy-lnmjt --tail=5 -n kube-system
I0519 07:53:16.612070 1 shared_informer.go:230] Cache-urile sunt sincronizate pentru configurarea punctelor finale
W0520 08:26:21.522852 1 iptables.go:562] Nu s-a putut verifica iptables canary mangle/KUBE-PROXY-CANARY: starea de ieșire 4
W0520 08:26:51.522669 1 iptables.go:562] Nu s-a putut verifica iptables canary mangle/KUBE-PROXY-CANARY: starea de ieșire 4
W0520 08:27:21.522677 1 iptables.go:562] Nu s-a putut verifica iptables canary mangle/KUBE-PROXY-CANARY: starea de ieșire 4
[root@k8smaster ~]#
[root@k8smaster ~]# kubectl înregistrează kube-proxy-th9pp --tail=5 -n kube-system
W0520 08:24:59.419474 1 iptables.go:562] Nu s-a putut verifica iptables canary mangle/KUBE-PROXY-CANARY: starea de ieșire 4
W0520 08:25:29.408271 1 iptables.go:562] Nu s-a putut verifica iptables canary mangle/KUBE-PROXY-CANARY: starea de ieșire 4
W0520 08:25:59.409644 1 iptables.go:562] Nu s-a putut verifica iptables canary mangle/KUBE-PROXY-CANARY: starea de ieșire 4