Puncte:0

unul dintre nodurile din clusterul meu k8s, nu poate rezolva numele de domeniu

drapel in

un nod nu poate rezolva numele de domeniu

Am un cluster k8s. Are un master și trei noduri.

K8smaster, k8snode1, k8snode2, k8snode3

Rulez acest yaml pentru testare.

apiVersion: v1
fel: Pod
metadate:
apiVersion: v1
fel: Pod
metadate:
  nume: busybox-0
  spatiu de nume: implicit
specificație:
  containere:
  - imagine: busybox:1.28
    comanda:
      - dormi
      - „3600”
    imagePullPolicy: IfNotPresent
    nume: busybox-0
  restartPolicy: Întotdeauna
  hostNetwork: adevărat
  dnsPolicy: ClusterFirstWithHostNet
  nodeName: k8snode1
---
apiVersion: v1
fel: Pod
metadate:
  nume: busybox-1
  spatiu de nume: implicit
specificație:
  containere:
  - imagine: busybox:1.28
    comanda:
      - dormi
      - „3600”
    imagePullPolicy: IfNotPresent
    nume: busybox-1
  restartPolicy: Întotdeauna
  hostNetwork: adevărat
  dnsPolicy: ClusterFirstWithHostNet
  nodeName: k8snode2
---
apiVersion: v1
fel: Pod
metadate:
  nume: busybox-2
  spatiu de nume: implicit
specificație:
  containere:
  - imagine: busybox:1.28
    comanda:
      - dormi
      - „3600”
    imagePullPolicy: IfNotPresent
    nume: busybox-2
  restartPolicy: Întotdeauna
  hostNetwork: adevărat
  dnsPolicy: ClusterFirstWithHostNet
  nodeName: k8snode3
[root@k8smaster wxms]# kubectl get pod -o wide | grep ocupat
busybox-0 1/1 Rulează 53 2d5h 192.168.0.117 k8snode1 <niciunul> <niciunul>
busybox-1 1/1 Rulează 53 2d5h 192.168.0.128 k8snode2 <niciunul> <niciunul>
busybox-2 1/1 Rulează 53 2d5h 192.168.0.73 k8snode3 <niciunul> <niciunul>

nodul 1

[root@k8smaster wxms]# kubectl exec -it busybox-0 -- sh
/ #
/ # nume de gazdă
K8snode1
/ #
/ # ping www.baidu.com
ping: adresa greșită „www.baidu.com”
/ #

nodul 2

[root@k8smaster ~]# kubectl exec -it busybox-1 -- sh
/ # nume de gazdă
k8snode2
/ # ping www.baidu.com
PING www.baidu.com (180.101.49.12): 56 de octeți de date
64 de octeți de la 180.101.49.12: seq=0 ttl=47 timp=14,850 ms
64 de octeți de la 180.101.49.12: seq=1 ttl=47 timp=14,731 ms
64 de octeți de la 180.101.49.12: seq=2 ttl=47 timp=14,708 ms
^C
--- www.baidu.com statistici ping ---
3 pachete transmise, 3 pachete primite, 0% pierdere de pachete
dus-întors min/medie/max = 14,708/14,763/14,850 ms
/ #

nodul 3

[root@k8smaster ~]# kubectl exec -it busybox-2 -- sh
/ # nume de gazdă
k8snode3
/ #
/ # ping www.baidu.com
PING www.baidu.com (180.101.49.12): 56 de octeți de date
64 de octeți de la 180.101.49.12: seq=0 ttl=47 timp=17,010 ms
64 de octeți de la 180.101.49.12: seq=1 ttl=47 timp=14,680 ms
64 de octeți de la 180.101.49.12: seq=2 ttl=47 timp=14,414 ms
64 de octeți de la 180.101.49.12: seq=3 ttl=47 timp=14,408 ms
64 de octeți de la 180.101.49.12: seq=4 ttl=47 timp=14,502 ms
64 de octeți de la 180.101.49.12: seq=5 ttl=47 timp=14,427 ms
^C
--- www.baidu.com statistici ping ---
6 pachete transmise, 6 pachete primite, 0% pierdere de pachete
dus-întors min/medie/max = 14,408/14,906/17,010 ms
/ #

coredns

[root@k8smaster ~]# kubectl get po -n kube-system -o wide | grep dns
coredns-5ffc8cf9c9-56lh2 1/1 Running 0 25d 10.244.0.16 k8smaster <niciunul> <niciunul>
coredns-5ffc8cf9c9-8jrtf 1/1 În rulare 0 25d 10.244.3.46 k8snode3 <niciunul> <niciunul>

Dacă schimb „/etc/resolv.conf” server de nume la un ip coreDNS, funcționează.

#nameserver 10.96.0.10
serverul de nume 10.244.0.16
căutare default.svc.cluster.local svc.cluster.local cluster.local openstacklocal
opțiuni ndots:5

atunci nodul 1

/ # ping www.baidu.com
PING www.baidu.com (180.101.49.11): 56 de octeți de date
64 de octeți de la 180.101.49.11: seq=0 ttl=47 timp=13,709 ms
64 de octeți de la 180.101.49.11: secv=1 ttl=47 timp=11,078 ms
^C
--- www.baidu.com statistici ping ---
2 pachete transmise, 2 pachete primite, 0% pierdere de pachete
dus-întors min/medie/max = 11,078/12,393/13,709 ms

`Kube-dns. busteni

[root@k8smaster ~]# jurnalele kubectl --namespace=kube-system -l k8s-app=kube-dns
[EROARE] plugin/erori: 2 143.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.0.16:59179->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 143.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.0.16:56471->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 144.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.0.16:36941->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 144.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.0.16:59206->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 145.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.0.16:37024->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 145.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.0.16:52478->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 148.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.0.16:46214->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 148.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.0.16:55425->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 158.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.0.16:46974->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 158.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.0.16:49570->114.114.114.114:53: expirare i/o

[INFO] 10.244.2.132:58592 - 2530 "A IN seata-server.default.svc.cluster.local.openstacklocal. udp 71 false 512" NXDOMAIN qr,aa,rd,ra 146 0.088s128
[INFO] 10.244.1.83:37946 - 34309 "A IN seata-server.default.svc.cluster.local.default.svc.cluster.local. udp 82 false 512" NXDOMAIN qr,aa,rd 175 55301s
[INFO] plugin/reîncărcare: rulează configurația MD5 = 4e235fcc3696966e76816bcd9034ebc7
[INFO] Reîncărcare finalizată
[EROARE] plugin/erori: 2 138.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.3.46:49514->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 138.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.3.46:45862->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 140.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.3.46:57703->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 140.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.3.46:35707->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 159.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.3.46:34596->114.114.114.114:53: expirare i/o
[EROARE] plugin/erori: 2 159.3.244.10.in-addr.arpa. PTR: citiți udp 10.244.3.46:49975->114.114.114.114:53: expirare i/o
[root@k8smaster ~]# kubectl get ep kube-dns --namespace=kube-system
NUME ENDPOINTS VARSTA
kube-dns 10.244.0.16:53,10.244.3.46:53,10.244.0.16:9153 + încă 3... 392d
[root@k8smaster ~]# kubectl get svc --namespace=kube-system
NUME TIP CLUSTER-IP EXTERN-IP PORT(E) Vârsta
kube-dns ClusterIP 10.96.0.10 <niciunul> 53/UDP,53/TCP,9153/TCP 392d
metrics-server ClusterIP 10.108.23.241 <niciunul> 443/TCP 26d

Kube-proxy

[root@k8smaster ~]# kubectl get pods -n kube-system -o wide | grep kube-proxy
kube-proxy-2j28w 1/1 În rulare 0 2d5h 192.168.0.56 k8smaster <niciunul> <niciunul>
kube-proxy-bxzkt 1/1 În rulare 0 2d5h 192.168.0.117 k8snode1 <niciunul> <niciunul>
kube-proxy-lnmjt 1/1 Rulează 0 2d5h 192.168.0.128 k8snode2 <niciunul> <niciunul>
kube-proxy-th9pp 1/1 Rulează 0 2d5h 192.168.0.73 k8snode3 <niciunul> <niciunul>
[root@k8smaster ~]#
[root@k8smaster ~]# kubectl înregistrează kube-proxy-bxzkt --tail=5 -n kube-system
W0520 08:28:44.004213 1 iptables.go:562] Nu s-a putut verifica iptables canary mangle/KUBE-PROXY-CANARY: starea de ieșire 4
W0520 08:29:14.004129 1 iptables.go:562] Nu s-a putut verifica iptables canary mangle/KUBE-PROXY-CANARY: starea de ieșire 4
W0520 08:29:44.004042 1 iptables.go:562] Nu s-a putut verifica iptables canary mangle/KUBE-PROXY-CANARY: starea de ieșire 4
[root@k8smaster ~]#
[root@k8smaster ~]# kubectl înregistrează kube-proxy-lnmjt --tail=5 -n kube-system
I0519 07:53:16.612070 1 shared_informer.go:230] Cache-urile sunt sincronizate pentru configurarea punctelor finale
W0520 08:26:21.522852 1 iptables.go:562] Nu s-a putut verifica iptables canary mangle/KUBE-PROXY-CANARY: starea de ieșire 4
W0520 08:26:51.522669 1 iptables.go:562] Nu s-a putut verifica iptables canary mangle/KUBE-PROXY-CANARY: starea de ieșire 4
W0520 08:27:21.522677 1 iptables.go:562] Nu s-a putut verifica iptables canary mangle/KUBE-PROXY-CANARY: starea de ieșire 4
[root@k8smaster ~]#
[root@k8smaster ~]# kubectl înregistrează kube-proxy-th9pp --tail=5 -n kube-system
W0520 08:24:59.419474 1 iptables.go:562] Nu s-a putut verifica iptables canary mangle/KUBE-PROXY-CANARY: starea de ieșire 4
W0520 08:25:29.408271 1 iptables.go:562] Nu s-a putut verifica iptables canary mangle/KUBE-PROXY-CANARY: starea de ieșire 4
W0520 08:25:59.409644 1 iptables.go:562] Nu s-a putut verifica iptables canary mangle/KUBE-PROXY-CANARY: starea de ieșire 4

Postează un răspuns

Majoritatea oamenilor nu înțeleg că a pune multe întrebări deblochează învățarea și îmbunătățește legătura interpersonală. În studiile lui Alison, de exemplu, deși oamenii își puteau aminti cu exactitate câte întrebări au fost puse în conversațiile lor, ei nu au intuit legătura dintre întrebări și apreciere. În patru studii, în care participanții au fost implicați în conversații ei înșiși sau au citit transcrieri ale conversațiilor altora, oamenii au avut tendința să nu realizeze că întrebarea ar influența – sau ar fi influențat – nivelul de prietenie dintre conversatori.