Pentru testare, am instalat ubuntu 21 pe serverul vmware esxi.
Pe acea mașină, a învârtit kubernet-uri folosind containere lxc după aceasta repertoriu
LXC este rotit și funcționează.
adminuser@testing:~/Desktop$ lista lxc
+----------+---------+-------------------+-------- --------------------------------------+----------- -+-----------+
| NUME | STAT | IPV4 | IPV6 | TIP | INstantanee |
+----------+---------+-------------------+-------- --------------------------------------+----------- -+-----------+
| kmmaster | ALLERARE | 10.8.0.217 (eth0) | fd42:666f:471d:3d53:216:3eff:fe54:dce6 (eth0) | CONTAINER | 0 |
+----------+---------+-------------------+-------- --------------------------------------+----------- -+-----------+
| kworker1 | ALLERARE | 10.8.0.91 (eth0) | fd42:666f:471d:3d53:216:3eff:fee4:480e (eth0) | CONTAINER | 0 |
+----------+---------+-------------------+-------- --------------------------------------+----------- -+-----------+
| kworker2 | ALLERARE | 10.8.0.124 (eth0) | fd42:666f:471d:3d53:216:3eff:fede:3c9d (eth0) | CONTAINER | 0 |
+----------+---------+---------------
Apoi a început implementarea metallb pe acest cluster utilizând pașii menționați în aceasta legătură.
Și a aplicat această configurație pentru rutare.
GNU nano 4.8 k8s-metallb-configmap.yaml
apiVersion: v1
fel: ConfigMap
metadate:
spatiu de nume: metallb-system
nume: config
date:
config: |
pool-uri de adrese:
- nume: implicit
protocol: layer2
adrese:
- 10.8.0.240-10.8.0.250
Dar podurile metalb nu funcționează.
kubectl obține pods -n metallb-system
STAREA NUMELE GATA REINCEPE VARSTA
controller-6b78bff7d9-cxf2z 0/1 ContainerCreating 0 38m
speaker-fpvjt 0/1 CreateContainerConfigError 0 38m
difuzor-mbz7b 0/1 CreateContainerConfigError 0 38m
speaker-zgz4d 0/1 CreateContainerConfigError 0 38m
Am verificat jurnalele.
kubectl descrie pod controller-6b78bff7d9-cxf2z -n metallb-system
Nume: controller-6b78bff7d9-cxf2z
Spațiu de nume: metallb-system
Prioritate: 0
Nod: kworker1/10.8.0.91
Ora de începere: miercuri, 14 iulie 2021 20:52:10 +0530
Etichete: app=metallb
component=controller
pod-template-hash=6b78bff7d9
Adnotări: prometheus.io/port: 7472
prometheus.io/scrape: adevărat
Stare: în așteptare
IP:
IP-uri: <niciunul>
Controlat de: ReplicaSet/controller-6b78bff7d9
Containere:
controlor:
ID container:
Imagine: quay.io/metallb/controller:v0.10.2
ID imagine:
Port: 7472/TCP
Port gazdă: 0/TCP
Argumente:
--port=7472
--config=config
Stare: În așteptare
Motiv: ContainerCreating
Gata: Fals
Număr de reporniri: 0
Mediu inconjurator:
METALLB_ML_SECRET_NAME: lista de membri
METALLB_DEPLOYMENT: controler
Suporturi:
/var/run/secrets/kubernetes.io/serviceaccount de la kube-api-access-j76kg (ro)
Conditii:
Tastați Stare
Adevărat inițializat
Gata Fals
ContainersReady False
PodScheduled Adevărat
Volume:
kube-api-access-j76kg:
Tip: Proiectat (un volum care conține date injectate din mai multe surse)
TokenExpirationSeconds: 3607
ConfigMapName: kube-root-ca.crt
ConfigMapOptional: <nil>
DownwardAPI: adevărat
Clasa QoS: BestEffort
Node-Selectors: kubernetes.io/os=linux
Tolerări: node.kubernetes.io/not-ready:NoExecute op=Există pentru 300 de secunde
node.kubernetes.io/unreachable:NoExecute op=Există timp de 300 de secunde
Evenimente:
Introduceți Motivul Vârsta din mesaj
---- ------ ---- ---- -------
Planificator implicit de 32 m programat normal Alocat cu succes metallb-system/controller-6b78bff7d9-cxf2z către kworker1
Avertisment FailedCreatePodSandBox 32m kubelet Nu s-a putut crea pod sandbox: eroare rpc: cod = necunoscut desc = eșuat la setarea rețelei pentru sandbox "a8a6fa54086b9e65c42c8a0478dcac0769e8b278eafed9ad900478dcac0769e8b278eafed9d9000000: open directory
Avertisment FailedCreatePodSandBox 31m kubelet Nu s-a putut crea pod sandbox: eroare rpc: code = Unknown desc = eșuat la configurarea rețelei pentru sandbox "264ee423734139b712395c0570c888cff0b7b526e5b7db526e5b7drnb526e5b7drnn.
Avertisment FailedCreatePodSandBox 31m kubelet Nu s-a putut crea pod sandbox: eroare rpc: cod = necunoscut desc = eșuat la configurarea rețelei pentru sandbox "1a3cb9e20a2a015adc7b4924ed21e0b50604ee9f9faeff04004000000000000000:00:00:00:00"
Avertisment FailedCreatePodSandBox 31m kubelet Nu s-a putut crea pod sandbox: eroare rpc: cod = Unknown desc = eșuat la setarea rețelei pentru sandbox "56dd906cdadc8ef50db3cc725d988090539a0818c257971340539a0818c257971340539a0818c2579713480:" file open directory
Avertisment FailedCreatePodSandBox 31m kubelet Nu s-a putut crea pod sandbox: eroare rpc: code = Unknown desc = eșuat la setarea rețelei pentru sandbox "8ddcfa704da9867c3a68030f0dc59f7c0d04bdc3a0b598c3a0b5918c3a0b598c3a0b598c3a0b598c3a0b598bdc3a0b598bdc3a0b598bdc3a0b598bdc3a0b598bdc3a0b598bdc3a0b0d0d04bdc3a0b598bdc
Avertisment FailedCreatePodSandBox 30m kubelet Nu s-a putut crea pod sandbox: eroare rpc: cod = necunoscut desc = eșuat la setarea rețelei pentru sandbox "50431bbc89188799562c48847be90e243bbf49a2c543bbf49a2c543bbf49a2c543bbf49a2c543bbf49a2c543bbf49a2c543bbf49a2c543bbf49a2c543bbf49a2c543bbf49a2c543bf49a2c543bf49a2c543bf49a2c543bf49
Avertisment FailedCreatePodSandBox 30m kubelet Nu s-a putut crea pod sandbox: eroare rpc: cod = necunoscut desc = eșuat la configurarea rețelei pentru sandbox "da9ad1d418d3aded668c53f5e3f98ddfac14af638ed7e8142b7a909:v
Avertisment FailedCreatePodSandBox 30m kubelet Nu s-a putut crea pod sandbox: eroare rpc: cod = necunoscut desc = eșuat la setarea rețelei pentru sandbox "4dc6109c696ee410c58a0894ac70e5165a56bab99465a56bab99468:30099999468:3000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000:
Avertisment FailedCreatePodSandBox 30m kubelet Nu s-a putut crea pod sandbox: eroare rpc: cod = Unknown desc = eșuat la configurarea rețelei pentru sandbox "a8f1cad2ce9f8c278c07c924106a1b6b321a801245048:0012450473012450473"
Avertisment FailedCreatePodSandBox 2m (x131 peste 29m) kubelet (combinat din evenimente similare): Nu s-a putut crea pod sandbox: eroare rpc: cod = Desc necunoscut = nu s-a putut configura rețeaua pentru sandbox „f5e93b893275afe5309edddecfe16861:b090916861:b090916861:b090916861: Nu există un astfel de fișier sau director
Și containerul difuzorului.
kubectl descrie pod speaker-zgz4d -n metallb-system
Nume: difuzor-zgz4d
Spațiu de nume: metallb-system
Prioritate: 0
Nod: kmaster/10.8.0.217
Ora de începere: miercuri, 14 iulie 2021 20:52:10 +0530
Etichete: app=metallb
component=difuzor
controller-revision-hash=7668c5cdf6
pod-template-generation=1
Adnotări: prometheus.io/port: 7472
prometheus.io/scrape: adevărat
Stare: în așteptare
IP: 10.8.0.217
IP-uri:
IP: 10.8.0.217
Controlat de: DaemonSet/difuzor
Containere:
vorbitor:
ID container:
Imagine: quay.io/metallb/speaker:v0.10.2
ID imagine:
Porturi: 7472/TCP, 7946/TCP, 7946/UDP
Porturi gazdă: 7472/TCP, 7946/TCP, 7946/UDP
Argumente:
--port=7472
--config=config
Stare: În așteptare
Motiv: CreateContainerConfigError
Gata: Fals
Număr de reporniri: 0
Mediu inconjurator:
METALLB_NODE_NAME: (v1:spec.nodeName)
METALLB_HOST: (v1:status.hostIP)
METALLB_ML_BIND_ADDR: (v1:status.podIP)
METALLB_ML_LABELS: app=metallb,component=difuzor
METALLB_ML_SECRET_KEY: <setată la cheia „secretkey” în „memberlist” secretă> Opțional: fals
Suporturi:
/var/run/secrets/kubernetes.io/serviceaccount de la kube-api-access-l2gzm (ro)
Conditii:
Tastați Stare
Adevărat inițializat
Gata Fals
ContainersReady False
PodScheduled Adevărat
Volume:
kube-api-access-l2gzm:
Tip: Proiectat (un volum care conține date injectate din mai multe surse)
TokenExpirationSeconds: 3607
ConfigMapName: kube-root-ca.crt
ConfigMapOptional: <nil>
DownwardAPI: adevărat
Clasa QoS: BestEffort
Node-Selectors: kubernetes.io/os=linux
Tolerări: node-role.kubernetes.io/master:NoSchedule op=Exists
node.kubernetes.io/disk-pressure:NoSchedule op=Există
node.kubernetes.io/memory-pressure:NoSchedule op=Există
node.kubernetes.io/network-unavailable:NoSchedule op=Există
node.kubernetes.io/not-ready:NoExecute op=Există
node.kubernetes.io/pid-pressure:NoSchedule op=Există
node.kubernetes.io/unreachable:NoExecute op=Există
node.kubernetes.io/unschedulable:NoSchedule op=Există
Evenimente:
Introduceți Motivul Vârsta din mesaj
---- ------ ---- ---- -------
Normal programat 41m programator implicit Alocat cu succes metallb-system/speaker-zgz4d lui kmaster
Avertisment FailedMount 41m kubelet MountVolume.SetUp a eșuat pentru volumul „kube-api-access-l2gzm”: nu s-a putut sincroniza cache-ul configurației: a expirat în așteptarea condiției
Avertisment eșuat 39 m (x12 peste 41 m) eroare kubelet: „listă de membri” secretă nu a fost găsită
Normal Pulled 78s (x185 peste 41m) Kubelet Imaginea containerului „quay.io/metallb/speaker:v0.10.2” deja prezentă pe mașină
starea containerului după setarea valorii de la null la 0.
kube-apiserver-kmaster 1/1 Alergare 0 27m
kube-controller-manager-kmaster 1/1 Alergare 0 27m
kube-flannel-ds-7f5b7 0/1 CrashLoopBackOff 1 76s
kube-flannel-ds-bs9h5 0/1 Eroare 1 72s
kube-flannel-ds-t9rpf 0/1 Eroare 1 71s
kube-proxy-ht5fk 0/1 CrashLoopBackOff 3 76s
kube-proxy-ldhhc 0/1 CrashLoopBackOff 3 75s
kube-proxy-mwrkc 0/1 CrashLoopBackOff 3 76s
kube-scheduler-kmaster 1/1 Running 0 2