Întrebări cu tag ['kubernetes']
Kubernetes este un sistem de orchestrare open source pentru containerele Docker. Se ocupă de programarea pe nodurile dintr-un cluster de calcul și gestionează în mod activ sarcinile de lucru pentru a se asigura că starea acestora corespunde intențiilor declarate de utilizatori. Folosind conceptele de „etichete” și „pods”, grupează containerele care alcătuiesc o aplicație în unități logice pentru gestionarea și descoperirea ușoară.
Învăț cum să folosesc kyverno pentru a construi unele politici, dar mă confrunt cu câteva probleme pentru a înțelege un anumit comportament:
Primul meu scenariu este că vreau să blochez o resursă care poate avea sau nu setul de spec.tier. Dacă este setat și este diferit de „Aplicație”, vreau să fie blocat. Dacă nu este setat, ar trebui să fie permis. Deci am incercat asta:
apiVersi ...

Încerc să creez în mod intenționat resurse K8S cu depreciate apiVersion
în scopuri de testare, dar continuă să ajungă cu o resursă convertită în cea nedepreciată apiVersion
. Nu înțeleg de ce se întâmplă și nu găsesc nicio discuție/subiect despre cum să forțez API-ul K8S să-mi respecte manifestul resurselor.
Stie cineva cum se poate face? Sau chiar De ce se comportă așa?
Iată resur ...
eu folosesc local volume persistente în clusterul meu Kubernetes, în prezent am două noduri de lucru în clusterul meu (node1, nod2). Deci, în timp ce creez volumul persistent local, am adăugat afinitatea nodurilor cu aceste noduri.
nodeAffinity:
necesar:
nodeSelectorTerms:
- matchExpressions:
- cheie: kubernetes.io/hostname
operator: In
valori:
...
Încerc să urmăresc acest documentație și mă străduiesc să înțeleg cum pot face scrierea arborelui cgroup sau cum îl pot verifica.
În acea documentație, am un legătură spre cum pot permite delegarea altor controlori în cgroup, ceea ce am făcut.
Nu am găsit o modalitate de a specifica Delegat=da
proprietate.În delegate.conf pot specifica ceva de genul acesta Delegate=cpu cpuset io memor ...
Am un nginx Dockerimage care ascultă pe un port așa cum este definit în el nginx.conf
. Acea imagine este implementată ca sarcină de lucru în Kubernetes (GKE) și o intrare indică ea.
Portul imaginii este - ambele ca port
și targetPort
- setați în fișierul Yaml de configurare a sarcinii de lucru.
Acea configurație rulează într-un mediu de producție.
Acum vreau să schimb portul, adică n ...
Mă confrunt cu asta eroare kubelet pe clusterul meu k8s care rulează CentOS 7. Această eroare a apărut după ce am repornit recent nodurile clusterului. Nu m-am confruntat cu o problemă similară anterior, am repornit mașinile.
Am încercat să alerg swapoff -a
pentru a dezactiva schimbul, dar nu rezolvă problema.
Iată systemctl status kubelet -l
Buturuga:
[root@test-master ~]# systemctl status k ...
În primul rând, îmi pare rău pentru engleza mea proastă.
Vreau să execut k8s cu Vagrant
comenzi executate pentru a instala k8s.
cat <<EOF > /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
cat > /etc/modules-load.d/containerd.conf <<EOF
acoperire
br_netfilter
EOF
suprapunere modprobe
modprobe br_netfilter
...
Am creat un cluster EKS pe AWS împreună cu Nexus Repository pe DigitalOcean folosind Terraform & Ansible.
De asemenea, nu am creat niciun SSL pentru depozitul Nexus, deci este „http”.
În mod normal, este suficient să adăugați o intrare [insecure-registries:...] în fișierul de configurare docker al nodurilor găzduite, dar lucrez cu EKS prima dată și nu am acces la configurația nodur ...
Scopul meu este migrarea datelor prin replicare de la un set de replica mongodb la un alt set de replica mongodb.
Încerc să migrez datele de la replicaset a (pe cluster kubernetes a) la replicaset b (pe kubernetes cluster b)
Vezi mai jos încercarea mea:
bitnami/mongodb helm chart https://github.com/bitnami/charts/tree/master/bitnami/mongodb
global:
namespaceOverride: mongodb
arhitectura: replicaset
au ...
După actualizarea la v1.24.0 (după eliminarea Dockershim), a trebuit să instalez cri-dockerd, apoi am facut urmatoarele:
sudo kubeadm init --pod-network-cidr=10.244.0.0/16 --cri-socket=unix:///var/run/cri-dockerd.sock --apiserver-advertise-address=192.168.0.196
am ales flanel
ca plugin de rețea:
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel. ...
Am o problemă cu K8S, am vreo 30 de microservicii (java rulează pe spring boot). Microservicii au nevoie de o mulțime de procesoare doar pentru pornire, deoarece există o mulțime de biblioteci. Când implementez toate microserviciile în același timp, se va crea o încărcare foarte mare a CPU pe nodurile K8S și acestea sunt marcate ca indisponibile. Trebuie să limitez cumva numărul de poduri d ...
Aș dori să știu ce criterii are kubernetes atunci când atribuie pod-uri unui nod dacă nu este configurat niciun set de demoni, selector de noduri sau ceva similar.
Încerc să configurez un mic cluster atm cu 4 noduri de lucru și tocmai am instalat k3s pe Raspberry Pi 4s (8gb) și primesc un Nu e gata
stare. Sunt nou în kubernettes/k3s, dar cred că, cu o instalare complet nouă, lucrurile ar trebui să „funcționeze”. Am o ștergere și o instalare proaspătă a serverului Ubuntu 22.04 pentru brațul pe 64 de biți. Deoarece ieșirea terminalului este at ...

rezumat
Rulez un homelab subțire (cluster Kubernetes cu puține poduri, Gitea, Drone, Docker Registry și partajare NFS) pe un cluster 2-Pi4, iar performanța sistemului este slabă. Am observat că sistemul de fișiere al nodului controlerului arată destul de lent - nu sunt sigur dacă aceasta este cauza sau cauzată de celelalte simptome. Voi reimagina și voi reinstala nodul controlerului pe un nou c ...
un nod nu poate rezolva numele de domeniu
Am un cluster k8s. Are un master și trei noduri.
K8smaster, k8snode1, k8snode2, k8snode3
Rulez acest yaml pentru testare.
apiVersion: v1
fel: Pod
metadate:
apiVersion: v1
fel: Pod
metadate:
nume: busybox-0
spatiu de nume: implicit
specificație:
containere:
- imagine: busybox:1.28
comanda:
- dormi
- „3600”
imagePul ...

The Documentația K3S explică ce porturi sunt necesare pentru ca această distribuție Kubernetes să funcționeze.
Ceea ce NU explică este, care dintre aceste porturi sunt OK pentru a fi deschise pe o interfață publică.
K3S pare să se ocupe de următoarele porturi
Maestru
6443/tcp noduri
8472/udp flanel
10250/tcp kublet (valori)
10251/tcp controller-manager
10255/tcp kublet (numai citire)
Mun ...

Încerc să instalez un cluster cu un singur nod pe centos 7, cu kubadm 1.24 și cu containerd, am urmat pasii de instalare,
și am făcut: containerd config default > /etc/containerd/config.toml și a transmis: SystemdCgroup = true
dar kubeadm init eșuează la:
[root@master-node .kube]# kubeadm init
[init] Folosind versiunea Kubernetes: v1.24.0
[preflight] Executare verificări înainte de zbor
...
Am creat un cluster folosind kudeadm
și totul funcționează bine până în momentul în care încerc să stabilesc reguli de firewall, cum ar fi doar să permit 10.0.0.0/8
trafic. Acest lucru dezactivează cumva podul meu VPN (Wireguard) să se conecteze la Kubernetes kube-dns
de la aparatul meu local. Există ceva magie neagră care este peste nivelul meu de salariu.
Dacă permit tot traficul d ...
Am această versiune de kubeadm
[root@megatron ~]# versiune kubeadm
Versiunea kubeadm: &version.Info{Major:"1", Minor:"24", GitVersion:"v1.24.0", GitCommit:"4ce5a8954017644c5420bae81d72b09b735c21f0", GitTreeState:"clean:":302:":-023 24Z", GoVersion:"go1.18.1", Compiler:"gc", Platforma:"linux/amd64"}
Docker-ul meu este configurat și funcționează corect și poate extrage ușor și corect toate im ...

Încerc să configurez o configurație de rețea în clusterul nostru Kubernetes prin Helm with Calico, rulăm minikube cu calico astfel:
minikube start --network-plugin=cni --cni=calico
Și includem configurația rețelei astfel:
# atașament la rețea
---
apiVersion: „k8s.cni.cncf.io/v1”
fel: NetworkAttachmentDefinition
metadate:
nume: sriov-albora
spatiu de nume: test
adnotari:
...
Încerc să configurez un singur cluster k8s cu nod, dar am probleme cu blocarea acestuia Nu e gata
Primesc asta dacă fug descrie
pe nod
Conditii:
Tastați Stare LastHeartbeatTime LastTransitionTime Motiv mesaj
---- ------ ----------------- ------------------ ----- - -------
NetworkUnavailable Fals Vineri, 13 mai 2022 16:48:19 +0200 Vineri, 13 mai 2022 16:48:19 +0200 FlannelIsUp Flannel rulează p ...
Configurare server rancher
- Versiunea rancher: 2.6.3
- Opțiune de instalare (instalare Docker/Helm Chart): Helm Chart, Kubernetes v1.21.6 și RKE1
Informații despre Cluster Versiunea Kubernetes: v1.20.15-rancher1-2 Tip cluster (local/în aval): în aval Dacă în aval, ce tip de cluster? (Personalizat/Importat sau specificați furnizorul pentru Furnizorul găzduit/Infrastructură): RKE Custom (3 nodu ...
Am instalat containerd și runc la /opt și cred că de aceea kubeadm init
eșuează. Iată o eroare pe care o văd în jurnalul kubelet systemd.
nu se poate prelua eroarea de rulare OCI (deschide /run/containerd/io.containerd.runtime.v2.task/k8s.io/c242a3c3dbb9b0d35489ae3f99b1cd79d12a45dcf5d4a39abcd4fd4a39abcd4fd4a39abcd4fd4a39abcd4fd4a39abcd4fd4a39abcd4fd4a39abcd4fd4a39abcd4fd4a39abcd4fd4a39abcd4:
În primul rând, permiteți-mi să vă mulțumesc pentru acest ghid uimitor. Sunt foarte nou în kubernetes și să am un ghid ca acesta de urmat ajută foarte mult când încerc să configurez primul meu cluster!
Acestea fiind spuse, am câteva probleme cu crearea implementărilor, deoarece există două pod-uri care nu sunt create și rămân blocate în stare: ContainerCreating
[root@master ~]# kube ...

Folosesc un standard AWS EKS cluster, toate bazate pe cloud (K8S 1.21) cu mai multe grupuri de noduri, dintre care unul folosește un șablon de lansare care definește un accelerator elastic de inferență atașat instanțelor (eia2.mediu) a servi un fel de Tensorflow model.
M-am chinuit foarte mult pentru ca modelul nostru de învățare profundă să funcționeze deloc în timpul implementării, și a ...
Am o problemă cu alăturarea nodurilor mele de lucru în cele trei master configurate.Este demn de remarcat că știu foarte puține despre partea de rețea a acestui lucru (aș prefera să fie explicat ca și cum am cinci ani, astfel încât să fiu sigur că nu ratez nimic.)
Am urmat ghidul aflat la: https://dockerlabs.collabnix.com/kubernetes/beginners/Install-and-configure-a-multi-master-Kub ...
De obicei, când folosesc un Kubernetes gestionat din diverse cloud-uri, odată ce creez un cluster Kubernetes gestionat, primesc un CNAME wildcard DNS, cum ar fi *.536642b.nodes.k8s.fr-par.scw.cloud
care va conține automat toate nodurile de lucru Kubernetes active.
AWS EKS oferă un astfel de CNAME wildcard?
Acest lucru este foarte util atunci când nu utilizați un echilibrator de încărcare, c ...
Până ieri, asta funcționa, suntem capabili să creăm un nou set de poduri sub un spațiu de nume. Cu toate acestea, astăzi orice nouă implementare nu reușește să monteze PVC-ul și nu am idee de ce.
Cum pot investiga acest lucru în continuare, nimic nu s-a schimbat între timp.
kubectl descrie pods --namespace 29df2a1c-5d75-4b8b-ae17-b98cfb291496
Avertisment FailedMount 44s kubelet MountVolum ...

Avem mai multe clustere Kubernetes la Hetzner folosind Calico (vxlan) cu securitatea activată (tunele Wireguard). Recent întreruperi Hetzner a pus totul offline:
Din cauza destinațiilor mereu diferite (IP-uri, porturi, dimensiunea pachetului) a trebuit, din păcate, să limităm acest trafic. Acesta se referă la traficul UDP pe portul 9000-65535.
Este posibil să configurați Calico să nu folose ...
Vreau să găsesc o modalitate de a intra într-un VM în care docker rulează în Windows. De fapt, rulez cluster Kubernetes în docker și când folosesc hostPath Volume Type, volumul este montat într-un director din VM. Poate cineva să-mi spună cum să folosesc ssh sau există o altă modalitate de a accesa sistemul de fișiere VM în care rulează docker. De asemenea, vreau să copiez unele fiși ...