Am șapte noduri kubernetes, dintre care două sunt servere fizice (bare metal).
Una dintre aceste mașini fizice are un SSD pe care aș dori să-l folosesc ca disc cache portworx. Este aceasta o configurație acceptată sau kubernetes va căuta la nesfârșit acel singur disc pe fiecare gazdă? Iată un fragment din fișierul „spec” pe care îl folosesc.
containere:
- nume: portworx
imagine: portworx/oci-monitor:2.8.1.2
imagePullPolicy: Întotdeauna
argumente:
["-k", "etcd:https://kube-kvdb.nppl.yo:2379", "-c", "px-nppl-00dZ16f4-1e2c-4afd-97fa-gf5aef26f24e", "-s", „/dev/vdb”, „-cache”, „/dev/sdb”, „-secret_type”, „k8s”,
„-userpwd”, „$PX_KVDB_USERNAME:$PX_KVDB_PASSWORD”,
„-x”, „kubernetes”]
Și iată starea clusterului meu.
msh@kube-kvdb:~$ kubectl get pods -n kube-system -o wide |grep port
portworx-5n9fx 1/2 Alergare 21 (acum 8m39s) 5h36m 192.168.10.4 landrew <niciunul> <niciunul>
portworx-api-66z6c 0/1 Alergare 3 (acum 158 m) 5h36m 192.168.10.4 landrew <niciunul> <niciunul>
portworx-api-cx5k2 0/1 Alergare 1 (acum 126 m) 5h36m 192.168.10.35 kube1 <niciunul> <niciunul>
portworx-api-h6cj6 0/1 Alergare 42 (acum 135m) 5h36m 192.168.10.36 kube2 <niciunul> <niciunul>
portworx-api-ngj9j 0/1 Alergare 0 5h36m 192.168.10.34 kube0 <niciunul> <niciunul>
portworx-api-zcdd8 0/1 Alergare 0 5h36m 192.168.10.37 kube3 <niciunul> <niciunul>
portworx-cnpt2 1/2 CrashLoopBackOff 74 (acum 93s) 5h36m 192.168.10.35 kube1 <niciunul> <niciunul>
portworx-kj7vs 1/2 CrashLoopBackOff 114 (acum 42 de secunde) 5h36m 192.168.10.36 kube2 <niciunul> <niciunul>
portworx-lf9l6 1/2 CrashLoopBackOff 69 (acum 3m28s) 5h36m 192.168.10.34 kube0 <niciunul> <niciunul>
portworx-t6s4f 1/2 CrashLoopBackOff 69 (acum 3m54s) 5h36m 192.168.10.37 kube3 <niciunul> <niciunul>