Încerc funcția de atașare a volumului la Openstack (versiunea:wallaby) la server ca dispozitiv suplimentar, dar nu a reușit.
Backend-ul de volum este ceph, care toate osd-urile sunt sus și sănătoase.
ceph-osd/38* activ inactiv 0 172.16.6.64 Unitatea este gata (1 OSD)
ntp/149 activ inactiv 172.16.6.64 123/udp chrony: gata
ceph-osd/39 activ inactiv 1 172.16.6.65 Unitatea este gata (1 OSD)
ntp/147 activ inactiv 172.16.6.65 123/udp chrony: gata
ceph-osd/40 activ inactiv 2 172.16.6.66 Unitatea este gata (1 OSD)
ntp/146* activ inactiv 172.16.6.66 123/udp chrony: gata
ceph-osd/41 activ inactiv 3 172.16.6.67 Unitatea este gata (1 OSD)
ntp/148 activ inactiv 172.16.6.67 123/udp chrony: gata
unde serverele sunt deservite de nova.
Întregul proces de atașare a volumului are succes pe unele dintre servere. Pot atașa volumul creat la instanța nova ca /dev/vdb și /dev/vdc. Cu toate acestea, unele servere nu pot. Am verificat /var/log/nova/nova-compute.log și am primit mesajul de mai jos
EROARE oslo_messaging.rpc.server libvirt.libvirtError: eroare internă: nu se poate executa comanda QEMU „blockdev-add”: eroare de conectare: argument invalid
Informații suplimentare:
Volumul poate fi atașat atunci când serverul este în stare de oprire, dar serverul nu poate fi pornit dacă volumul este atașat. Arunc o privire la /var/log/nova/nova-compute.log și mesajul de EROARE este după cum urmează:
EROARE oslo_messaging.rpc.server libvirt.libvirtError: eroare internă: proces ieșit în timpul conectării la monitor: 2021-11-01T16:34:08.889402Z qemu-system-x86_64: -blockdev {"driver":"rbd","pool" :"cinder-ceph","image":"volume-c41ce9db-e375-4b21-920f-e815035b51ed","server":[{"host":"172.16.6.104","port":"6789"}, {"host":"172.16.6.106","port":"6789"},{"host":"172.16.6.105","port":"6789"}],"user":"cinder-ceph" ,"auth-client-required":["cephx","none"],"key-secret":"libvirt-1-storage-secret0","node-name":"libvirt-1-storage"," cache":{"direct":true,"no-flush":false},"auto-read-only":true,"discard":"unmap"}: eroare de conectare: argument nevalid
Sunt destul de sigur că volumul nu are probleme, deoarece pot atașa același volum la altă instanță nova fără probleme.
Am făcut măsura de mai jos, dar tot nu am avut noroc:
(1) Am recreat instanța nova, deci cu un ID de instanță diferit, dar încă nu reușesc să se atașeze
(2) Am verificat nova și ceph care conectează virsh secret și config la /etc/nova/nova.conf și /etc/libvirt/secrets cu virsh secret-list. Sunt la fel ca alte instanțe de atașare de volum de succes
Toate serviciile openstack funcționează fără erori. Imi poate da cineva un indiciu despre mesajul de EROARE?