Puncte:3

Problemă cu atașarea volumului Openstack Nova și Ceph

drapel cn

Încerc funcția de atașare a volumului la Openstack (versiunea:wallaby) la server ca dispozitiv suplimentar, dar nu a reușit.

Backend-ul de volum este ceph, care toate osd-urile sunt sus și sănătoase.

ceph-osd/38* activ inactiv 0 172.16.6.64 Unitatea este gata (1 OSD)
    ntp/149 activ inactiv 172.16.6.64 123/udp chrony: gata
ceph-osd/39 activ inactiv 1 172.16.6.65 Unitatea este gata (1 OSD)
    ntp/147 activ inactiv 172.16.6.65 123/udp chrony: gata
ceph-osd/40 activ inactiv 2 172.16.6.66 Unitatea este gata (1 OSD)
    ntp/146* activ inactiv 172.16.6.66 123/udp chrony: gata
ceph-osd/41 activ inactiv 3 172.16.6.67 Unitatea este gata (1 OSD)
    ntp/148 activ inactiv 172.16.6.67 123/udp chrony: gata

unde serverele sunt deservite de nova.

Întregul proces de atașare a volumului are succes pe unele dintre servere. Pot atașa volumul creat la instanța nova ca /dev/vdb și /dev/vdc. Cu toate acestea, unele servere nu pot. Am verificat /var/log/nova/nova-compute.log și am primit mesajul de mai jos

 EROARE oslo_messaging.rpc.server libvirt.libvirtError: eroare internă: nu se poate executa comanda QEMU „blockdev-add”: eroare de conectare: argument invalid

Informații suplimentare: Volumul poate fi atașat atunci când serverul este în stare de oprire, dar serverul nu poate fi pornit dacă volumul este atașat. Arunc o privire la /var/log/nova/nova-compute.log și mesajul de EROARE este după cum urmează:

EROARE oslo_messaging.rpc.server libvirt.libvirtError: eroare internă: proces ieșit în timpul conectării la monitor: 2021-11-01T16:34:08.889402Z qemu-system-x86_64: -blockdev {"driver":"rbd","pool" :"cinder-ceph","image":"volume-c41ce9db-e375-4b21-920f-e815035b51ed","server":[{"host":"172.16.6.104","port":"6789"}, {"host":"172.16.6.106","port":"6789"},{"host":"172.16.6.105","port":"6789"}],"user":"cinder-ceph" ,"auth-client-required":["cephx","none"],"key-secret":"libvirt-1-storage-secret0","node-name":"libvirt-1-storage"," cache":{"direct":true,"no-flush":false},"auto-read-only":true,"discard":"unmap"}: eroare de conectare: argument nevalid

Sunt destul de sigur că volumul nu are probleme, deoarece pot atașa același volum la altă instanță nova fără probleme.

Am făcut măsura de mai jos, dar tot nu am avut noroc:

(1) Am recreat instanța nova, deci cu un ID de instanță diferit, dar încă nu reușesc să se atașeze

(2) Am verificat nova și ceph care conectează virsh secret și config la /etc/nova/nova.conf și /etc/libvirt/secrets cu virsh secret-list. Sunt la fel ca alte instanțe de atașare de volum de succes

Toate serviciile openstack funcționează fără erori. Imi poate da cineva un indiciu despre mesajul de EROARE?

drapel us
Dacă puteți atașa volumul la o altă instanță, atunci nu este volumul. Care sunt diferențele dintre instanțe? Comparați definițiile xml ale instanțelor. Cinder-volume.log dezvăluie ceva?
ony4869 avatar
drapel cn
salut @eblock, multumesc pentru sugestie. În cele din urmă, aflu că numai cheia secretă cinder-ceph virsh este instalată. Caut prin fișierul /etc/nova/nova.conf pentru a obține rdb_secret_uuid și am creat xml și base64 pentru virsh secret-set-value folosind fișierele secrete pe care le-am făcut backup mai devreme. După instalarea cheii nova-ceph, pot monta volumul cu succes. (puneți aici ca înregistrare: virsh secret-set-value --secret --baza64 )

Postează un răspuns

Majoritatea oamenilor nu înțeleg că a pune multe întrebări deblochează învățarea și îmbunătățește legătura interpersonală. În studiile lui Alison, de exemplu, deși oamenii își puteau aminti cu exactitate câte întrebări au fost puse în conversațiile lor, ei nu au intuit legătura dintre întrebări și apreciere. În patru studii, în care participanții au fost implicați în conversații ei înșiși sau au citit transcrieri ale conversațiilor altora, oamenii au avut tendința să nu realizeze că întrebarea ar influența – sau ar fi influențat – nivelul de prietenie dintre conversatori.