Puncte:2

ceph blocat în active+remapped+backfill_toofull după extinderea volumului unui OSD

drapel us

Am un cluster ceph cu 2 OSD. Dimensiunea inițială a volumelor de rezervă a fost de 16 GB. Apoi am oprit OSD-urile, am făcut a lveextend pe ambele și porniți din nou OSD-urile. Acum ceph osd df spectacole:

ceph osd df

Dar ceph -s arată că este blocat la activ+remapatat+backfill_toofull pentru 50 de pagini: ceph -s

Am încercat să înțeleg mecanismul citind algoritmul CRUSH, dar se pare că este nevoie de mult efort și cunoștințe. Ar fi foarte apreciat dacă cineva ar putea descrie comportamentul (de ce a fost blocat prea plin, în ciuda faptului că spațiul liber este crescut semnificativ.) și să mă ajute să rezolv această stare.

Martian2020 avatar
drapel ec
aveți date (ceph osd) pentru înainte de „a extins un lvextend pe ambele” și „spațiul liber este crescut semnificativ.”?
Martian2020 avatar
drapel ec
și aș putea spune că utilizarea de 90% este mare.
drapel us
Dacă vă înțeleg bine, da, clusterul avea date și datele sunt încă disponibile clienților.
Martian2020 avatar
drapel ec
nu, scrieți „Acum ceph osd df arată:” Mă refeream la ieșirea „ceph osd df” ca în întrebarea dvs. de dinainte „am făcut o extensie lvextend pe ambele”
drapel us
Nu din pacate.
Martian2020 avatar
drapel ec
de ce ai făcut `lvextend`? ce valori te-au indicat la asta? + poate vă amintiți câteva numere, cum ar fi %USE înainte
drapel us
Utilizarea a fost de aproximativ 11 GB din 32 GB.Am vrut să măresc dimensiunea clusterului, așa că am făcut `lvextend`, aparent în mod greșit.
drapel us
Să [continuăm această discuție în chat](https://chat.stackexchange.com/rooms/131964/discussion-between-ahmad-ahmadi-and-martian2020).
Puncte:0
drapel ec

Ta UTILIZARE CRUDE este de ori mai mare decât DATE. Notă: soluția nu a fost încercată, tot asta am găsit.

Re: Utilizare brută de 10 ori mai mare decât utilizarea datelor

Probabil că primul lucru de verificat este dacă aveți obiecte care sunt sub dimensiunea min_alloc. Aceste obiecte vor duce la risipa de spațiu deoarece vor folosi dimensiunea min_alloc completă.

Sfat similar: https://stackoverflow.com/questions/68185503/ceph-df-octopus-shows-used-is-7-times-higher-than-stored-in-erasure-coded-pool/68186461#68186461

Acest lucru este legat de bluestore_min_alloc_size_hdd=64K (implicit activat Caracatiță).

Dacă utilizați codificarea ștergerii, datele sunt împărțite în bucăți mai mici, ceea ce fiecare ia 64K pe disc.

O altă modalitate de a remedia problema, puteți încerca să urmați instrucțiunile de pe al doilea ecran:

adăugați spațiu de stocare dacă acest lucru nu se rezolvă de la sine

Postează un răspuns

Majoritatea oamenilor nu înțeleg că a pune multe întrebări deblochează învățarea și îmbunătățește legătura interpersonală. În studiile lui Alison, de exemplu, deși oamenii își puteau aminti cu exactitate câte întrebări au fost puse în conversațiile lor, ei nu au intuit legătura dintre întrebări și apreciere. În patru studii, în care participanții au fost implicați în conversații ei înșiși sau au citit transcrieri ale conversațiilor altora, oamenii au avut tendința să nu realizeze că întrebarea ar influența – sau ar fi influențat – nivelul de prietenie dintre conversatori.