Puncte:1

Perc H740P: volumul raid5 împărțit în două configurații străine, nu se poate importa

drapel ru

După o înlocuire a sursei de alimentare, am avut o problemă de cablare care a cauzat lipsa unor discuri, după depanare și remediere în BIOS, la prima pornire, volumul raid5 preexistent a fost împărțit în două configurații străine - una conținea 5 discuri, cealaltă conținea cele 2 discuri rămase ale raidului cu 7 volume5 (vezi mai jos).

Nu putem importa configurațiile străine cu perccli /c0/fall import:

Stare = Eșec
Descriere = Configurație străină incompletă

Deci toate discurile sunt acolo, dar cumva controlerul crede că sunt două grupuri de unități diferite. Există o modalitate de a vă recupera din această situație și de a îmbina configurațiile într-una sau ceva de genul acesta?

--------------------------------------------- --------------------------
DG Arr Rând EID:Slot DID Tip Stare BT Dimensiune PDC PI SED DS3 FSpace TR 
--------------------------------------------- --------------------------
 0 - - - - RAID5 Frgn N 54.571 TB dsbl N N dflt N N  
 0 0 - - - RAID5 Frgn N 54.571 TB dsbl N N dflt N N  
 0 0 0 67:0 0 DRIVE Frgn N 9.094 TB dsbl N N dflt - N  
 0 0 1 67:0 1 DRIVE Frgn N 9.094 TB dsbl N N dflt - N  
 0 0 2 67:0 2 DRIVE Frgn N 9.094 TB dsbl N N dflt - N  
 0 0 3 67:0 3 DRIVE Frgn N 9.094 TB dsbl N N dflt - N  
 0 0 4 - - Mesaj DRIVE - 9.094 TB - - - - - N  
 0 0 5 - - Mesaj DRIVE - 9.094 TB - - - - - N  
 0 0 6 67:0 5 DRIVE Frgn N 9.094 TB dsbl N N dflt - N  
 1 - - - - RAID5 Frgn N 54.571 TB dsbl N N dflt N N  
 1 0 - - - RAID5 Frgn N 54.571 TB dsbl N N dflt N N  
 1 0 0 - - Mesaj DRIVE - 9.094 TB - - - - - N  
 1 0 1 - - Mesaj DRIVE - 9.094 TB - - - - - N  
 1 0 2 - - Mesaj DRIVE - 9.094 TB - - - - - N  
 1 0 3 - - Mesaj DRIVE - 9.094 TB - - - - - N  
 1 0 4 67:0 6 DRIVE Frgn N 9.094 TB dsbl N N dflt - N  
 1 0 5 67:0 4 DRIVE Frgn N 9.094 TB dsbl N N dflt - N  
 1 0 6 - - Mesaj DRIVE - 9.094 TB - - - - - N  
--------------------------------------------- --------------------------


Lista VD străină:
================

----------------------------------
DG VD Nume tip dimensiune      
----------------------------------
 0 255 54.571 TB RAID5 RV5 
 1 255 54.571 TB RAID5 RV5 
----------------------------------

Actualizați:

Am deconectat întregul expander și am pornit. Aceasta a arătat toate discurile din configurația străină (există și un număr de volume raid1 unice):

------------------------------------------
DG EID:Slot Type State Size NoVDs 
------------------------------------------
 0 - RAID0 Frgn 9.094 TB 1 
 1 - RAID0 Frgn 10.913 TB 1 
 2 - RAID0 Frgn 10.913 TB 1 
 3 - RAID0 Frgn 10.913 TB 1 
 4 - RAID0 Frgn 9.094 TB 1 
 5 - RAID0 Frgn 278.875 GB 1 
 6 - RAID0 Frgn 14.551 TB 1 
 7 - RAID0 Frgn 16.370 TB 1 
 8 - RAID0 Frgn 9.094 TB 1 
 9 - RAID5 Frgn 54.571 TB 1 
10 - RAID5 Frgn 54.571 TB 1 
------------------------------------------

Am reușit să importe cu succes /c0/fall tot. Din păcate, acest lucru a ajuns în situația sdame ca și înainte, celelalte volume fiind acolo, iar raid-ul5 fiind împărțit în două configurații străine (adică importul tuturor configurațiilor străine create remorcă noi configurații străine).

Actualizare 2:

Atașarea discurilor la un sistem GNU/Linux arată acest lucru, care pentru mine spune practic același lucru ca controlerul perc: există două volume raid cu 5 și 7 discuri. Deci, acesta pare să fie rezultatul unei erori de firmware în care controlerul de raid a împărțit efectiv grupul de volum în două disfuncționale și, prin urmare, îmbinarea pare imposibilă.

Personalități: [raid0] [liniar] [multipath] [raid1] [raid6] [raid5] [raid4] [raid10] 
md125: sdi inactiv[0]
      9765912576 blocuri super extern:/md127/2
       
md126 : sdg inactiv[1](S) sdf[0](S)
      1048576 blocuri super externe:ddf
       
md127 : inactiv sdm[4](S) sdi[3](S) sdh[2](S) sdk[1](S) sdl[0](S)
      2621440 blocuri super externe:ddf
       

dispozitive nefolosite:

Încerc să recuperez de aici, dar întrebarea este acum: pot recrea matricea fie în controlerul raid, fie în GNU/Linux din nou, astfel încât controlerul raid să recunoască matricea? Restaurarea din backup durează destul de mult.

** Actualizare 3:**

De când a fost cerut - nu mai am informațiile de examinare/detaliu, dar aici este depozitul a ceea ce a tipărit propriul meu instrument, care oferă puțin mai multă structură și arată clar cât de corupte au fost informațiile. Datele DDF includ mai multe discuri decât cele din matrice, dar instrumentul meu a aruncat doar informații legate de configurația matricei pe care am vrut să o recuperez. Rețineți că mi-am rezolvat problema recreând matricea după o odisee minoră, așa că acesta este doar informativ.

/dev/sdf
    refno 66fee9c8
    ghid „ATA 999901019c64177c25b6”
    pd 1 6d67850c 'ATA 9999010198734b845e34'
    pd 2 2c442eef 'ATA 99990101a3ff6b169fb3'
    pd 3 859c2a72 'ATA 9999010140f57d7b1911'
    pd 4 2a25447d 'ATA 9999010181a40ea27a38'
    pd 5 6db9e402 'SmrtStor P^A^W1^@tfM-8'
    pd 6 0176ebaa 'ATA 99990101bd73575777e4'
    pd 7 a63ba301 'ATA 999901017d605c6aadf6'
    pd 8 5254f474 'ATA 999901014ecf2257f8f4'
    pd 9 80e8a86d 'ATA 999901014c775ca92a87'
    pd 10 49416c50 'ATA 99990101d79cd13a1e1e'
    pd 11 fa44428b 'ATA 9999010198bd2187a552'
    pd 12 66fee9c8 'ATA 999901019c64177c25b6'
    pd 13 4a94daa9 'ATA 99990101679d1776307e'
    partea 0
        ghid „Dell ^P”
        marime 117190950912
        blocuri 19531825152
        disc 0 start 0 ref a63ba301
        disc 1 start 0 ref 5254f474
        disc 2 start 0 ref 80e8a86d
        disc 3 start 0 ref 49416c50
        disc 4 start 0 ref fa44428b
        disc 5 start 0 ref 66fee9c8
        disc 6 start 0 ref 4a94daa9

/dev/sdg
    refno fa44428b
    ghid „ATA 9999010198bd2187a552”
    pd 1 6d67850c 'ATA 9999010198734b845e34'
    pd 2 2c442eef 'ATA 99990101a3ff6b169fb3'
    pd 3 859c2a72 'ATA 9999010140f57d7b1911'
    pd 4 2a25447d 'ATA 9999010181a40ea27a38'
    pd 5 6db9e402 'SmrtStor P^A^W1^@tfM-8'
    pd 6 0176ebaa 'ATA 99990101bd73575777e4'
    pd 7 a63ba301 'ATA 999901017d605c6aadf6'
    pd 8 5254f474 'ATA 999901014ecf2257f8f4'
    pd 9 80e8a86d 'ATA 999901014c775ca92a87'
    pd 10 49416c50 'ATA 99990101d79cd13a1e1e'
    pd 11 fa44428b 'ATA 9999010198bd2187a552'
    pd 12 66fee9c8 'ATA 999901019c64177c25b6'
    pd 13 4a94daa9 'ATA 99990101679d1776307e'
    partea 0
        ghid „Dell ^P”
        marime 117190950912
        blocuri 19531825152
        disc 0 start 0 ref a63ba301
        disc 1 start 0 ref 5254f474
        disc 2 start 0 ref 80e8a86d
        disc 3 start 0 ref 49416c50
        disc 4 start 0 ref fa44428b
        disc 5 start 0 ref 66fee9c8
        disc 6 start 0 ref 4a94daa9

/dev/sdh
    refno 4a94daa9
    ghid „ATA 99990101974a122c9311”
    pd 1 6d67850c 'ATA 99990101be1d53ed8c7d'
    pd 2 2c442eef 'ATA 99990101ff58714b7f1b'
    pd 3 859c2a72 'ATA 99990101fa3ac0b94ef7'
    pd 4 2a25447d 'ATA 999901017e74d11eb6e6'
    pd 5 0176ebaa 'ATA 99990101f19b3355ec56'
    pd 6 a63ba301 'ATA 99990101f391d36e91f9'
    pd 7 5254f474 'ATA 99990101fa6d3d5b6c49'
    pd 8 80e8a86d 'ATA 99990101b7ad5947d5c0'
    pd 9 49416c50 'ATA 99990101d2e6918871bb'
    pd 10 4a94daa9 'ATA 99990101974a122c9311'
    pd 11 6db9e402 'SmrtStor P^A^W1^@tfM-8'
    partea 0
        ghid „Dell ^P”
        marime 117190950912
        blocuri 19531825152
        disc 0 start 0 ref a63ba301
        disc 1 start 0 ref 5254f474
        disc 2 start 0 ref 80e8a86d
        disc 3 start 0 ref 49416c50
        disc 6 start 0 ref 4a94daa9

/dev/sdi
    refno 49416c50
    ghid „ATA 99990101d2e6918871bb”
    pd 1 2a25447d 'ATA 999901017e74d11eb6e6'
    pd 2 0176ebaa 'ATA 99990101f19b3355ec56'
    pd 3 49416c50 'ATA 99990101d2e6918871bb'
    pd 4 6db9e402 'SmrtStor P^A^W1^@tfM-8'
    partea 0
        ghid „Dell ^P”
        marime 117190950912
        blocuri 19531825152
        disc 3 start 0 ref 49416c50

/dev/sdk
    refno 80e8a86d
    ghid „ATA 99990101b7ad5947d5c0”
    pd 1 2a25447d 'ATA 999901017e74d11eb6e6'
    pd 2 0176ebaa 'ATA 99990101f19b3355ec56'
    pd 3 a63ba301 'ATA 99990101f391d36e91f9'
    pd 4 5254f474 'ATA 99990101fa6d3d5b6c49'
    pd 5 80e8a86d 'ATA 99990101b7ad5947d5c0'
    pd 6 49416c50 'ATA 99990101d2e6918871bb'
    pd 7 6db9e402 'SmrtStor P^A^W1^@tfM-8'
    partea 0
        ghid „Dell ^P”
        marime 117190950912
        blocuri 19531825152
        disc 0 start 0 ref a63ba301
        disc 1 start 0 ref 5254f474
        disc 2 start 0 ref 80e8a86d
        disc 3 start 0 ref 49416c50

/dev/sdl
    refno 5254f474
    ghid „ATA 99990101fa6d3d5b6c49”
    pd 1 2a25447d 'ATA 999901017e74d11eb6e6'
    pd 2 0176ebaa 'ATA 99990101f19b3355ec56'
    pd 3 a63ba301 'ATA 99990101f391d36e91f9'
    pd 4 5254f474 'ATA 99990101fa6d3d5b6c49'
    pd 5 80e8a86d 'ATA 99990101b7ad5947d5c0'
    pd 6 49416c50 'ATA 99990101d2e6918871bb'
    pd 7 6db9e402 'SmrtStor P^A^W1^@tfM-8'
    partea 0
        ghid „Dell ^P”
        marime 117190950912
        blocuri 19531825152
        disc 0 start 0 ref a63ba301
        disc 1 start 0 ref 5254f474
        disc 2 start 0 ref 80e8a86d
        disc 3 start 0 ref 49416c50

/dev/sdm
    refno a63ba301
    ghid „ATA 99990101f391d36e91f9”
    pd 1 2a25447d 'ATA 999901017e74d11eb6e6'
    pd 2 0176ebaa 'ATA 99990101f19b3355ec56'
    pd 3 a63ba301 'ATA 99990101f391d36e91f9'
    pd 4 5254f474 'ATA 99990101fa6d3d5b6c49'
    pd 5 80e8a86d 'ATA 99990101b7ad5947d5c0'
    pd 6 49416c50 'ATA 99990101d2e6918871bb'
    pd 7 6db9e402 'SmrtStor P^A^W1^@tfM-8'
    partea 0
        ghid „Dell ^P”
        marime 117190950912
        blocuri 19531825152
        disc 0 start 0 ref a63ba301
        disc 1 start 0 ref 5254f474
        disc 2 start 0 ref 80e8a86d
        disc 3 start 0 ref 49416c50

seq 0 refno a63ba301 dev /dev/sdm
seq 1 refno 5254f474 dev /dev/sdl
seq 2 refno 80e8a86d dev /dev/sdk
seq 3 refno 49416c50 dev /dev/sdi
seq 4 refno fa44428b dev /dev/sdg
seq 5 refno 66fee9c8 dev /dev/sdf
seq 6 refno 4a94daa9 dev /dev/sdh
Nikita Kipriyanov avatar
drapel za
Ce spun `mdadm --detail /dev/RAID` și `mdadm --examine /dev/COMPONENT` despre fiecare articol?
Remember Monica avatar
drapel ru
Am adăugat ce informații am avut - vezi și răspunsul meu la ceea ce am făcut până la urmă pentru a rezolva acest lucru. Practic, configurația a fost coruptă și a trebuit să recreez matricea, dar nu a trebuit să restabilim backupul formularului.
Puncte:2
drapel ru

Ok, iată ce am făcut. Fie ca acesta să ajute următoarea persoană.

Constatarea faptelor

În primul rând, am atașat toate discurile la un HBA. GNU/Linux a încercat să asambleze raid, dar într-adevăr a găsit (cel puțin) două volume de raid (și puțin în plus). eu apoi a făcut o copie de rezervă a primilor 32 și a ultimilor 32 MB din fiecare disc, indexate de WWID/WWN-ul lor.

Am descărcat apoi specificația SNIA DDF (https://www.snia.org/tech_activities/standards/curr_standards/ddf) pentru că știam că megaraid/dell l-a implementat (parțial) (ddf magia blocului de ancorare nu este de11de11 întâmplător :), și apoi a scris un foarte script urât pentru a decoda datele și a le da sens.

Acest lucru mi-a arătat că matricea a fost, de fapt, împărțită în trei diferite configurații, una care includea un disc, alta care includea asta disc și încă 4, și încă unul care conținea restul de 2 discuri.

Scriptul în sine nu este foarte util fără a înțelege ce faceți, așa că nu l-am inclus aici.

În cele din urmă, acest lucru mi-a permis să obțin ordinea originală corectă a discurile. Sugestie: după crearea unei matrice, notați ordinea WWN-urilor (perccli /c0/s0 arată toate | grep WWN) și dimensiunea benzii, cel puțin.

Acest proces mi-a oferit și offset-ul de pornire (întotdeauna 0) și dimensiunea compartimentări (19531825152 sectoare).

Varianta raid5 folosită de H740P (și probabil toate megaraid controlori) se numește stânga-simetric sau „RAID-5 Rotating Parity N cu Continuarea datelor (PRL=05, RLQ=03)".

Reasamblarea discurilor pentru testare

Apoi am încercat să testez-reasamblam raid-ul folosind mdadm --build. Din păcate, mdadm refuză să asambleze matrice raid5 - tu avea pentru a scrie în matrice și a distruge datele :(

Ca o soluție, pentru a testa dacă ordinea este corectă, am pornit un kvm în modul instantaneu cu o imagine aleatorie de boot GNU/Linux ca /dev/sda iar discurile ca discuri virtio:

exec kvmb -snapshot -m 16384 \
         -drive file=linux.img,snapshot=off\
         -drive file=/dev/sdm,if=virtio,snapshot=on \
         -drive file=/dev/sdl,if=virtio,snapshot=on \
         -drive file=/dev/sdk,if=virtio,snapshot=on \
         -drive file=/dev/sdi,if=virtio,snapshot=on \
         -drive file=/dev/sdg,if=virtio,snapshot=on \
         -drive file=/dev/sdf,if=virtio,snapshot=on \
         -drive file=/dev/sdh,if=virtio,snapshot=on

Acest lucru a făcut ca discurile să apară în ordinea specificată ca /dev/vda, /dev/vdb și așa mai departe și mi-a permis să testez cu ușurință diverse opțiuni. Prima încercare în interiorul VM a reușit:

mdadm --create /dev/md0 -f \
   --metadata 1.0 \
   --raid-devices 7 \
   -z $((19531825152/2))K -c 256K \
   -l raid5 -p ddf-N-continuare \
   --assume-clean -k resync \
   /dev/vd?

Pentru raid5, dimensiunea partiției este necritică - dacă este mai mare, GPT-ul dvs tabela de partiții este coruptă și aveți date suplimentare, dar restul discul ar trebui să fie în continuare lizibil.

Am verificat corectitudinea datelor prin montarea partiției (care ar trebui nu arunca erori, dar ar putea reuși chiar dacă comanda este greșită), și folosind btrfs scrub, care verifică sumele de verificare ale metadatelor și blocurilor de date, care este testul final și un plus major al btrfs.

Apoi am rulat din nou backzp.

Am notat apoi WWN-ul tuturor discurilor în ordine, ca să îl pot recrea cu perccli. De asemenea, am făcut o copie de rezervă a primului și ultimului 1 GB de date de volumul în sine, în cazul în care controlerul raid le-ar suprascrie.

Mutarea volumului înapoi în controlerul raid

Deoarece aproximativ 14 TB de date nu au fost făcute copii de rezervă (pentru că datele pot fi recuperat din altă parte cu ceva efort și eram prea nerăbdător să așteptați o copie), efectuarea unei restaurări complete nu era o opțiune pe care o așteptam cu nerăbdare la, așa că am încercat să mut matricea înapoi în controler.

Prima mea încercare a fost să formatez matricea ca container DDF cu raid5 volum în interior, folosind aceiași parametri pe care îi folosește controlerul, dar, din păcate, controlerul megaraid - în timp ce folosește DDF în sine - nu acceptă DDF „străin” pentru importuri și a arătat discurile pur și simplu ca „bun neconfigurat”.

Apoi am încercat să recreez matricea pur și simplu adăugându-l din nou, de exemplu:

perccli /c0 add vd r5 name=XXX drives=3,6,9,1,2,3,0 pdcache=off wb ra strip=256

Făcând acest lucru pe un sistem pornit cu perccli se asigură că controlerul raid va face o inițializare în fundal, care nu este distructivă și, cu RAID5, nici măcar nu va distruge datele atunci când ordinea discului sau dimensiunea benzii sunt greșite, așa cum atâta timp cât folosești exact toate discurile din matricea originală în orice ordine, fără a lăsa unul afară sau a da prea multe.

Aici am eșuat - cumva, am greșit complet ordinea discurilor, și, de asemenea, a reușit să corupă primii 1,5 MB din volum. am absolut nu am idee ce a mers prost, dar am încercat multe permutări și nu am văzut datele corecte, până la punctul în care am crezut că va face controlorul raidului reordonează cumva discurile mele (dar nu o face, este exact comanda ca specificat).

Pe scurt, am atașat discurile la HBA din nou și am încercat și nu a reușit să-i dea sens. Aici a fost utilă backup-ul meu original: deși am pierdut ordinea discurilor, am aruncat o privire atentă asupra copiei de rezervă și a scăzut ordinea potențială la două permutări posibile, pur și simplu, holbându-se la hexdumps. Crearea matricei cu mdadm și testarea datelor îmi oferă ordinea corectă.

Apoi am notat din nou ordinea WWN-urilor, am atașat discurile la controller, a pornit și a făcut-o perccli /c0 adauga.... Am restaurat apoi primul 1,5 MB din volum (care a inclus partiția GPT și etichetele LVM și niște date vechi de gunoi rămase care au fost foarte utile atunci când ghiciți ce ordinea ar putea fi). Un anumit nivel de încredere în a putea anula greșelile este de ajutor în această situație.

Rezultat: matricea a revenit, btrfs este consecvent și controlerul este acum inițializat în fundal, ceea ce face ca întregul sistem să încetinească câteva zile, dar este un preț mic de plătit.

Lucruri Învățate

Am invatat multe!

  1. Controlerele perc (și probabil toate controlerele megaraid) nu fac față bine cu probleme frecvente rapide și intermitente de disc - bănuiesc că discurile dispar și revin rapid a declanșat o condiție de cursă în care controlerul încerca să scrie noua configurație pe discuri și a reușit doar parțial cu unele discuri, în cele din urmă împărțind raidul în două . Acesta este în mod clar o eroare de firmware. Dar atunci, cine s-ar aștepta ca cablurile de alimentare să fie defecte...

  2. mdadm nu este foarte util în înțelegerea sau afișarea antetelor DDF - Pur și simplu nu am putut înțelege datele afișate și așa cum am aflat atunci când decodez singur anteturile, acest lucru se datorează faptului că multe informații sunt lipsă din --detaliu și --examina ieșire.De asemenea, nu este foarte util în experimentare, deoarece refuză să facă o asamblare nedistructivă doar în citire.

  3. Controlerele perc/megaid folosesc formatul SNIA DDF intern, iar acesta fiind a specificație accesibilă publicului, a fost extrem de utilă, deși până la urmă mi-am dat seama de ce aveam nevoie fără aceste informații.

  4. Fiind capabil să ghicească ordinea corectă a benzilor de raid numai din date este foarte util. Resturile de gunoi și alte date care pot ajuta în acest sens este, de asemenea, foarte util. Voi lua în considerare scrierea „disc 1”, „disc 2” și așa mai departe în zonele „goale” ale anteturilor mele de volum RAID de acum înainte (există porțiuni lungi de 0 octeți în primii 2MB).

  5. Este foarte ușor să dai dracu - nume de dispozitive, numere de membri ai raidului, WWN-uri, numerele de slot și așa mai departe fiind diferite, pot însemna o mulțime de date pentru gestionați, iar WWN-urile sunt lungi și vechii mei ochi nu mai sunt atât de buni. În plus, nu sunt bine organizat și prea încrezător în mine :/

  6. Crearea și ștergerea unei matrice folosind discuri cu date pe ea nu va șterge datele, cel puțin cu RAID5 și folosind fundal initializare. Inițializarea primului plan se va reduce aproape sigur discurile. Asta înseamnă că poți crea și șterge matricea cât mai multe ori cât doriți, fără a risca pierderea datelor, cu o posibilă excepție: ștergerea unei matrice necesită uneori opțiunea de forță deoarece RAID-ul controlerul crede că este „în uz” din cauza unei etichete valide de partiție. Și asta ar putea eliminați eticheta GPT - YMMV și asigurați-vă că aveți o copie de rezervă a primii câțiva megabiți pentru orice eventualitate.

  7. Perc/megaraid nu înțeleg containerele DDF non-dell/megaraid. La cel puțin nu am aflat cum să-mi fac controlerul să accepte DDF creat de mdadm containere. A fi capabil să formateze discul în GNU/Linux și să le muți înapoi în controler ar fi ajutat foarte mult și ar fi evitat multe ore de durere din partea mea.

rezumat

Am recuperat totul fără a restabili din backup, în detrimentul unui câteva zile de timp lent de inițializare de fundal.Mi-am notat solutia de mai sus, în cazul în care unele dintre ele ar putea fi utile altor persoane în situatii similare.

Nikita Kipriyanov avatar
drapel za
Fantastic! Și foarte util. De altfel, am avut o experiență de re-creare a matricei MegaRAID și datele nu au fost șterse, dar acestea au fost RAID1 sau RAID10, pe care le-am eliminat accidental din sistemul de operare folosind megacli (sistemul a murit imediat pentru că locuia acolo), apoi mi-am impresionat colegii cât de repede am întors-o la viață. Tocmai am recreat matricea :). Și, ca comentariu, *mdadm ... refuză să facă o asamblare nedistructivă numai în citire* â aici intră în joc suprapunerile și fac totul nedistructiv, așa că acestea sunt obligatorii în opinia mea, așa că nici cu mdadm nicio problemă.
Remember Monica avatar
drapel ru
Cred că instrumentele nu ar trebui să refuze în mod arbitrar pentru că vor să „protejeze” utilizatorii. Este ok să ai un nivel de protecție, dar ar trebui să existe o opțiune de forță de vreun fel - lvm2 este un exemplu bun: implicit te protejează foarte bine împotriva greșelilor, dar dacă știi ce faci poți să-ți forțezi drumul. Cu siguranță, formatarea unui raid cu date pe el contează ca „trebuie să știi ce faci”. Doar parerea mea, desigur.
Puncte:1
drapel za

Puteți încerca să detașați toate unitățile de pe serverul oprit, apoi să eliminați ambele grupuri, apoi să reatașați discurile. Asta ar trebui să resetați toate discurile în stare „străină”. Și apoi încercați să le importați pe toate într-o singură operațiune.

În principiu, acest controler ar trebui să folosească formatul SNIA DDF pe disc. HBA (nu un controler RAID) nu va interpreta metadatele, permițând software-ului să le acceseze. Deci, dacă ați reuși să-l conectați la o mașină Linux folosind HBA, ar putea detecta și asambla această matrice folosind MD RAID (Linux poate înțelege metadatele DDF și IMSM pe lângă propriile sale), astfel încât cel puțin veți putea accesa date despre el. De exemplu, dacă aceste unități sunt SATA, le puteți conecta doar la placa de bază.

Ca măsură de precauție, aș arunca toate discurile care folosesc HBA într-un spațiu de stocare de rezervă. Doar în cazul în care ceva nu merge bine.

Actualizați: văd progresul, vă pot sugera mai departe.

Puteți încerca să modificați metadatele cu editorul hexadecimal. Probabil, este nevoie de ceva de genul setarea manuală a acestora la același UUID.

O altă idee ar putea fi recrearea matricei cu mdadm --asumă-curat, care scrie doar metadate și asambla o matrice, dar omite componentele de zero.

  • În primul rând, ghiciți ordinea și aspectul corect; acest lucru ar putea fi dedus din metadatele actuale.
  • Construiți suprapunerile așa cum este descris în wiki, acest lucru vă va oferi infinite încercări
  • Când ați reușit, repetați asamblarea cu succes peste unități, nu dispozitive suprapuse

De asemenea, înainte de reasamblare, aș lua un alt set de unități (fără date valoroase), simula (încercați să repetați) problema cu ele și apoi încercați să le reparați mai întâi urmând aceste instrucțiuni.

Remember Monica avatar
drapel ru
Sfat bun - Știu că pot încerca să recuperez folosind mdadm, dar desigur că aș dori să evit acest lucru. Am încercat sugestia dvs. și mi-am actualizat întrebarea - practic, când fac ceea ce sugerați dvs., primesc o mulțime de discuri străine pe care le pot importa, după care am din nou două configurații străine cu discurile raid5.
Remember Monica avatar
drapel ru
Bună! Tocmai mi-am scris propriul răspuns și abia acum am văzut actualizarea ta. Editarea hexadecimală a fost eliminată deoarece datele DDF sunt protejate cu CRC și nu am reușit să reproduc CRC-urile cu ușurință. De asemenea, AFAIK, --assume-clean evită doar o resincronizare, mdadm nu zero date, niciodată. În esență, totuși, am venit în mod independent cu metoda pe care ați sugerat-o, de asemenea, cu metode oarecum diferite (kvm vs. suprapuneri etc.). Cel mai important, am rezolvat în sfârșit câteva mistere, de ex. indiferent dacă perccli add/del șterge datele sau nu, iar înțelegerea mea despre formatul megaraid pe disc este acum destul de bună :) Oricum, mulțumesc pentru sugestiile tale solide!

Postează un răspuns

Majoritatea oamenilor nu înțeleg că a pune multe întrebări deblochează învățarea și îmbunătățește legătura interpersonală. În studiile lui Alison, de exemplu, deși oamenii își puteau aminti cu exactitate câte întrebări au fost puse în conversațiile lor, ei nu au intuit legătura dintre întrebări și apreciere. În patru studii, în care participanții au fost implicați în conversații ei înșiși sau au citit transcrieri ale conversațiilor altora, oamenii au avut tendința să nu realizeze că întrebarea ar influența – sau ar fi influențat – nivelul de prietenie dintre conversatori.