tl;dr. Există o modalitate de a porni corect un RAID1 bazat pe software cu o unitate lipsă sau eșuată (care nu a fost eșuată mai întâi de utilizator)?
Pentru a fi clar, este posibilă pornirea unui RAID1 bazat pe software fără un hard disk DACĂ ați eșuat corect unitatea înainte de a reporni. Știu că acest lucru este subiectiv, dar nu pare a fi o soluție plauzibilă și nici un răspuns acceptabil. De exemplu; O instalație primește o lovire de energie și hard disk-ul se defectează în același timp în care se întrerupe curentul. Încercarea de a porni cu un hard disk degradat care nu a eșuat „în mod corespunzător” va duce la trecerea sistemului în modul de urgență.
Am citit multe postări de pe aici și de pe alte forumuri care recomandă să instalați grub pe toate partițiile sau să reconstruiți grub manual, adăugați nofail
la /etc/fstab
opțiuni, sau alte soluții aparent simple; dar realitatea este că niciuna dintre aceste recomandări nu a funcționat.
Deși am acceptat că acest lucru nu este posibil, ceva despre asta nu este ușor. Deci, văd dacă altcineva are această problemă sau are o soluție la această problemă.
Mediul meu:
Am o placă de bază mai veche care nu acceptă UEFI, așa că am modul vechi de pornire/MBR.
OS:
cat /etc/redhat-release
Red Hat Enterprise Linux Workstation versiunea 7.6 (Maipo)
Nucleu:
uname âr
3.10.0-957.el7.x86_64
mdadm:
mdadm âversiune
mdadm â v4.1-rc1 22-03-2018
RAID-ul meu este RAID1 pe trei unități. (sda,sdb,sdc
) și există 4 partiții
md1 - /boot
md2 - /home
md3 - /
md4 - swap
Am instalat grub pe toate partițiile și m-am asigurat că toate partițiile de pornire au marcajul de pornire.
fdisk /dev/sd[a,b,c]
toate arată a *
în câmpul de pornire de lângă partiția corespunzătoare
-- și --
grub2-install /dev/sd[a,b,c]
(ca comenzi separate, cu rezultate âinstalate cu succesâ).
Replicarea problemei:
- Opriți sistemul cu toate unitățile atribuite RAID și RAID-ul complet operațional.
- Scoateți hard diskul
- Sistemul de alimentare este pornit
Rezultate:
Sistemul va porni dincolo de grub. Gdm va încerca să afișeze ecranul de conectare, dar după aproximativ 20 de secunde, va eșua și va ajunge la o consolă de urgență. Există multe părți lipsă dintr-un sistem „normal”. De exemplu; /boot și /etc nu există. Nu pare să fie afișate mesaje sau probleme de panică ale nucleului dmesg
.
Din nou, cheia aici este; RAID-ul trebuie să fie complet asamblat, oprit și scos o unitate. Dacă eșuați corect o unitate și o eliminați din RAID, atunci puteți porni fără unitate.
Exemplu:
mdadm --manage /dev/md[1,2,3,4] --fail /dev/sda[1,2,3,4]
(ca comenzi separate)
mdadm --manage /dev/md[1,2,3,4] --remove /dev/sda[1,2,3,4]
(ca comenzi separate)
Știu că acest lucru pare banal, dar încă nu am găsit o soluție viabilă pentru pornirea unui sistem cu un RAID1 degradat. Ai crede că aceasta ar trebui să fie o problemă simplă cu o soluție simplă, dar nu pare să fie cazul.
Orice ajutor, contribuție sau sugestie ar fi foarte apreciat.