Acum câteva zile, sistemul SSD de pe desktopul meu a eșuat complet. Cu o săptămână sau două înainte de apariția unor simptome: ocazional sistemul a pornit ca doar citire, au apărut unele erori. Dar după o repornire, totul a funcționat bine. SMART nu a arătat absolut nimic.
Acesta este computerul meu principal de lucru și are 10 ani (cu unele upgrade-uri). Am backup-uri adecvate configurate pe un HDD și, de asemenea, datele importante sunt trimise către un nor pe lângă HDD.
Așa că m-am gândit: „Bine, sunt prea ocupat acum, sistemul eșuează, dar funcționează. Poate că este SSD-ul, poate placa de bază sau sursa de alimentare moare. Am copii de rezervă. Voi continua să lucrez ceva timp și dacă colorează complet, înlocuiesc SSD-ul sau tot sistemul”.
După ce în cele din urmă s-a vopsit complet (era foarte incomod la momentul respectiv), am aflat că este SSD-ul, am cumpărat altul foarte repede, am restaurat un backup și am fost suficient de fericit.
Dar totuși am pierdut o parte din munca mea (nu una mare, dar totuși) între copii de rezervă.
Folosesc btrfs de mult timp. M-am gândit că trebuie să existe o modalitate mai bună de a face asta folosind raid1. Așa că am cumpărat un alt SSD și am făcut un raid.
Planul era în cazul în care un SSD nu reușește să monteze raid-ul degradat
opțiunea, convertiți-o în singur
, comandați un disc și continuați să lucrați. Dacă celălalt SSD nu eșuează imediat, ar trebui să fie suficient de bun.
Dar există o problemă. Imaginează-ți același caz de eșec. De unde știu ce disc este vinovat?
Problema este că raid1 poate fi montat ca degradat o singură dată, deci este greu să îl testați.
Are cineva vreo idee?