Am avut o configurare RAID 6 în Cockpit UI cu mai multe partiții. A existat o partiție în special pe care am vrut să o extind de la 10TB la 11TB folosind spațiul disponibil și am încercat pe /dev/md127p6 folosind „growpart /dev/md127p6 1”. După aceea, am observat că pot accesa unele dintre punctele de montare din sistem sub această matrice (două dintre ele de fapt).
Din acel moment am decis să repornesc (am bifat /proc/mdstat și nu făcea nimic). Odată ce serverul a revenit, toate partițiile au dispărut pentru acest raid.
Odată ce serverul a revenit online, am observat că dimensiunea raid-ului era diferită (de la 189TiB la 143TiB). Evident că am greșit ceva, dar mă întreb dacă are cineva idei înainte să o iau de la capăt.
mdadm --detail /dev/md127 /dev/md127:
Versiune: 1.2
Ora creării: Luni, 17 mai 20:04:04 2021
Nivel raid: raid6
Dimensiune matrice: 153545080832 (146432,00 GiB 157230,16 GB)
Dimensiune dezvoltator folosit: 11811160064 (11264,00 GiB 12094,63 GB)
Dispozitive raid: 15
Total dispozitive: 15
Persistență: Superblocul este persistent
Bitmap intenție: intern
Ora actualizării: Luni, 2 august 20:05:13 2021
Stare: curat
Dispozitive active: 15 Dispozitive de lucru: 15
Dispozitive eșuate: 0
Dispozitive de rezervă: 0
Aspect: stânga-simetric
Dimensiune bucată: 4K
Politica de consistență: bitmap
Nume: storback:backup
UUID: c8d289dd:2cb2ded3:cbcff4cd:1e7367ee
Evenimente: 150328
Număr Major Minor Raid Starea dispozitivului
0 8 32 0 sincronizare activă /dev/sdc
1 8 48 1 sincronizare activă /dev/sdd
2 8 64 2 sincronizare activă /dev/sde
3 8 80 3 sincronizare activă /dev/sdf
4 8 96 4 sincronizare activă /dev/sdg
5 8 112 5 sincronizare activă /dev/sdh
6 8 128 6 sincronizare activă /dev/sdi
7 8 144 7 sincronizare activă /dev/sdj
8 8 160 8 sincronizare activă /dev/sdk
9 8 192 9 sincronizare activă /dev/sdm
10 8 176 10 sincronizare activă /dev/sdl
11 8 208 11 sincronizare activă /dev/sdn
12 8 224 12 sincronizare activă /dev/sdo
13 8 240 13 sincronizare activă /dev/sdp
14 65 0 14 sincronizare activă /dev/sdq