Puncte:0

Adăugarea spațiului de stocare la configurarea RAID1

drapel de

În prezent, am un server Ubuntu 18.04.6 LTS cu 2 HD-uri de 6TB configurate în RAID1 astfel:

~$ cat /proc/mdstat
Personalități: [raid1] [liniar] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md0 : raid1 activ sdd2[0] sdb2[1]
      5859412992 blocuri super 1.2 [2/2] [UU]
      bitmap: 1/44 pagini [4KB], 65536KB bucată

Spațiul de pe unități se va epuiza în curând, așa că am cumpărat 2 HD-uri de 16TB pe care vreau să le adaug (deja conectate fizic la server, dar nu sunt configurate). Din câte am înțeles, nu le pot adăuga ca o configurație separată raid1 (oglindire 16 TB + oglindire 6 TB) și trebuie să trec la raid 10. Este adevărat? Nu pot să am cei doi de 16TB tot în RAID1 și montat ca un folder diferit?

Pot folosi cele 2x 16TB HD-uri în combinație cu cele 2x 6TB într-un RAID 10 sau trebuie să fie toate de aceeași dimensiune?

Cum pot să adaug cele 2 HD-uri și să migrez la noua configurație RAID fără a pierde datele existente?

Cerințe de afaceri:

  1. Redundanță / Toleranță la erori
  2. Citire/scriere rapidă (date mari)
  3. Mărește spațiul HD, nu trebuie să acționeze neapărat ca o singură unitate (poate fi un nou punct de montare / folder dacă este mai ușor)

ACTUALIZAȚI:

Urmând instrucțiunile de la linkul de mai jos, am adăugat cele două unități ca un raid1 suplimentar folosind următoarele comenzi, am repornit computerul și acum nu mai pot intra în el.

https://www.digitalocean.com/community/tutorials/how-to-create-raid-arrays-with-mdadm-on-ubuntu-18-04#creating-a-raid-1-array

~$ lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT
NUME DIMENSIUNE FSTYPE TIP MOUNTPOINT
disc sda 14.6T
disc sdb 5.5T
ââsdb1 953M vfat parte
ââsdb2 5.5T linux_raid_member partea
  ââmd0 5.5T LVM2_member raid1
    ââvg-swap 186.3G swap lvm [SWAP]
    ââvg-root 93.1G ext4 lvm /
    ââvg-tmp 46.6G ext4 lvm /tmp
    ââvg-var 23.3G ext4 lvm /var
    ââvg-home 5.1T ext4 lvm /home
disc sdc 14.6T
disc sdd 5.5T
ââsdd1 953M vfat part /boot/efi
ââsdd2 5.5T linux_raid_member parte
  ââmd0 5.5T LVM2_member raid1
    ââvg-swap 186.3G swap lvm [SWAP]
    ââvg-root 93.1G ext4 lvm /
    ââvg-tmp 46.6G ext4 lvm /tmp
    ââvg-var 23.3G ext4 lvm /var
    ââvg-home 5.1T ext4 lvm /home
~$ sudo mdadm --create --verbose /dev/md1 --level=1 --raid-devices=2 /dev/sda /dev/sdc
sudo mkfs.ext4 -F /dev/md1
sudo mkdir -p /mnt/md1
sudo mount /dev/md1 /mnt/md1
~$ df -h -x devtmpfs -x tmpfs
Filesystem Size Used Avail Use% Montat pe
/dev/mapper/vg-root 92G 7.5G 79G 9% /
/dev/sdd1 952M 4,4M 947M 1% /boot/efi
/dev/mapper/vg-var 23G 6.0G 16G 28% /var
/dev/mapper/vg-tmp 46G 54M 44G 1% /tmp
/dev/mapper/vg-home 5.1T 2.5T 2.4T 51% /home
/dev/md1 15T 19M 14T 1% /mnt/md1
~$ sudo mdadm --detail --scan | sudo tee -a /etc/mdadm/mdadm.conf
ARRAY /dev/md/0 metadata=1.2 name=mypc:0 UUID=someweirdhash
ARRAY /dev/md1 metadate=1.2 name=mypc:1 UUID=someweirdhash
~$ sudo update-initramfs -u
update-initramfs: se generează /boot/initrd.img-4.15.0-166-generic
~$ sudo repornire

Nu se poate ssh pe server după repornire.

NU AM FĂCUT ASTA: (care sunt ultimele două zerouri de mai jos?) Nu eram sigur ce face această comandă și mi-am imaginat că ar putea seta noua matrice să fie cea de pornire, așa că poate că nu o rula a rupt-o:

~$ echo '/dev/md1 /mnt/md1 ext4 defaults,nofail,discard 0 0' | sudo tee -a /etc/fstab
drapel in
Dacă punctul doi este o cerință legitimă, atunci RAID1 nu este soluția. În ceea ce privește modul de a proceda, nu văd de ce sistemul dumneavoastră nu ar putea suporta mai multe matrice RAID pe diferite puncte de montare. Unul de șase gigabiți și al doilea de șaisprezece
Terrance avatar
drapel id
RAID0 poate avea toate dimensiuni diferite, dar un RAID1 este o oglindă, așa că trebuie să fie aceleași. Cu toate acestea, un RAID0+1 este o oglindă de dungi în care puteți oglindi un set de unități RAID0 în dungi, dar ambele ar trebui să aibă aceeași dimensiune ca un RAID0 de 6TB+16TB. Dar creșterea unui RAID etc. are întotdeauna un risc de moștenire de pierdere a datelor, așa că întotdeauna cel mai bine să vă asigurați că aveți o copie de rezervă completă înainte de a efectua orice modificări RAID. Consultați: https://www.thegeekstuff.com/2011/10/raid10-vs-raid01/ pentru o explicație bună a RAID10 vs RAID0+1
CyborgDroid avatar
drapel de
@matigo Am încercat să adaug cele două noi unități ca un raid1 suplimentar și acum nu pot ssh în server (vezi actualizarea în întrebare).Am încercat să conectez un monitor la el, dar nu a funcționat din anumite motive chiar înainte de aceste modificări, așa că nu sunt sigur ce să fac acum.

Postează un răspuns

Majoritatea oamenilor nu înțeleg că a pune multe întrebări deblochează învățarea și îmbunătățește legătura interpersonală. În studiile lui Alison, de exemplu, deși oamenii își puteau aminti cu exactitate câte întrebări au fost puse în conversațiile lor, ei nu au intuit legătura dintre întrebări și apreciere. În patru studii, în care participanții au fost implicați în conversații ei înșiși sau au citit transcrieri ale conversațiilor altora, oamenii au avut tendința să nu realizeze că întrebarea ar influența – sau ar fi influențat – nivelul de prietenie dintre conversatori.