În prezent, am un server Ubuntu 18.04.6 LTS cu 2 HD-uri de 6TB configurate în RAID1 astfel:
~$ cat /proc/mdstat
Personalități: [raid1] [liniar] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md0 : raid1 activ sdd2[0] sdb2[1]
5859412992 blocuri super 1.2 [2/2] [UU]
bitmap: 1/44 pagini [4KB], 65536KB bucată
Spațiul de pe unități se va epuiza în curând, așa că am cumpărat 2 HD-uri de 16TB pe care vreau să le adaug (deja conectate fizic la server, dar nu sunt configurate). Din câte am înțeles, nu le pot adăuga ca o configurație separată raid1 (oglindire 16 TB + oglindire 6 TB) și trebuie să trec la raid 10. Este adevărat? Nu pot să am cei doi de 16TB tot în RAID1 și montat ca un folder diferit?
Pot folosi cele 2x 16TB HD-uri în combinație cu cele 2x 6TB într-un RAID 10 sau trebuie să fie toate de aceeași dimensiune?
Cum pot să adaug cele 2 HD-uri și să migrez la noua configurație RAID fără a pierde datele existente?
Cerințe de afaceri:
- Redundanță / Toleranță la erori
- Citire/scriere rapidă (date mari)
- Mărește spațiul HD, nu trebuie să acționeze neapărat ca o singură unitate (poate fi un nou punct de montare / folder dacă este mai ușor)
ACTUALIZAȚI:
Urmând instrucțiunile de la linkul de mai jos, am adăugat cele două unități ca un raid1 suplimentar folosind următoarele comenzi, am repornit computerul și acum nu mai pot intra în el.
https://www.digitalocean.com/community/tutorials/how-to-create-raid-arrays-with-mdadm-on-ubuntu-18-04#creating-a-raid-1-array
~$ lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT
NUME DIMENSIUNE FSTYPE TIP MOUNTPOINT
disc sda 14.6T
disc sdb 5.5T
ââsdb1 953M vfat parte
ââsdb2 5.5T linux_raid_member partea
ââmd0 5.5T LVM2_member raid1
ââvg-swap 186.3G swap lvm [SWAP]
ââvg-root 93.1G ext4 lvm /
ââvg-tmp 46.6G ext4 lvm /tmp
ââvg-var 23.3G ext4 lvm /var
ââvg-home 5.1T ext4 lvm /home
disc sdc 14.6T
disc sdd 5.5T
ââsdd1 953M vfat part /boot/efi
ââsdd2 5.5T linux_raid_member parte
ââmd0 5.5T LVM2_member raid1
ââvg-swap 186.3G swap lvm [SWAP]
ââvg-root 93.1G ext4 lvm /
ââvg-tmp 46.6G ext4 lvm /tmp
ââvg-var 23.3G ext4 lvm /var
ââvg-home 5.1T ext4 lvm /home
~$ sudo mdadm --create --verbose /dev/md1 --level=1 --raid-devices=2 /dev/sda /dev/sdc
sudo mkfs.ext4 -F /dev/md1
sudo mkdir -p /mnt/md1
sudo mount /dev/md1 /mnt/md1
~$ df -h -x devtmpfs -x tmpfs
Filesystem Size Used Avail Use% Montat pe
/dev/mapper/vg-root 92G 7.5G 79G 9% /
/dev/sdd1 952M 4,4M 947M 1% /boot/efi
/dev/mapper/vg-var 23G 6.0G 16G 28% /var
/dev/mapper/vg-tmp 46G 54M 44G 1% /tmp
/dev/mapper/vg-home 5.1T 2.5T 2.4T 51% /home
/dev/md1 15T 19M 14T 1% /mnt/md1
~$ sudo mdadm --detail --scan | sudo tee -a /etc/mdadm/mdadm.conf
ARRAY /dev/md/0 metadata=1.2 name=mypc:0 UUID=someweirdhash
ARRAY /dev/md1 metadate=1.2 name=mypc:1 UUID=someweirdhash
~$ sudo update-initramfs -u
update-initramfs: se generează /boot/initrd.img-4.15.0-166-generic
~$ sudo repornire
Nu se poate ssh pe server după repornire.
NU AM FĂCUT ASTA: (care sunt ultimele două zerouri de mai jos?) Nu eram sigur ce face această comandă și mi-am imaginat că ar putea seta noua matrice să fie cea de pornire, așa că poate că nu o rula a rupt-o:
~$ echo '/dev/md1 /mnt/md1 ext4 defaults,nofail,discard 0 0' | sudo tee -a /etc/fstab