Încerc să înțeleg procesul de recuperare a unui promovabil
resursă după „pcs cluster stop --all” și închiderea ambelor noduri.
Am un cvorum cu două noduri + qdevice cu o resursă DRBD.
Acesta este un rezumat al resurselor dinaintea testului meu. Totul este
funcționează bine și server2 este stăpânul DRBD.
* fence-server1 (stonith:fence_vmware_rest): Server2 pornit
* fence-server2 (stonith:fence_vmware_rest): Server1 pornit
* Setul de clonare: DRBDData-clone [DRBDData] (promobil):
* Masters: [ server2 ]
* Sclavi: [ server1 ]
* Grup de resurse: nfs:
* drbd_fs (ocf::heartbeat:Filesystem): Server2 pornit
apoi emit "pcs cluster stop --all". Clusterul va fi oprit
ambele noduri conform așteptărilor.
Acum repornesc server1 ( anterior slave ) și poweroff server2 (
anterior maestru ). Când serverul1 repornește, acesta va îngrădi serverul2
și pot vedea că server2 pornește pe vcenter, dar tocmai am apăsat
orice cheie pe grub pentru a vă asigura că serverul2 nu va reporni, în schimb ea
ar fi doar „în pauză” pe ecranul grub.
SSH pe server1 și rulează starea computerului primesc:
Nume cluster: cluster1
Rezumatul grupului:
* Stivă: corosync
* DC curent: server1 (versiunea 2.1.0-8.el8-7c3f660707) - partiție cu cvorum
* Ultima actualizare: Luni, 2 mai 09:52:03 2022
* Ultima modificare: luni 2 mai 09:39:22 2022 de către root prin cibadmin pe server1
* 2 noduri configurate
* 11 instanțe de resurse configurate
Lista de noduri:
* Online: [ server1 ]
* OFFLINE: [ server2 ]
Lista completă a resurselor:
* fence-server1 (stonith:fence_vmware_rest): oprit
* fence-server2 (stonith:fence_vmware_rest): Server1 pornit
* Setul de clonare: DRBDData-clone [DRBDData] (promobil):
* Sclavi: [ server1 ]
* Oprit: [ server2 ]
* Grup de resurse: nfs:
* drbd_fs (ocf::heartbeat:Filesystem): oprit
Iată care sunt contracțiile:
constrângere de # buc
Constrângeri de locație:
Resursa: fence-server1
Dezactivat pe:
Nod: server1 (scor:-INFINITY)
Resursa: fence-server2
Dezactivat pe:
Nod: server2 (scor:-INFINITY)
Constrângeri de comandă:
promovați DRBDData-clone apoi porniți nfs (tip: Obligatoriu)
Constrângeri de amplasare:
nfs cu DRBDData-clone (scor:INFINITY) (rsc-role:Started)
(cu-rsc-rol:Maestru)
Constrângeri de bilet:
# sudo crm_mon -1A
...
Atributele nodului:
* Nod: server2:
* master-DRBDData: 10000
Așa că văd că există cvorum, dar serverul1 nu este niciodată promovat ca
DRBD master, deci resursele rămase vor fi oprite până la server2
s-a întors.
- Ce trebuie să fac pentru a forța promovarea și a reveni fără
reporniți server2?
- De ce dacă în loc să repornesc server1 și să o opresc server2 repornesc
server2 și poweroff server1 clusterul se poate recupera de la sine?
- Înseamnă asta că dintr-un motiv oarecare în timpul „opririi clusterului --toate” datele drbd s-au desincronizat?