Puncte:0

Echilibrare de încărcare per port de rețea?

drapel br

Teoretic sunt:

  • client
  • LIVRE
  • SERVER A
  • SERVER B

Întrebare: Există o soluție de echilibrare a încărcăturii (fie prin software, fie plătită în cloud) care poate redirecționa „clienții” către „SERVER A” sau „SERVER B” în funcție de ce port de rețea s-au conectat la LB?

Dacă sunt software, probabil că există o soluție pentru a avea reguli de firewall pe LB, dar eu sunt în principal în căutarea unei soluții plătite, de exemplu: AWS, GCP sau Azure pot face acest tip de LBing la un SERVER care nu este în DC-urile lor?

Puncte:0
drapel st

Ceea ce vrei să spui se numește proxy invers. Atât AWS, cât și Google Cloud oferă caracteristici similare în serviciile lor Load Balancer.

Oricum, rețineți că din punct de vedere tehnic, Load Balancer și rutarea bazată pe cale sau pe bază de port sunt lucruri diferite, deși a fost implementată ca o caracteristică Load Balancer.

Load Balancer își propune să monitorizeze ținte și să redirecționeze cererile numai către cele sănătoase.

Rutarea bazată pe cale sau pe porturi are ca scop redirecționarea diferitelor tipuri de solicitări către diferite grupuri de ținte.

jim7475 avatar
drapel br
multumesc mult pentru raspuns! Dar cred că voi cumpăra cel mai ieftin VM de undeva care are un SLA bun și voi crea o regulă de firewall :D și voi actualiza regula de firewall cu un script dacă probele de sănătate spun

Postează un răspuns

Majoritatea oamenilor nu înțeleg că a pune multe întrebări deblochează învățarea și îmbunătățește legătura interpersonală. În studiile lui Alison, de exemplu, deși oamenii își puteau aminti cu exactitate câte întrebări au fost puse în conversațiile lor, ei nu au intuit legătura dintre întrebări și apreciere. În patru studii, în care participanții au fost implicați în conversații ei înșiși sau au citit transcrieri ale conversațiilor altora, oamenii au avut tendința să nu realizeze că întrebarea ar influența – sau ar fi influențat – nivelul de prietenie dintre conversatori.