Puncte:0

Oglindirea traficului cu Nginx (pentru a crește disponibilitatea și a reduce latența)

drapel in

Trebuie să dublez/oglindesc traficul care vine pe serverul meu.

Adică, am N servere backend A1 A2 ... An(n>=2) și un nginx ca reverse-proxy&load-balancer.

Tot traficul care vine către Nginx redirecționează atât către Ax, cât și către Ay(x!=y) în paralel, dacă unul dintre servere este oprit (timeout sau 5xx), atunci răspunsul celuilalt server poate fi folosit imediat și returnează rezultatul clientului.

Prin oglindirea traficului (nu reîncercați dar trimite cererile duplicate în paralel), pot crea redundanță, înseamnă că mai multe servere backend pot procesa o solicitare în același timp.

Trebuie să răspund clientului în termen de 30 ms, dacă se setează reîncercări = 1, timpul de expirare trebuie setat la 15 ms (greu de arhivat), astfel încât oglindirea traficului poate fi o soluție.

Este posibil?

Puncte:0
drapel np

Întrebarea ta aproape că are un răspuns în sine în general. Acestea pe care le descrieți sunt doar echilibrarea sarcinii cu controale de sănătate. Acest lucru este cu siguranță posibil cu nginx și astfel de configurare sunt descrise în documentele lor: http://nginx.org/en/docs/http/load_balancing.html

drapel in
De fapt, vreau să creez niște redundanțe, backend-ul java adesea GC tânăr (10ms-200ms), dar clientul meu necesită răspunsurile aplicației mele în 30ms. deci duplicarea traficului este cea mai bună soluție.

Postează un răspuns

Majoritatea oamenilor nu înțeleg că a pune multe întrebări deblochează învățarea și îmbunătățește legătura interpersonală. În studiile lui Alison, de exemplu, deși oamenii își puteau aminti cu exactitate câte întrebări au fost puse în conversațiile lor, ei nu au intuit legătura dintre întrebări și apreciere. În patru studii, în care participanții au fost implicați în conversații ei înșiși sau au citit transcrieri ale conversațiilor altora, oamenii au avut tendința să nu realizeze că întrebarea ar influența – sau ar fi influențat – nivelul de prietenie dintre conversatori.