Puncte:0

securitatea diferitelor scheme de învățare federate

drapel cn

toate, lucrez la învățarea federată și iată întrebarea mea:

Să presupunem că există doi participanți pentru a face învățarea federată. Pentru unele dintre modele (de exemplu, modele de regresie logistică, presupunem că o parte are anumite caracteristici $X_1$ si eticheta $y$, celălalt are câteva alte caracteristici $X_2$. Coeficienții sunt notați ca $W_1$ și $W_2$, respectiv), schemele folosesc „criptare completă/mască”, care criptează/secret împărtășesc toate rezultatele intermediare ale procesului de antrenament.

Cu toate acestea, există unele scheme care ascund doar părți din rezultatele intermediare, pentru cele mai „agresive”, doar $W_2X_2$ este criptat sau secret partajat. Apoi, este trimis celeilalte părți, iar cealaltă parte decriptează/recuperează $W_2X_2$ și continuă calculul ca în text simplu. Aceste scheme susțin că expunerea de $W_2X_2$ nu va dezvălui în continuare informații despre $X_2$ și este considerat sigur.

Întrebarea mea este cum să evaluez securitatea celui de mai târziu, există posibile atacuri pentru a recupera datele originale sau pentru a construi un nou model care este aproape la fel cu modelul federal federal de către doar unul dintre participanți?

Puncte:1
drapel vn

Iată un atac: https://arxiv.org/pdf/2011.09290.pdf
Sper că te ajută.

Postează un răspuns

Majoritatea oamenilor nu înțeleg că a pune multe întrebări deblochează învățarea și îmbunătățește legătura interpersonală. În studiile lui Alison, de exemplu, deși oamenii își puteau aminti cu exactitate câte întrebări au fost puse în conversațiile lor, ei nu au intuit legătura dintre întrebări și apreciere. În patru studii, în care participanții au fost implicați în conversații ei înșiși sau au citit transcrieri ale conversațiilor altora, oamenii au avut tendința să nu realizeze că întrebarea ar influența – sau ar fi influențat – nivelul de prietenie dintre conversatori.