Puncte:2

Exemplu de bază proastă pentru zăbrele (cel mai rău caz pentru LLL)

drapel es

Rezumat. Dată o anumită dimensiune $n$ (Spune $n=50$), este posibil să descriem în mod explicit o rețea $L$ si o baza $B$ de $L$ astfel încât $$ \frac{ \| LLL(B)_1 \| }{ \lambda_1(L) } > 1,02^n $$ Unde $LLL(B)_1$ este primul vector al bazei reduse de LLL al $B$ (pentru $\delta=1$ Spune)? Constanta 1,02 este cea dată în „LLL în medie” de NguyenâStehlé. Sau cel puțin, cum pot produce (determinist) o astfel de bază $B$?


Încerc să înțeleg cum să produc (determinist) o rețea $L \subset \mathbb R^n$ și o „bază proastă” pentru $L$, în orice dimensiune dată, să zicem $n=50$. Prin „bază proastă” $(b_1, ..., b_n)$, vreau să spun că atunci când îi aplicăm algoritmul LLL (să zicem pentru $\delta = 1$) atunci obținem o bază $(v_1, ..., v_n)$ astfel încât $\|Â v_1 \|$ este „pe cât posibil” de $\lambda_1(L)$. Limita superioară $\| v_1 \| \leq (\delta - 1/4)^{-(n-1)/2} \lambda_1(L)$ de obicei nu este ascuțit, de obicei avem $\| v_1 \| \leq 1.02^n \lambda_1(L)$.

sunt interesat de explicit exemple în care s-ar putea descrie $b_i$este ușor (sau definiți în mod explicit o matrice unimodulară $U$ asta ar da o bază proastă $B$ dintr-o „bază bună” $G$, care ar putea fi folosit pentru a calcula $\lambda_1(L)$). Am văzut că se poate folosi uneori $B = HNF(G)$, dar s-ar putea să nu funcționeze întotdeauna pentru a obține o bază proastă și, prin urmare, nu este explicit (și nici foarte clar pentru mine...).

Watson avatar
drapel es
În Nguyen, Stehlé - LLL on the Average, ei spun: „Este ușor să demonstrezi că aceste limite sunt strânse în cel mai rău caz: ambele sunt atinse pentru o bază redusă a unor rețele speciale”. Practic, întrebarea mea este că aș dori să știu exact (exact, explicit) care sunt acele grilaje.
Puncte:3
drapel es

In sfarsit am gasit un raspuns! Este explicat în teza lui N. Gama (pag. 36), disponibilă Aici. Copiez matricea ale cărei rânduri formează o bază $B$ a unui zăbrele pentru care limita superioară $$\| LLL(B)_1 \| \leq (4/3)^{(n-2)/2} \lambda_1(L)$$ este de fapt strâns (ascuțit) pentru toți $n$. (Rețineți exponentul $n-2$ si nu $n-1$).

bază

Unde $\gamma_2 = \sqrt{ 4/3 }$ este constanta lui Hermite în dimensiunea 2. Rețineți că matricea triunghiulară din dreapta este matricea coeficienților Gram-Schmidt, intrările în afara diagonalei sunt toate $1/2$ care este maximul permis în definirea bazei LLL reduse.

Puncte:2
drapel ng

Am văzut că se poate folosi uneori $B=HNF(G)$, dar s-ar putea să nu funcționeze întotdeauna pentru a obține o bază proastă și, prin urmare, nu este explicit (și nici foarte clar pentru mine...).

Lăsa $\mu : \mathbb{R}^{n\times n}\la \mathbb{R}_{\geq 0}$ fi o măsură a calității unei baze. De exemplu, s-ar putea avea $\mu(B) = \lVert LLL(B)_1\rVert$ fi norma primei coordonate a reducerii LLL a $B$ (după cum sugerați), dar există multe alte măsuri de calitate posibile.

Scopul utilizării HNF nu este că duce la o bază care este „cea mai proastă” în mod abstract (pentru majoritatea măsurilor de calitate, înmulțirea cu o matrice unimodulară aleatorie de normă ridicată de operator ar duce probabil la o bază de calitate foarte scăzută), dar că este cel mai rău pe care orice adversar îl va folosi în mod plauzibil. Acest lucru se datorează următorului rezultat simplu.

Lăsa $\mu$ să fie eficient calculabil. Lăsa $A$ fi un adversar eficient care, la intrare $B$, calculează unele $U$ astfel încât $\mu(BU) \leq f(B)$ pentru o funcție de mărginire $f$. Apoi, există un adversar eficient $A'$ care calculează $U$ astfel încât $\mu(BU) \leq \min(f(B), f(HNF(B))$.

În special, $HNF(B)$ este un invariant al lui zăbrele, și nu baza particulară utilizată. Prin urmare, rezultatul de mai sus spune că cea mai proastă bază de calitate pe care o poate găsi un adversar este cel mult $f(HNF(B))$, deci acordarea adversarului o bază non-HNF poate duce doar la calculul a mai bine baza de calitate decât ar avea-o cu o bază HNF.

Adversarul $A'$ este ușor de descris. Pur și simplu rulează $A$ pe $B$ și $HNF(B)$, și returnează baza care (dintre acestea două) minimizează măsura calității. Acest lucru necesită ca măsura calității să fie eficient calculată, dar în majoritatea cazurilor acest lucru este adevărat.


Editați | ×: Ca răspuns la clarificarea dvs. din comentarii, vă voi indica un răspuns parțial, care este „în principiu da, dar nu am o matrice explicită la îndemână”. Următoarele sunt din capitolul 3 din teza lui Seungki Kim.

Teorema 3.4 Lăsa $n$ să fie suficient de mare, $p\în (0.100)$, și să presupunem $k < \frac{n}{6(\log n + K(p))}$ este un întreg pozitiv, unde $K(p)$ este o constantă care depinde numai de $p$. Atunci cel putin $p\%$ de $n$-dimensională $(1, 1/2)$-Bazele LLL au

$$\forall 1\leq i \leq n-1 : \frac{k-1}{k}\frac{1}{2}\leq |\mu_{i+1,i}|\leq \frac{ 1}{2}.$$

Aici „majoritatea” necesită îngrijire tehnică pentru a fi corect (a se vedea teza lui Kim pentru detalii). Kim continuă cum să discute acest rezultat este contraintuitiv, în sensul că implică că pentru „majoritatea bazelor LLL $B$", $\lVert LLL(B)_1\rVert \aprox (4/3)^{n/4}\aprox (1,0745)^n$, cel mai rău caz legat pentru LLL. Dar asta este de asemenea se știe că, pentru majoritatea distribuțiilor pe baze de rețea $B$, $\lVert LLL(B)_1\rVert \aproximativ 1,02^n$ --- ce dă?

Pretenția este că $LLL$ este cumva părtinitoare, în sensul că o face nu transportă distribuțiile menționate mai sus peste bazele rețelei la distribuția uniformă peste bazele LLL.

Prin urmare, pentru a găsi baze LLL proaste, are sens să eșantionăm (direct) matricele care satisfac condiția LLL (mai degrabă decât să încercați să utilizați LLL pentru a calcula bazele experimental). Nu m-am gândit dacă modalitatea naturală de a face acest lucru (un vector la un moment dat, uniform la întâmplare dintr-un set adecvat, condiționat de păstrarea condiției LLL) va da rezultatul dorit. Poate exista o modalitate mai inteligentă de a eșantiona uniform o bază LLL (care, după rezultatul lui Kim, este probabil o bază proastă). Dar, în lumina tezei lui Kim, este un lucru rezonabil să încerci.

Merită menționat că rezultatul lui Kim este (cel puțin) un rezultat al existenței. În mod plauzibil, motivul pentru care LLL se comportă bine în medie este că limita din cel mai rău caz este liberă. Lucrările lui Kim arată însă că acest lucru nu este adevărat.

Watson avatar
drapel es
Vă mulțumim pentru intrare. Dar aș dori ceva mai explicit, iar măsura mea de calitate ar fi mai degrabă $$ \mu(B) := \frac{ \| LLL(B)_1 \| }{ \lambda_1(L) } . $$ Este posibil să găsim în mod explicit baza $B$ (în rangul $n=50$ să spunem) astfel încât $\mu(B) > 1.02^n$ ?
Mark avatar
drapel ng
@Watson Am actualizat răspunsul. În principiu, răspunsul este da, prin eșantionarea bazelor LLL uniform aleatoare, dar nu știu cum să fac acest lucru în mod liber.
Watson avatar
drapel es
Mulțumesc pentru actualizare; Nu știam despre teza lui Kim. Am găsit de fapt un răspuns; nu este evident (în timp ce multe referințe afirmă că limita superioară LLL este ascuțită... fără explicație!).

Postează un răspuns

Majoritatea oamenilor nu înțeleg că a pune multe întrebări deblochează învățarea și îmbunătățește legătura interpersonală. În studiile lui Alison, de exemplu, deși oamenii își puteau aminti cu exactitate câte întrebări au fost puse în conversațiile lor, ei nu au intuit legătura dintre întrebări și apreciere. În patru studii, în care participanții au fost implicați în conversații ei înșiși sau au citit transcrieri ale conversațiilor altora, oamenii au avut tendința să nu realizeze că întrebarea ar influența – sau ar fi influențat – nivelul de prietenie dintre conversatori.