Puncte:2

Discrepanța $δ$ în algoritmul Berlekamp-Massey

drapel ar

Am o întrebare cu privire la Algoritmul BerlekampâMassey. Mă poate ghida cineva să înțeleg ideea/intuiția acestui algoritm?

Conform explicației din Wikipedia, în fiecare iterație, algoritmul încearcă să calculeze discrepanța $δ$.

Dacă $δâ 0$, algoritmul va actualiza polinomul de localizare a erorilor folosind un polinom de actualizare $B(x)$. Cu toate acestea, în acest moment, știu că polinomul de localizare a erorilor rezultat va face $δ$ în iterația curentă devin zero. Dar, ce zici de toate $δ$ în iterațiile anterioare? Este foarte greu de vizualizat că algoritmul face de fapt toate anterioare $δ=0$.

Puncte:1
drapel sa

De fapt, BMA este un algoritm recursiv și discrepanța $$d_{n+1}=\hat{s}_{n+1}-s_{n+1}$$este diferență între

  • Care este polinomul actual $C^{\{n\}}$ determinat de BMA pe baza secvenței $(s_0,\cdots,s_n)$ prezice ca următorul simbol $\hat{s}_{n+1}$, și
  • Simbolul propriu-zis $s_{n+1}$.

Acesta este ceea ce este folosit pentru a actualiza polinomul dacă este necesar. Prin inducție, toate discrepanțele sunt atunci zero.

ytj_banana avatar
drapel ar
Dar nu am putut vizualiza din cazul că adăugarea polinomului actualizat, $B(x)$ poate face ca noul polinom de localizare a erorilor să genereze toate $s_0,\cdots,s_{n-1}$ anterioare cu 0 discrepanțe. .Te superi să-mi dai o mică dovadă pentru a demonstra că este adevărat?
ytj_banana avatar
drapel ar
Ecuația care mă deranjează este $C(x)
kodlu avatar
drapel sa
Nu utilizați wikipedia ca sursă autorizată. Nu este ușor să determinați unde greșesc, dacă greșesc. Dovada merge prin inducție dar este puțin delicată, nu am timp să o descriu acum. Cartea lui Blahut *Algoritmi rapidi pentru procesarea semnalului* are o descriere bună, în secțiunea 7.4. Cartea poate fi găsită online.
ytj_banana avatar
drapel ar
Vă mulțumim că ați recomandat cartea. Este foarte util!! Am înțeles acum!
Puncte:1
drapel us

Algoritmul Berlekamp-Massey este o procedură pentru LFSR sinteză; aceasta. găsește cel mai scurt LFSR care va produce secvența dată $s_0, s_1, s_2, \cdots$. Algoritmul este iterativ (nu recursiv, deoarece nu se numește pe sine) prin aceea că examinează secvența câte un simbol până când a procesat întreaga secvență dată. La sfârșitul $i$-a iterație, algoritmul a examinat $s_0, s_1, \cdots, s_{i-1}$ (examinarea $s_i, s_{i+1}, \cdots$ este încă să vină) și a sintetizat cel mai scurt LFSR care va genera $s_0, s_1, \cdots, s_{i-1}$. Apoi, la începutul $(i+1)$-a iterație, algoritmul determină dacă $s_i$ va fi generat de LFSR pe care tocmai l-a găsit calculând ceea ce Următorul ieșire $\hat{s}_i$ ar fi din LFSR tocmai sintetizat și comparându-l cu ceea ce noi vrei LFSR pentru a genera, și anume, dat $s_i$. Diferența se numește discrepanţă $\delta_i$ si daca $\delta_i$ se întâmplă să fie diferit de zero, the anterior-LFSR sintetizat este actualizat astfel încât LFSR actualizat va calcula $s_0, s_1, \cdots, s_{i-1}, {\mathbf s_i}$ (sublinierea adăugată). Această actualizare ar putea crește lungimea LFSR și, de asemenea, poate modifica atingerile de feedback sau doar schimba atingerile de feedback. Se poate dovedi că, dacă o iterație a dus la o creștere a lungimii LFSR și la schimbarea tapelor, atunci chiar la următoarea iterație, doar tapele de feedback s-ar putea schimba; LFSR nu poate crește în lungime.

Pe scurt, nu este nevoie să vă faceți griji cu privire la ceea ce se întâmplă cu discrepanțe anterioare; LFSR actual este garantat că va genera toată secvența examinată până acum fără discrepanțe să se strecoare în timpul procesului de generare.

Postează un răspuns

Majoritatea oamenilor nu înțeleg că a pune multe întrebări deblochează învățarea și îmbunătățește legătura interpersonală. În studiile lui Alison, de exemplu, deși oamenii își puteau aminti cu exactitate câte întrebări au fost puse în conversațiile lor, ei nu au intuit legătura dintre întrebări și apreciere. În patru studii, în care participanții au fost implicați în conversații ei înșiși sau au citit transcrieri ale conversațiilor altora, oamenii au avut tendința să nu realizeze că întrebarea ar influența – sau ar fi influențat – nivelul de prietenie dintre conversatori.