Când un șir precum „Hello World” este criptat, algoritmii convertesc acest șir în binar sau ASCII?
Ei bine, răspunsul depinde dacă vorbiți despre criptografia istorică sau modernă.
Din punct de vedere istoric, metodele de criptare au luat de obicei șirul ca o serie de caractere și le-au transformat în acest fel. Uneori au făcut o mapare internă, să spunem, "A" -> 0, "B" -> 1, etc, totuși, în general, aceasta a fost făcută intern la algoritm. În general, nu au convertit caracterele în binare (care atunci ar fi fost văzută ca o alegere ciudată), și cu siguranță nu în ASCII (care nu exista atunci).
Pe de altă parte, algoritmii moderni de criptare în general [1] iau șiruri de biți sau octeți ca intrări și generează un șir de biți sau octeți ca ieșire. Pentru a cripta un șir, l-ați converti într-un astfel de șir (fie că utilizați ASCII, Unicode sau EBCDIC, algoritmului nu i-ar păsa), iar algoritmul a funcționat la asta.
De asemenea, dacă acesta este un fișier, mai poate fi folosit ASCII pentru a cripta datele?
Ei bine, un fișier cu caractere ASCII poate fi văzut ca un șir de octeți, așa că algoritmii moderni de criptare s-ar descurca foarte bine.
[1]: O excepție: schemele de criptare pentru păstrarea formatului, care privesc, în general, intrarea ca pe o bază$b$ sfoară, unde $b$ s-ar putea să nu fie o putere a doi.