Binario vs ASCII
Il codice binario è un metodo utilizzato nei computer e nei dispositivi digitali per rappresentare e trasferire testo, simboli o istruzioni del processore. Poiché i computer e i dispositivi digitali eseguono le loro operazioni fondamentali sulla base di due valori di tensione (alta o bassa), ogni bit di dati coinvolti in un processo deve essere convertito in quella forma. Il metodo ideale per eseguire questo compito è rappresentare i dati nel sistema numerico binario, che include solo due cifre, 1 e 0. Ad esempio, con ogni tasto premuto sulla tastiera, produce una stringa di 1 e 0, che è unica per ogni carattere e lo invia come output. Il processo di conversione dei dati in codice binario viene chiamato come codifica. Molti metodi di codifica sono usati nell'informatica e nelle telecomunicazioni.
ASCII, che sta per americano Codice standard per lo scambio di informazioni, è una codifica standard per caratteri alfanumerici utilizzati nei computer e nei dispositivi correlati. ASCII è stato introdotto dallo United States of America Standards Institute (USASI), ora noto come American National Standards Institute.
Ulteriori informazioni sui codici binari
Il modo più semplice per codificare un dato è assegnare un valore specifico (principalmente in numeri decimali) al carattere o al simbolo o all'istruzione, e quindi convertire il valore (numero decimale) nel numero binario, che consiste solo di 1 e 0. La sequenza di 1 e 0 viene chiamata stringa binaria. La lunghezza della stringa binaria determina il numero di caratteri o istruzioni differenti che possono essere codificati. Con una sola cifra, possono essere rappresentati solo due caratteri o istruzioni differenti. Con due cifre, è possibile rappresentare quattro caratteri o istruzioni. Generalmente, con una stringa binaria di n cifre, 2n caratteri, istruzioni o stati diversi possono essere rappresentati.
Esistono molti metodi di codifica con diverse lunghezze di stringhe binarie, di cui alcuni hanno lunghezza costante e l'altra lunghezza variabile. Alcuni dei codici binari con stringhe di bit costanti sono ASCII, ASCII esteso, UTF-2 e UTF-32. UTF-16 e UTF-8 sono codici binari a lunghezza variabile. Sia la codifica Huffman che il codice Morse possono anche essere considerati come codici binari a lunghezza variabile.
Maggiori informazioni su ASCII
ASCII è uno schema di codifica di caratteri alfanumerici introdotto negli anni '60. ASCII originale utilizza una stringa binaria lunga di 7 cifre, che consente di rappresentare 128 caratteri. Una versione successiva di ASCII chiamata esteso ASCII utilizza una stringa binaria lunga di 8 cifre che gli consente di rappresentare 256 caratteri diversi.
ASCII include, principalmente, due tipi di caratteri, che sono caratteri di controllo (rappresentato da 0-31 decimale e 127decimale) e personaggi stampabili (rappresentato da 32- 126 decimale). Ad esempio, il tasto di controllo Elimina è dato il valore 127decimale che è rappresentato da 1111111. Il personaggio un, a cui viene assegnato il valore 97decimale,è rappresentato da 1100001. ASCII può rappresentare lettere in entrambi i casi, numeri, simboli e tasti di controllo.
Qual è la differenza tra codice binario e ASCII?
• Il codice binario è un termine generico utilizzato per un metodo di codifica di caratteri o istruzioni, ma ASCII è solo una delle convenzioni accettate a livello globale di caratteri di codifica ed è stato lo schema di codifica binaria più comunemente usato per più di tre decenni.
• Il codice binario può avere lunghezze diverse per la codifica in base al numero di caratteri, istruzioni o al metodo di codifica, ma ASCII utilizza solo 7 cifre lunghe di stringa binaria e 8 cifre lunghe per ASCII esteso.