Differenza tra binario e ASCII

Differenza tra binario e ASCII
Differenza tra binario e ASCII

Video: Differenza tra binario e ASCII

Video: Differenza tra binario e ASCII
Video: 🐔🐣🐥 Come si RIPRODUCONO gli ANIMALI - Ovipari, Ovovivipari e Vivipari (Scuola Primaria) 🐈🦈 2024, Luglio
Anonim

Binario vs ASCII

Il codice binario è un metodo utilizzato nei computer e nei dispositivi digitali per rappresentare e trasferire testo, simboli o istruzioni del processore. Poiché i computer e i dispositivi digitali svolgono le loro operazioni fondamentali in base a due valori di tensione (Alto o Basso), ogni bit di dati coinvolti in un processo deve essere convertito in quella forma. Il metodo ideale per eseguire questo compito è rappresentare i dati nel sistema numerico binario, che include solo due cifre, 1 e 0. Ad esempio, ad ogni pressione di un tasto sulla tastiera, produce una stringa di 1`s e 0`s, che è unico per ogni carattere e lo invia come output. Il processo di conversione dei dati in codice binario è chiamato codifica. Molti metodi di codifica sono utilizzati nell'informatica e nelle telecomunicazioni.

ASCII, che sta per American Standard Code for Information Interchange, è una codifica standard per i caratteri alfanumerici utilizzati nei computer e nei dispositivi correlati. L'ASCII è stato introdotto dallo United States of America Standards Institute (USASI), ora noto come American National Standards Institute.

Ulteriori informazioni sui codici binari

Il modo più semplice per codificare un dato è assegnare un valore specifico (per lo più in numeri decimali) al carattere o al simbolo o all'istruzione, quindi convertire il valore (numero decimale) nel numero binario, che consiste solo di 1`s e 0`s. La sequenza di 1 `s e 0`s è chiamata come stringa binaria. La lunghezza della stringa binaria determina il numero di diversi caratteri o istruzioni che possono essere codificati. Con una sola cifra possono essere rappresentati solo due caratteri o istruzioni differenti. Con due cifre, è possibile rappresentare quattro caratteri o istruzioni. In genere, con una stringa binaria di n cifre, possono essere rappresentati 2 caratteri, istruzioni o stati diversi.

Esistono molti metodi di codifica con diverse lunghezze di stringhe binarie, alcune delle quali hanno una lunghezza costante e le altre una lunghezza variabile. Alcuni codici binari con stringhe di bit costanti sono ASCII, ASCII esteso, UTF-2 e UTF-32. UTF-16 e UTF-8 sono codici binari di lunghezza variabile. Sia la codifica Huffman che il codice Morse possono anche essere considerati codici binari a lunghezza variabile.

Ulteriori informazioni sull'ASCII

ASCII è uno schema di codifica dei caratteri alfanumerici introdotto negli anni '60. L'ASCII originale utilizza una stringa binaria di 7 cifre, che gli consente di rappresentare 128 caratteri. Una versione successiva di ASCII chiamata ASCII estesa utilizza una stringa binaria di 8 cifre che gli dà la possibilità di rappresentare 256 caratteri diversi.

ASCII include principalmente due tipi di caratteri, che sono caratteri di controllo (rappresentati da 0-31 decimale e 127decimal) e caratteri stampabili (rappresentati da 32- 126 decimal). Ad esempio, al tasto di controllo delete viene assegnato il valore 127decimal che è rappresentato da 1111111. Il carattere a, a cui viene assegnato il valore 97decimal, è rappresentato da 1100001. ASCII può rappresentare lettere in entrambi i casi, numeri, simboli e tasti di controllo.

Qual è la differenza tra codice binario e ASCII?

• Il codice binario è un termine generico utilizzato per un metodo di codifica di caratteri o istruzioni, ma ASCII è solo una delle convenzioni di codifica dei caratteri accettate a livello globale ed è stato lo schema di codifica binaria più comunemente utilizzato per più di tre decenni.

• Il codice binario può avere lunghezze diverse per la codifica a seconda del numero di caratteri, istruzioni o metodo di codifica, ma ASCII utilizza solo una stringa binaria lunga 7 cifre e lunga 8 cifre per l'ASCII esteso.

Consigliato: