Le memorie centrali

 

Fondamentale in ogni computer è sempre stata la memoria centrale (così si chiamava inizialmente quella che oggi è più conosciuta come RAM) cioè quella nella quale vengono tenuti i dati durante l’elaborazione.


Fin dall’inizio le memorie erano costituite da BIT, ma il BYTE venne dopo; il bit era ed è capace di assumere due soli stati (e quindi di rappresentare 0 o 1); ma dovendo rappresentare numeri, lettere e caratteri speciali essi dovevano essere interpretati a gruppi; c’era poi un altra esigenza: era necessario poter essere certi che un gruppetto di bit fosse corretto e che quindi nessuno di essi aveva cambiato stato per errore; il gruppetto di bit doveva essere quindi sufficiente, nelle varie configurazioni che poteva assumere, non solo a rappresentare tutti i simboli desiderati, ma doveva avere uno o più bit in più del necessario allo scopo di validare ogni configurazione (l’esempio più noto è il bit di parità con il quale ogni configurazione per essere valida doveva avere un valore binario pari, cioè un numero pari di bit a 1).


Nacquero così tanti tipi di codifica e ricordo che un carattere numerico decimale negli elaboratori IBM all’inizio del 1960 era rappresentato con cinque bit, dove solo due di essi dovevano essere nello stato 1; dieci di questi gruppetti erano riuniti in una WORD e consentivano quindi di rappresentare cifre di dieci cifre decimali; un altro gruppetto di tre bit era poi associato a ciascuna word e serviva a rappresentare il segno; anche in  questo caso solo due di essi dovevano essere nello stato 1 e le tre configurazioni così possibili rappresentavano il segno della cifra (più, meno e alfa); SI, anche alfa, perchè quando il segno era alfa ogni coppia di cifre della word rappresentava una lettera dell’alfabeto o un carattere speciale; ne conseguiva che ogni word poteva contenere numeri positivi o negativi di 10 cifre o gruppetti di 5 lettere e/o caratteri speciali!


Negli elaboratori successivi venne poi la codifica BCD (Binary Coded Decimal) che utilizzava 7 bit (6 per il carattere da rappresentare e 1 per la parità), ed infine arrivò il BYTE che utilizzava 8 bit  e che a tutt’oggi è in uso; quando l’IBM cominciò ad utilizzare il BYTE usò la codifica EBCDIC (Extended Binary Coded Decimal Interchange Code) ma poi con il personal computer si convertì all’uso della codifica ASCII (American Standard Code for Information Interchange) che fu ed è universalmente usata nei computer di ogni marca; questa codifica prevede l’uso di 7 bit per il carattere da rappresentare e 1 per la parità.