La storia del computer

Storia del computer

Un racconto iniziato molto tempo fa, che ha plasmato la nostra epoca.

di Sabato Angeri
05 febbraio 2021
11 min di lettura
di Sabato Angeri
05 febbraio 2021
11 min di lettura

Se dovessimo chiederci cos’è che ha cambiato il mondo, il computer sarebbe sicuramente tra le prime risposte. Da quando è stato inventato, la sua applicazione nelle varie sfere della nostra vita è sempre più estesa… Ma a un bambino che chiedesse all’improvviso come è nato il primo computer, chi saprebbe rispondere con velocità e certezza? L’impresa non è tra le più semplici.

Gli antenati computatori

Si potrebbe forse iniziare a dire che il computer non è un’invenzione così recente come generalmente potrebbe credersi. Il termine, ad esempio, è già attestato in uno scritto del filosofo e scrittore inglese Sir Thomas Browne che definisce computers, ovvero computatori, delle persone addette al calcolo. Se ci chiedessimo invece quale fosse la funzione originale della macchina, molti risponderebbero “il compiere operazioni matematiche”, identificando nell’abaco, inventato dagli Assiro-Babilonesi, il primo antenato del computer. Non dimentichiamo che la stessa regione fu anche la culla della matematica e che furono gli arabi, millenni dopo, a introdurre lo zero, una delle due cifre del sistema binario. La storia dei congegni meccanici che servivano a svolgere calcoli si popola a partire dal XVII secolo, delle invenzioni più disparate. Complici le teorie sui logaritmi di Nepero, molti scienziati costruirono i primi regoli calcolatori, come ad esempio, nel 1632, quelli di William Oughtred, grazie ai quali divenne possibile eseguire operazioni matematiche complesse. Altri, come il famoso filosofo e matematico francese Blaise Pascal si spinsero oltre, inventando nuovi strumenti come la Pascalina (1662) un calcolatore meccanico che mediante degli ingranaggi era in grado di svolgere calcoli con numeri fino a 999.999.999.


Illustrazione d’epoca di una Pascalina.

Tra fallimenti e progressi

Tuttavia, è nell’Ottocento che la storia del computer compie due passi fondamentali, anche se solo teorici. Grazie agli studi di Charles Babbage e George Boole, entrambi filosofi e matematici britannici, si gettano le basi per quello che, meno di un secolo dopo, sarebbe diventato il primo prototipo di computer, per come lo intendiamo oggi. Boole, grazie ai suoi studi in cui associò la Logica alla Matematica, è considerato il teorico dell’algebra alla base della progettazione teorica di un computer, mentre Babbage fu il primo a concepire e sviluppare l’idea di un calcolatore programmabile. Quest’ultimo progettò anche una macchina calcolatrice a vapore che avrebbe dovuto calcolare tabelle di numeri. Il progetto, finanziato dal governo inglese e denominato macchina differenziale fu un fallimento, ma Babbage non si arrese e continuò i suoi studi. Qualche decennio prima, l’inventore francese Joseph-Marie Jacquard aveva inventato il cosiddetto Telaio Jacquard, una macchina in grado di usare schede perforate per intessere automaticamente motivi sulla stoffa. Basandosi su un principio simile, Babbage progettò la macchina analitica, applicando l’uso delle schede perforate alle operazioni matematiche. Il congegno era dotato di dispositivi di ingresso basati sulle schede perforate, come nel progetto di Jacquard, un processore aritmetico che calcolava numeri, una unità di controllo che determinava che fosse eseguito il compito corretto, un meccanismo di uscita e una memoria dove i numeri potevano essere mantenuti in attesa del loro turno di elaborazione. Anche per una persona a digiuno di nozioni informatiche non è difficile comprendere che la macchina analitica riassume in sé le caratteristiche essenziali del moderno calcolatore e, infatti, sono in molti a considerarla il primo computer. Purtroppo, però, in seguito al fallimento del primo progetto, Babbage non riuscì a trovare i finanziamenti sufficienti a costruire la sua nuova macchina. Riuscì però a interessare una nobildonna inglese, Lady Ada Lovelace, figlia del grande poeta Lord Byron, la quale si appassionò tanto ai suoi studi da diventarne una delle principali promulgatrici. Lady Lovelace scrisse diversi programmi per la macchina analitica e tra i suoi appunti è stato ritrovato un algoritmo che è considerato dagli storici della scienza come il primo espressamente creato per essere elaborato da una macchina, il che fa di lei la prima programmatrice di computer della storia.

Un aiuto per istituzioni e compagnie private

Qualche anno dopo, nel 1880, registriamo la prima volta in cui una macchina per eseguire calcoli fu impiegata da un governo per snellire le proprie pratiche amministrative. La cosiddetta Macchina di Hollerith, dal nome dell’ingegnere statunitense che l’aveva messa a punto a partire da un codice omonimo. Il dispositivo fu usato per le operazioni di spoglio dei dati del censimento nazionale. Hollerith ebbe l’intuizione di registrare su schede perforate (come quelle di Jacquard e Baba btecnologieage) tutti i dati del censimento e li fece processare dalla macchina da lui stesso inventata. All’epoca, per trascrivere tali dati si impiegavano fino a sette anni e Hollerith ce ne mise solo tre, facendo risparmiare, tra l’altro, ben 5 milioni di dollari al governo degli Stati Uniti (una cifra enorme a quei tempi). Sulla scia di questo successo, l’ingegnere fondò nel 1896 la propria azienda, la Tabulating Machine Company che nel 1924 diventerà la International Business Machines, meglio nota con l’acronimo IBM. Con il Novecento, la storia del computer accelera drasticamente. All’inizio, l’uso della corrente elettrica e l’invenzione delle valvole avevano permesso uno sviluppo significativo dei calcolatori, che però erano dei veri e propri colossi pesanti tonnellate e ingombranti decine di metri quadrati. Non è un caso se il governo britannico avesse scelto proprio il nome di Colossus per il computer elettronico programmabile che usò a partire dal 1943 per decifrare i messaggi segreti dei nazisti (programmati anche questi tramite un calcolatore, denominato Enigma). Una data fondamentale è il 1936, vero spartiacque dell’evoluzione dell’informatica. In quell’anno, il fisico e matematico inglese Alan Turing presentò la sua macchina universale, in seguito ribattezzata proprio Turing Machine che si proponeva capace di calcolare tutto ciò che fosse quantificabile. Turing è considerato il padre della moderna informatica e uno dei padri dell’Intelligenza Artificiale, che aveva già teorizzato negli anni Trenta (sostenendo che un giorno, anche una macchina potrà pensare).


La Turing Machine.

I primi computer prodotti su larga scala

Se da un lato dell’Atlantico c’era Colossus, dall’altro troviamo l’ENIAC, considerato da molti il primo prototipo del computer moderno. L’Electronic Numerical Integrator and Computer fu realizzato nel 1946 da J. Presper Eckert e John Mauchly sulla base delle esperienze maturate nella realizzazione di Colossus. Il governo degli USA aveva commissionato la macchina per cercare di risolvere i problemi di calcolo balistico per il lancio dei proiettili d'artiglieria. Per citare solo un dato, per funzionare, l’ENIAC aveva bisogno di 18 mila valvole e, a causa della grande quantità di calore che generava, ne bruciava una ogni due minuti. Il suo successore, l’EDVAC (Electronic Discrete Variable Automatic Computer) segnò un’ulteriore evoluzione fondamentale in quanto applicava per la prima volta le teorie dello scienziato ungherese Jhon Von Neumann. Questi decise di stravolgere l’architettura interna delle macchine usate fino ad allora e di posizionare i dati e le istruzioni all’interno della memoria della macchina. Tale rivoluzione ha dato origine alle macchine a programma interno alle quali appartengono tutti i computer costruiti fino ai giorni nostri. A chiudere questa prima era della storia dell’informatica intervenne l’IBM che nel 1954 lanciò il 704, il primo computer commercializzato per fini non governativi e disponibile su larga scala, anche se ancora costosissimo e molto ingombrante. L’invenzione dei transistor, che sostituirono le fragili valvole a condensazione, iniziò a implementare esponenzialmente la potenza di calcolo dei computer. L’IBM 7090, del 1957, era già sei volte più potente del suo predecessore e fu impiegato dalla NASA per i lanci delle sonde Mercury e Gemini. Qualche anno dopo si immise sul mercato il PDP-1, della società americana DEC, che è passato alla storia per essere stato il primo computer sul quale si sia giocato un videogioco (progettato da Steve Russel). La nuova accelerazione nell’uso della tecnologia avviene nel 1964, quando l’IBM presenta il 360, il primo computer funzionante mediante circuiti integrati, basati sul silicio, in sostituzione dei transistor. Il 360 introduceva il concetto di modularità e l’uniformità di linguaggio tra gli apparecchi che precorreva la standardizzazione dei linguaggi, avvenuta qualche decennio dopo. Ma è con lo Xerox Star che la storia del computer cambia definitivamente volto dando poi il là ai primi esperimenti della Apple e della Microsoft. Tale calcolatore, infatti, fu il primo della storia a essere dotato di interfaccia grafica (GUI) consentendo all'utente di interagire con la macchina manipolando oggetti grafici convenzionali tramite la visualizzazione a icone e un mouse. In altri termini, mentre si riducevano significativamente le sue dimensioni, il computer diventava più accessibile.


Uno dei più iconici modelli di Personal Computer Apple Macintosh.

L'ascesa del Personal Computer

Per comprendere tuttavia come l’enorme diffusione dei computer e la loro trasformazione in personal computer si traduce in termini economici, è necessario aprire una parentesi che ci riporta in Italia. La tecnologia LSI (Large Scale Integration), sviluppata dall'italiano Federico Faggin presso la Fairchild Semiconductor nel 1968 permise d’integrare una CPU completa in un solo dispositivo, riducendo significativamente i costi di produzione. Nello stesso anno Robert Noyce e Gordon Moore lasciarono la Fairchild Semiconductor e fondarono la Integrated Electronics Corporation, successivamente abbreviata in Intel Corporation. Nel 1971 anche Federico Faggin lascia la Fairchild Semiconductor ed entra nella Intel, contribuendo a realizzare il primo microprocessore, l'INTEL 4004. Arriviamo così agli anni Settanta, il periodo dei garage delle aziende nate nei college e dei grandi innovatori apparsi all’improvviso al nostro orizzonte. Uno dei più famosi, Steve Jobs, fondò la Apple insieme a Steve Wozniak e a partire dal 1977 commercializzò l’Apple I. Molti dei modelli di questo primo esperimento sono oggi visibili in chassis di legno poiché all’epoca non esistevano ancora pezzi prefabbricati e gli utenti se li costruivano da soli. Con l’Apple II viene introdotto, sia nel marketing sia nella storia, il Personal Computer, ovvero il primo modello di successo prodotto su scala industriale e commercializzato per uso domestico (costava ‘solo’ 1.195 $). Tutta l’elettronica fu chiusa in scatole di plastica, dando origine, alle forme in uso oggi. Nel frattempo, Bill Gates e Paul Allen, fondavano il gigante Microsoft. L’ultimo atto prima degli stravolgimenti introdotti da Internet è per molti il 12 agosto 1981, data in cui IBM lancia, come risposta ad Apple, l'IBM 5150, meglio noto come PC IBM, con sistema operativo sviluppato dalla Microsoft di Bill Gates. È un successo planetario: in un mese l’azienda americana vende 50 mila pc e più di 200 mila nel corso dell’anno. Mai si erano venduti così tanti computer e l’IBM 5150 diventa lo standard sul quale le macchine successive si svilupperanno anche grazie a un sistema aperto e come tale, replicabile. Una storia lunga e in continua evoluzione quella del computer, e forse un giorno, non troppo lontano, sarà lui stesso a rispondere alla domanda del nostro bambino, raccontandosi da solo…