Electronic circuit board close up.

Storia del supercalcolo

La lunga storia dei supercomputer, dalla guerra fredda ai giorni nostri, raccontata con i vertiginosi numeri dei FLOPS.

di Stefano Bevacqua
20 febbraio 2020
8 min di lettura
diStefano Bevacqua
20 febbraio 2020
8 min di lettura

Certo è un paragone estremo e sfiora il paradosso, ma aiuta a capire di che cosa stiamo parlando. La mia prima utilitaria, ereditata nel 1972 appena presa la patente, aveva un limite di velocità di 95 km/h. Oggi, la velocità massima della versione base della stessa macchina, è di 160 km/h. Tra le due vetture trascorrono esattamente 35 anni, ai quali corrisponde un incremento prestazionale nell'ordine del 68 per cento. Certo, non è sicuramente il raggiungimento di tale velocità il parametro sul quale gli ingegneri del Lingotto hanno spremuto le loro migliori risorse, ma è comunque un modo per dare un'idea del progresso conseguito. Adesso, prendiamo un computer di 35 anni fa, una macchina del 1985, come quella che mi fu messa proprio quell'anno tra le mani dall'azienda editoriale dove lavoravo: faceva cose straordinarie, che con una Lettera 32 non si poteva nemmeno immaginare: anzitutto scriveva su uno schermo e non sulla carta, si poteva cancellare tagliare e incollare e, soprattutto, mandare in tipografia un file e non un pezzo di carta scritto che un addetto doveva poi digitare nuovamente sulla tastiera di una fotocompositrice (prima ancora su una Linotype). Certo, era un personal computer, non un centro di calcolo, ma l'esempio calza ugualmente bene. Quella macchina lavorava alla incredibile velocità di 8 milioni di operazioni al secondo. Ma il computer che sto utilizzando ora, per raccontare questa breve storia di numeri e di sfrenati aumenti della capacità dei più moderni sistemi di calcolo, ha un clock di 2,5 GHz, cioè 2 miliardi e mezzo di operazioni al secondo che, moltiplicato per gli otto core custoditi nel suo processore, fa 20 miliardi di operazioni al secondo. In 35 anni il computer comunemente usato in ambito editoriale ha visto la sua potenza di calcolo moltiplicarsi di 2500 volte, senza contare la capacità di elaborazione della scheda grafica. 

single-image-tecnico-supercomputer.jpg

La nascita dei supercomputer

Ora posteggiamo la nostra utilitaria “super” e cerchiamo di capire che cosa è davvero successo nel mondo dei computer, non tanto del personal computer, di cui abbiamo parlato finora per dare la misura dei mutamenti avvenuti, quanto dei cosiddetti supercomputer. Quelle grandi macchine destinate a svolgere operazioni di calcolo di enorme complessità. Contrariamente a quello che si è spinti a credere leggendo le cronache quotidiane, i supercomputer non sono affatto una novità degli ultimi decenni. Anzi, si dovrebbe dire che sono nati ben prima dei PC e che questi ultimi, in fondo, non sono stati altro che un'applicazione in scala ridotta di quanto realizzato nei grandi centri di calcolo, come quelli americani e sovietici degli anni Cinquanta e Sessanta. A spingere, per disporre di potenze di calcolo sempre crescenti, fu essenzialmente la guerra fredda e, soprattutto, il suo ingrediente più appariscente: la corsa nello spazio. Per andare sulla Luna servivano macchine con capacità di calcolo crescenti. Così che il primo supercomputer degno di questo nome nasce proprio per motivi legati alla difesa. Era il NORC, americano, messo a punto nel 1954 da IBM per conto del U. S. Naval Proving, e installato a Dahlgren, in Virginia. Velocità di calcolo: 67 KOPS, che significa 67.000 operazioni al secondo. Da quel momento, la crescita prestazionale è stata straordinaria, tanto da imporre un cambiamento dell'unità di misura, non più OPS, ma FLOPS, che sta per Floating Point Operation Per Second (operazioni a virgola mobile al secondo). Soltanto sette anni dopo la nascita del NORC, arriva il 7030 Stretch, sempre di IBM, capace di 1,2 milioni FLOPS. Altri 13 anni e, nel 1974, esordisce Star 100 della Control Data Corporation (CDC), che, arriva a smaltire 100 milioni di operazioni al secondo, in virgola mobile. Altri 11 anni, ed è la volta di Cray X-MP4 che sfiora il miliardo di FLOPS. Il progresso sembra non avere fine. Nel 1991 anche l'Italia entra in graduatoria con APE 100 dell'Istituto Nazionale di Fisica Nucleare, capace di 100 miliardi di operazioni a virgola mobile al secondo. 

single-image-supercomputer-particolare-hpc5.jpg

La nuova era dei multicore e dei PFLOPS

Poi, per qualche anno, sembra esserci un rallentamento dell'incremento prestazionale. E il motivo c'è. Oltre un certo limite, il singolo processore non può andare. Si percorrono due strade allo stesso tempo: si moltiplicano i core, cioè le unità primarie di calcolo, all'interno del processore. Prima sono i dual core, poi parte quella che potremmo chiamare “la corsa ai core”. La seconda strada è stata quella imboccata già negli anni Novanta, che consiste nel moltiplicare il numero dei processori connessi in parallelo, per aumentare la forza di calcolo e quindi la velocità. Cambia così l'architettura dei processori e dei grandi sistemi di calcolo che li utilizzano. Il passaggio dalla "G" del GFLOPS alla "T" dei TFLOPS, dai miliardi alle migliaia di miliardi di operazioni al secondo, avviene nel 1997 con l'ASCI Red9152 di Intel. Una decina di anni dopo, arriva l'IBM Roadrunner capace di oltre un milione di miliardi di operazioni al secondo, alla "T" si sostituisce la "P" dei PFLOPS. Fino agli anni Novanta, il mondo dei supercomputer vedeva pochi regnanti, tutti statunitensi, con qualche exploit europeo, in Germania, Italia e Francia soprattutto. Ma con il nuovo millennio entrano in campo anche i costruttori giapponesi e la competizione si fa più intensa. Fino al 2010, quando il più potente computer del mondo porta ormai la bandiera rossa con le cinque stelle: è il Thiane 1A, capace di 2,5 PFLOPS. Si tratta di un radicale cambiamento di scenario. Oggi il supercomputer più potente del pianeta è di nuovo a stelle e strisce, si chiama The Summit ed è stato acceso nel giugno 2018 presso l'Oak Ridge National Laboratory, nel Tennessee. È capace di oltre 145 PFLOPS, ma può essere spinto per brevi periodi a quota 200 PFLOPS. Nel suo ventre, che consuma 10 mila kW ogni ora, lavorano quasi 2 milioni e mezzo di core.

I supercomputer in Italia

La corsa è dunque apertissima. Alle spalle di The Summit un altro supercomputer americano, poi due cinesi, ancora un americano e poi, sparsi, giapponesi, altri cinesi e alcuni europei. Secondo l’ultima graduatoria mondiale Top 500, l'HPC5 di Eni, sarebbe al 5° posto, con una capacità di 52 PFLOPS, affiancando l'attuale HPC4 (al 16°) con 18 PFLOPS, grazie a una doppia architettura integrata che vede l'utilizzo combinato di CPU (i processori "tradizionali") e GPU (i processori grafici). La macchina potrà presto contare su 1820 nodi, ognuno dotato di due processori a 24 core e quattro acceleratori GPU. 

image-storia-supercomputer-hpc5-eni.jpg

Sulla stessa strada anche l'Unione Europea che ha avviato il progetto Euro HPC, con l'intenzione di mettere in sinergia otto diversi centri di calcolo sparsi nel continente, tra i quali il Cineca di Bologna, tre con una capacità iniziale di 150 PFLOPS e cinque da 40 PFLOPS. Obiettivo: superare nell'arco di un decennio la soglia dei mille PTFLOPS, ovvero un miliardo di miliardi di operazioni al secondo.
La corsa non sembra potersi arrestare. Ma per chi si chiedesse a cosa servono queste macchine super-potenti, Ecco qualche esempio: dalle previsioni meteorologiche a medio termine con un livello di precisione inimmaginabile, all’interpretazione di dati geofisici, e studio delle fonti rinnovabili, attività di punta svolte dall’HPC5 di Eni, dalla gestione delle emergenze sanitarie a quella dei sistemi complessi multinodali (reti stradali, ferroviarie, elettriche); dallo studio dei cambiamenti climatici fino alla grande scommessa dell'Intelligenza Artificiale.