Motore di innovazionedi Lorenzo Fiorillo
62

Parola d'ordine futuro

Motore di innovazione

di Lorenzo Fiorillo

Oggi il supercalcolo non può essere considerato un accessorio. La capacità di elaborare dati su scala massiccia è essenziale per aziende che operano in una realtà sempre più complessa e interconnessa. HPC6 e la prospettiva di Eni

17 min

N

el 1954 Enrico Fermi scriveva una lettera al Rettore dell’Università di Pisa con una richiesta che sembrava, all’epoca, avveniristica: un nuovo calcolatore per supportare gli studi nel campo della fisica.  Quell’intuizione dello scienziato italiano, come sue tante altre, avrebbe tracciato una linea di confine tra passato e futuro. Oggi, settant’anni dopo, siamo immersi in una rivoluzione tecnologica che spinge la scienza verso territori che solo la potenza del supercalcolo può esplorare.   In ogni settore, dalla fisica alle scienze dei materiali, dall’energia alla salute, il supercalcolo è diventato un abilitatore imprescindibile dell’innovazione.  

 

 

La complessità della ricerca e l’era del supercalcolo 

In questo momento storico, la complessità dei problemi da affrontare e la necessità di portare l’innovazione in prodotti o processi fruibili rapidamente dal mercato non possono più essere affrontate con sistemi di elaborazione dati tradizionali. Sviluppare nuovi materiali, studiare l’energia del futuro o migliorare le tecnologie per la salute richiede la capacità di simulare l’andamento di miliardi di parametri e di variabili, integrare grandi dataset ed elaborare informazioni su scala globale in frazioni di secondo.  

 

Nel campo specifico della transizione energetica sono richieste enormi risorse computazionali, ad esempio, per migliorare l’efficienza delle celle solari, sviluppare batterie più performanti, simulare il comportamento del plasma in un futuro impianto per la fusione a confinamento magnetico. 

 

 

la fotoIl Green Data Center di Eni, a Ferrera Erbognone, ospita i sistemi di supercalcolo HPC4, HPC5 e HPC6. Si tratta di uno dei centri di calcolo con la più alta efficienza energetica e il miglior contenimento dell’impronta carbonica in Europa: infatti, oltre a essere alimentato in parte da un impianto fotovoltaico da 1MW di potenza, per almeno il 92% dell’anno il raffreddamento delle macchine è ottenuto dalla circolazione di aria a bassa velocità, riducendo al minimo il ricorso al condizionamento

 

 

Dal 30 novembre 2022, quando il rilascio della prima versione pubblica di ChatGPT ha “democratizzato” l’accesso alle applicazioni di intelligenza artificiale generativa, è diventata chiara a tutti l’esistenza di un ulteriore campo di applicazione del supercalcolo. Le risorse computazionali necessarie ad addestrare e ad interrogare i già molti Large Language Model disponibili per uso privato o aziendale sono destinate a costituire una componente crescente dell’impegno complessivo dei supercomputer.  

 

 

La sfida dell’efficienza energetica 

Parafrasando un celebre eroe dei fumetti, da grandi poteri derivano anche grandi sfide. I supercomputer sono macchine straordinarie, ma la loro “fame” di energia è un tema sempre più sotto osservazione da parte dell’opinione pubblica. Si tratta di una questione seguita, in particolare, dalle giovani generazioni, sempre più sensibili alle questioni ambientali, ma al contempo pienamente protagoniste dell’era digitale, dove la fruizione, apparentemente gratuita di servizi e applicazioni, ne “maschera” sia la complessità tecnologica sia le risorse necessarie.  

Il tema dei consumi energetici associati al supercalcolo è molto dibattuto

Le stime della situazione esistente e degli sviluppi previsti sono assai divergenti in relazione ai diversi soggetti coinvolti, ma la tendenza è indubbia: il consumo energetico globale dei supercomputer e delle infrastrutture che li ospitano è destinato a crescere significativamente nei prossimi anni. Per fare un esempio, un supercomputer può arrivare a consumare diversi megawatt di potenza elettrica, abbastanza da alimentare una piccola città, ma l’aggregato globale dei consumi energetici delle macchine in uso, o previste nel breve termine, viene spesso rappresentato pari a quello di intere nazioni. La sfida, quindi, non è solo costruire macchine sempre più potenti, ma renderle anche più efficienti dal punto di vista energetico. In questo contesto, aziende come Eni, che mettono l’innovazione al centro della propria strategia, devono dare una priorità alla sostenibilità del digitale. 

 

Per Eni questo aspetto è stato fondamentale, anzi “fondante”, per la progettazione e la costruzione, nel 2013, del suo Green Data Center (GDC) di Ferrera Erbognone, vicino a Pavia, che ospita i nostri supercalcolatori HPC4, HPC5 e il nuovo HPC6 che a breve entrerà in funzione.  

 

Il GDC rappresenta un esempio di eccellenza nell’integrazione tra tecnologia avanzata e sostenibilità ambientale. Fin dalla sua progettazione, questo centro ha avuto come obiettivo primario non solo l’efficienza operativa, ma anche la minimizzazione dell’impatto ambientale, inserendo la sostenibilità al centro della sua missione. Uno degli aspetti più rilevanti che distingue il GDC è l’attenzione all’efficienza energetica, misurata attraverso l’indicatore PUE (Power Usage Effectiveness). Il PUE è il rapporto tra l’energia totale consumata da un data center e quella utilizzata direttamente per alimentare i suoi sistemi IT (come server, storage e dispositivi di rete). 

 

Un PUE pari a 1.0 rappresenta il massimo (teorico, ovviamente) dell’efficienza possibile, indicando che tutta l’energia consumata è impiegata unicamente per il funzionamento dei sistemi IT, senza dispersioni. L’ultimo valore del PUE del GDC di Eni, certificato per il 2023, è pari a 1,172, un risultato straordinario che colloca questa struttura tra le più efficienti in Europa. Questo traguardo è stato raggiunto grazie a un insieme di soluzioni innovative che ottimizzano il raffreddamento e la gestione dell’energia, tra le quali l’adozione di un sistema di raffreddamento delle macchine a convezione d’aria (“freecoling”) e l’integrazione di un parco solare fotovoltaico che contribuisce all’alimentazione del GDC. L’inserimento di HPC6 nel GDC porta a una ulteriore evoluzione di tutti i sistemi di supporto al funzionamento del supercomputer, come ad esempio l’adozione di un nuovo sistema di raffreddamento a liquido, sempre con l’obiettivo della massima efficienza energetica complessiva. 

 

 

Il supercalcolo in Eni: una risorsa preziosa 

A fronte dei suoi costi e delle sfide dal punto di vista energetico, occorre però riflettere sul valore che il supercalcolo può portare

Per una società come Eni, che opera su scala globale, producendo e utilizzando un patrimonio assai rilevante di dati, il supercalcolo non è solo una scelta strategica, ma una necessità operativa.  

 

Infatti, ogni attività di esplorazione, ogni progetto di decarbonizzazione, ogni ricerca sulle nuove fonti energetiche genera (e richiede) una quantità di dati immensa. Senza la potenza del supercalcolo sarebbe impossibile trasformare questi dati in informazioni utili al nostro business e alla strategia di decarbonizzazione che stiamo perseguendo. 

 

 

la fotoSpecialisti monitorano il funzionamento del Green Data Center di Eni. Per una società come Eni, che opera su scala globale, producendo e utilizzando un patrimonio assai rilevante di dati, il supercalcolo non è solo una scelta strategica, ma una necessità operativa

 

 

Gli strumenti digitali, e in particolare il supercalcolo, elaborando i dati a nostra disposizione in modo incredibilmente rapido e massivo, sono quindi fattori di abilitazione e accelerazione dell’innovazione, utilizzati in una molteplicità di ambiti e di processi all’interno della nostra organizzazione.  

 

 

La qualità e la robustezza dei dati 

Nel mondo del supercalcolo, però, non basta avere accesso a un grande volume di dati; è fondamentale che questi siano robusti e di alta qualità. Come dice un vecchio adagio dell’informatica: “garbage in, garbage out”: i dati “sporchi”, incompleti o di difficile attribuzione non solo rendono le simulazioni e le analisi inutili, ma possono portare a decisioni sbagliate. 

 

Per Eni, che basa la sua operatività sull’accuratezza delle informazioni, garantire la qualità dei dati è un aspetto cruciale. Dai sensori che monitorano i nostri giacimenti offshore ai sistemi che analizzano i processi di bio-raffinazione, la robustezza dei dati è alla base di ogni nostra decisione, sia operativa sia strategica. Per questo abbiamo messo in atto, e miglioriamo costantemente, sistemi e processi che implementano una robusta data policy, con applicazioni che sono all’avanguardia nel “federare” e validare i dati in modo trasversale, e quindi fruibile, per le varie famiglie professionali che li utilizzano. 

In questo modo le decisioni si basano su conoscenze solide e verificabili

L’importanza della qualità dei dati non afferisce solo quelli di tipo numerico: una grande società possiede anche un patrimonio informativo testuale che gli strumenti resi oggi disponibili dall’intelligenza artificiale consentono di interrogare, al fine di estrarre rapidamente indicazioni, suggerimenti, soluzioni riferite a problemi passati che ancora oggi possono rivelarsi utili. Il tutto attraverso software di gestione della conoscenza destrutturata e distribuita. Anche in questo caso, è necessario un passaggio di attenta validazione e sistematizzazione dei contenuti in ingresso, in modo da poter utilizzare con fiducia l’output prodotto. In Eni lavoriamo quotidianamente per diffondere questa “cultura del dato” a tutti i livelli, per poter fare affidamento su questa ricchezza a nostra disposizione in modo sempre più efficace e sicuro. 

 

 

Algoritmi: il vero motore del supercalcolo 

Se i dati sono il carburante, la potenza di calcolo il motore, allora dobbiamo immaginare che siano gli algoritmi ad avere in mano il volante. Sono loro che trasformano i dati in energia utile, e questo grazie alle competenze e al talento delle persone che ci lavorano. Possedere un supercomputer senza disporre di algoritmi avanzati sarebbe come avere un’automobile di Formula 1 senza un pilota capace. Nel corso del tempo, e grazie alle competenze delle nostre persone, abbiamo sviluppato una capacità specifica nell’elaborazione di software proprietari in grado di sfruttare al massimo le potenzialità dei supercomputer.  

 

 

 

la fotoDall’intuizione di Enrico Fermi sulla necessità di potenza di calcolo per la fisica, all’evoluzione delle capacità di supercalcolo in Eni, il viaggio è stato straordinario. Oggi il supercalcolo non può essere considerato un accessorio, ma un pilastro centrale dell’innovazione

 

 

Grazie a questi algoritmi, e ai programmi che li traducono in istruzioni ottimizzate per i nostri sistemi di calcolo ad elevato parallelismo, possiamo modellizzare con estrema precisione i giacimenti, possiamo ottimizzare le nostre operazioni, la loro efficienza energetica e la loro sicurezza, possiamo esplorare e validare nuovi percorsi e nuove tecnologie per la produzione di energia da fonti rinnovabili e da breakthrough come la fusione a confinamento magnetico.  

 

La vera forza non risiede dunque solo nella potenza bruta del supercomputer (anche quando, come per Eni, esso si colloca ai vertici delle classifiche mondiali), ma nella capacità di sfruttarla al massimo grazie a una guida intelligente. 

 

 

Il futuro: HPC6 e il Quantum Computing 

Nell’ecosistema dei supercomputer il tempo passa molto velocemente. La classifica Top 500, che elenca i 500 supercomputer più potenti al mondo, si aggiorna ogni sei mesi, con nuovi ingressi o update, e conseguenti movimenti anche nelle sue prime 10 posizioni. 

Occorre utilizzare al meglio le macchine disponibili, ma allo stesso tempo pensare a come sfruttare gli incrementi di potenza computazionale, di efficienza e di integrazione che il progresso rende via via disponibili. 

 

Con l’avvio di HPC6, che entrando in funzione sostituirà a breve HPC4 e HPC5 (avviati, rispettivamente, a gennaio 2018 e a gennaio 2020) Eni disporrà di una potenza di calcolo che prevediamo quasi decuplicata rispetto a quella combinata dei due attuali sistemi (da circa 70 a circa 600 PetaFLOPs di picco). 

 

HPC6 sosterrà, in generale, un’ulteriore fase del nostro processo di innovazione, e in particolare permetterà di affrontare le sfide per raggiungere la neutralità carbonica, attraverso una leva tecnologica decisiva nel campo delle nuove energie. Sempre a supporto della transizione energetica, stiamo avviando specifiche e significative applicazioni del calcolo quantistico attraverso Eniquantic, la joint venture con ITQuanta lanciata a luglio scorso. Con Eniquantic consolidiamo quindi la nostra posizione di avanguardia nel supercalcolo anche in questo affascinante e potenzialmente dirompente ambito. La tecnologia quantistica, anche se in fase iniziale, promette di rivoluzionare completamente la ricerca e lo sviluppo in settori chiave come l’energia e i materiali.  

 

 

 

la fotoNell’ecosistema dei supercomputer il tempo passa molto velocemente. La classifica Top 500, che elenca i 500 supercomputer più potenti al mondo, si aggiorna ogni sei mesi, con nuovi ingressi o update, e conseguenti movimenti anche nelle sue prime 10 posizioni

 

 

Grazie a una maggiore capacità di elaborare simultaneamente un numero incalcolabile di stati, il quantum computing potrebbe risolvere problemi che i supercomputer tradizionali, anche i più potenti, impiegherebbero anni a risolvere. Un recente studio sulla potenziale redditività dei computer quantistici indica come particolarmente rilevante, per massimizzare il ritorno sugli investimenti in questo campo, l’adozione di soluzioni quantum hybrid; tali soluzioni, secondo lo studio, “(…) sfruttano la potenza dei computer quantistici e classici, con conseguente riduzione del rumore ambientale e dei costi rispetto ai computer quantistici puri. Di conseguenza, questi computer forniranno una soluzione quantistica commerciale immediata alle aziende a un costo inferiore, prima che i computer quantistici puri vengano commercializzati”. 

 

Per il quantum computing potrebbe accadere quanto sta avvenendo nel settore automotive, dove i veicoli a propulsione ibrida hanno assunto un ruolo di apripista rispetto a quelli a propulsione elettrica pura. 

 

In un campo di estrema frontiera scientifica e tecnologica come il quantum computing, poter disporre, nella medesima organizzazione, di potenti strumenti di supercalcolo tradizionale e di competenze (e future macchine) quantistiche, apre strade che in Eni stiamo cominciando a percorrere, con grande cautela e consapevolezza delle complessità in gioco, ma anche delle possibili rivoluzionarie applicazioni che si possono aprire.  

 

Per noi il concetto di ibridazione nel supercalcolo non è nuovo; Eni è stata infatti tra le prime aziende al mondo (nel 2014, con il supercalcolatore HPC2) a riconoscere l’importanza di combinare CPU e GPU in una configurazione appunto ibrida, per massimizzare le prestazioni computazionali e l’efficienza energetica dei nostri supercomputer. Si tratta di un approccio tecnico che, come sappiamo, è ora diventato così assodato nel mondo da essere paradigmatico, facendo la fortuna di alcune società originariamente specializzate in schede grafiche per i videogiochi. 

 

 

Conclusioni 

Dall’intuizione di Enrico Fermi sulla necessità di potenza di calcolo per la fisica, all’evoluzione delle capacità di supercalcolo in Eni, il viaggio è stato straordinario. Oggi il supercalcolo non può essere considerato un accessorio, ma un pilastro centrale dell’innovazione.  

 

Per aziende, come la nostra, che operano in un mondo sempre più complesso e interconnesso, la capacità di elaborare dati su scala massiccia è diventata, e sarà sempre più, essenziale. 

 

Con HPC6 e il quantum computing all’orizzonte, Eni non solo continua a spingere i limiti della tecnologia, ma si conferma ancora una volta come leader visionario in un settore dove il futuro dell’energia e dell’innovazione dipende dalla potenza del supercalcolo. La legge di Moore potrebbe non durare per sempre, ma la capacità di innovare, quella sì, resterà ancora a lungo una cifra distintiva del nostro impegno e della nostra mission. 

 

 

 

 

 

 

 

La Legge di Moore è (una) “Legge empirica che descrive lo sviluppo della microelettronica, a partire dall’inizio degli anni Settanta, con una progressione sostanzialmente esponenziale, perciò straordinaria; la legge fu enunciata per la prima volta nel 1965 da Gordon Moore, uno dei fondatori di INTEL e dei pionieri della microelettronica, che la ribadì pubblicamente nel 1974. Essa afferma che la complessità dei microcircuiti (…) raddoppia periodicamente, con un periodo originalmente previsto in 12 mesi, allungato a 2 anni verso la fine degli anni Settanta e dall’inizio degli anni Ottanta assestatosi sui 18 mesi.(…)” (da Enciclopedia Treccani).