- L’Informatica nell’esplorazione petrolifera Eni: Dalle origini al Green Data Center
- Il Green Data Center
- L’ambiente HPC
L’Informatica nell’esplorazione petrolifera Eni: Dalle origini al Green Data Center
Le tecnologie informatiche entrano nell’esplorazione petrolifera nella prima metà degli anni ’50, quando comparvero le prime registrazioni digitali dei rilievi sismici. Eni, attraverso la caposettore di competenza (Agip S.p.A.), figura senz’altro fra gli early-adopters di queste tecnologie.
Tra la fine del ‘60 e l’inizio del ‘61 l’Ufficio Apparecchiature del Servizio Geofisico assemblò un sistema in grado di leggere i nastri magnetici prodotti dai registratori di campagna, apportare ai dati un minimo di correzioni statiche e filtraggio, e plottarli poi affiancati in modo da produrre una pseudo-sezione sismica.
Successivamente, nel 1964, fu acquistato un centro di Playback sviluppato dalla Geospace, in grado di apportare ai dati sismici correzioni statiche e dinamiche, filtraggi, e realizzare la somma (stack) delle tracce sismiche con punto comune di riflessione.
Nel gennaio 1967 fu firmato un accordo con Western Geophysical, che operava già in Italia attraverso Western Ricerche Geofisiche, per l’apertura a Milano di un centro di calcolo condiviso basato su un elaboratore IBM-360/44 e un plotter digitale a tamburo.
La collaborazione con Western fu mantenuta fino alla fine del 1975, poi, nell’aprile del 1976, la Direzione dei Servizi Centrali dell’Esplorazione inaugurò il primo Centro di Calcolo Agip per l’Elaborazione dei Dati Geofisici. Compito iniziale del Centro era quello di elaborare i dati provenienti dalle campagne di acquisizione sismica. Negli anni successivi il compito si estese ad ogni tipo di attività geofisica di interesse per l’Agip e le proprie Consociate.
Il mainframe di questo primo Centro di Calcolo era un IBM 370/145 con 1 MByte di memoria coadiuvato da un Array Processor IBM-2938. L’ambiente periferico era costituito da 3 unità IBM 3330 con dischi removibili da 100 MByte, 6 unità nastro IBM 3420, una stampante IBM 1403, un plotter Calcomp 748, un plotter elettrostatico Versatek, un plotter fotografico Prakla KPU-B pilotato da un elaboratore Digital PDP 11/45. L’interazione col sistema avveniva attraverso videoterminali IBM e, a partire dal 1977, anche mediante un terminale videografico Tektronix.
Nel 1979 il 370/145 fu sostituito da un IBM 3031 con 3 MByte di memoria; l’Array Processor fu aggiornato al modello IBM 3838, a cui si affiancò successivamente l’FPS AP-190L; le unità 3330 furono sostituite da altrettante unità 3350 con dischi fissi da 317,5 MByte.
Alla fine del 1981 l’ambiente fu potenziato con l’aggiunta di un elaboratore IBM 4341/2 (8 MByte), sostituito, alla fine dell’82, dall’IBM 3083 con 16 MByte di memoria.
Negli anni successivi il mainframe IBM continuò ad evolvere verso i modelli della famiglia 3090 ed ES/9000. Il percorso evolutivo contemplò anche l’aggiunta di unità di calcolo vettoriali (Vector Facility) alle CPU del mainframe, il che consentì la dismissione dei vecchi Array Processor. L’ultimo mainframe (ES/9021-962) fu spento nel marzo del ’97.
In parallelo avveniva la progressiva diffusione dei cosiddetti “sistemi aperti” basati su varianti proprietarie del sistema operativo Unix. I sistemi top di gamma dei principali produttori (IBM, SGI, SUN) si affiancarono nei Centri di Calcolo Eni di San Donato Milanese. Momento topico di questa diffusione fu l’acquisto, nel 1992, di un supercalcolatore Cray Y-MP2/232 basato sul sistema operativo UNICOS derivato dalla fusione di UNIx e COS (Cray Operating System). Il Cray disponeva di 256 MByte di memoria e 2 processori vettoriali per una performance di picco pari a 666 MFlop/s.
I primi anni 2000 portarono una novità che avrebbe nuovamente rivoluzionato l’assetto dei Centri di Calcolo: il sistema operativo Linux. La novità dirompente consisteva non tanto nell’adozione d’un sistema operativo open-source, bensì nella sua disponibilità per computer basati su componentistica Industry-standard. Il costo relativamente contenuto di questa componentistica rese infatti ben presto evidente la possibilità di acquisire potenze di calcolo ingenti a costi sostenibili. Il modello di crescita era naturalmente di tipo scale-out, vale a dire che queste potenze di calcolo sarebbero state ottenute affiancando numerosi computer “standard” operanti in cluster. Rimaneva tuttavia problematico il costo delle licenze d’uso delle applicazioni commerciali, tipicamente licenziate “per core”. Su queste premesse fu riconosciuta l’opportunità di potenziare e accelerare lo sviluppo delle applicazioni proprietarie. Iniziò così un’escalation, che dura tuttora, verso potenze di calcolo sempre maggiori e sistemi sempre più sofisticati di High Performance Computing.
Tra il 2001 e il 2006, oltre dieci cluster Linux furono installati in rapida sequenza nel Centro di Calcolo Eni, per un totale di circa 1.000 nodi di calcolo in produzione.
Il 2007 rappresentò poi un anno di svolta per la decisione di acquisire in soluzione unica 10.240 core di calcolo, corrispondenti a 2.560 nodi e una potenza di picco pari ad oltre 88 TFlop/s. I nodi furono suddivisi in 8 cluster distinti (6 da 256 + 2 da 512 nodi). La potenza elettrica necessaria ad alimentare queste macchine sfiorava il MW, un ammontare incompatibile con le disponibilità del Centro di Calcolo Eni dell’epoca. Si ricorse quindi ad un sito ospite esterno, individuato nel Centro di Calcolo del Cineca a Casalecchio di Reno (BO).
I sistemi HPC i Eni, più volte rivisitati e aggiornati, sono rimasti in Cineca per circa 6 anni, fino all’apertura del Green Data Center.
Inaugurato il 29 ottobre del 2013, il Green Data Center è tra i primi Centri di Calcolo in Europa per tipologia e dimensione (5.200 mq utili, fino a 30 MW di potenza IT, fino a 50 kW/mq) e tra i primi al mondo per efficienza energetica (PUE di progetto 1,2).
L’edificio è costituito da due corpi simmetrici distanti tra di loro 20 m e organizzati per garantire ridondanza sia dal punto di vista strutturale che impiantistico. Ognuno dei due corpi, denominati trifogli, contiene tre sale macchine: due da 800 e una da 1.000 mq.
L’efficienza energetica del Green Data Center deriva soprattutto dal sistema di raffreddamento in free-cooling. Anziché impiegare ininterrottamente unità di condizionamento, il free-cooling sfrutta un sistema complesso di regolazione della temperatura che consente l’utilizzo diretto dell’aria esterna per gran parte dell’anno; il ricorso ai condizionatori è quindi ridotto alle sole giornate più calde. Il risultato è particolarmente significativo se si considera che la tecnica del free-cooling è utilizzata tipicamente in siti collocati più a nord del 45° parallelo, e comunque in climi più rigidi.
Il Green Data Center è costruito in prossimità della centrale elettrica Enipower di Ferrera Erbognone; la centrale è alimentata a metano, la meno inquinante tra le fonti fossili. La vicinanza della Centrale consente di migliorare ulteriormente l’efficienza energetica complessiva, dal momento che elimina le dispersioni di energia dovute al trasporto su rete geografica.
Altro elemento d’eccellenza del sito sta nelle ridondanze che offre a garanzia di un’assoluta continuità d’esercizio. Il Green Data Center è infatti classificato Tier IV, il livello massimo previsto dai criteri di classificazione dell’Uptime Institute. Inoltre, un sistema di controllo a San Donato Milanese tiene costantemente sotto monitor il funzionamento degli impianti tecnici del GDC.
- decuplicare la performance dell’ultima generazione dei sistemi HPC in Cineca (da 300 TF/s a 3 PF/s).
- adottare architetture ibride basate su CPU Intel e GPU Nvidia.

