Skip to Content
STORIA DELL'INFORMATICA
STORIA DELL'INFORMATICA
STORIA DELL'INFORMATICA
Eni – Ente Nazionale Idrocarburi

Fondata nel 1953 da Enrico Mattei, Eni è oggi un’impresa dell’energia presente con 33.000 persone in 73 Paesi nel mondo. Questa la sua mission, recentemente ridefinita dall’Amministratore Delegato Claudio Descalzi:

«Siamo un’impresa dell’energia. Lavoriamo per costruire un futuro in cui tutti possano accedere alle risorse energetiche in maniera efficiente e sostenibile. Fondiamo il nostro lavoro sulla passione e l’innovazione. Sulla forza e lo sviluppo delle nostre competenze. Sul valore della persona, riconoscendo la diversità come risorsa. Crediamo nella partnership di lungo termine con i Paesi e le comunità che ci ospitano».

INDICE

 

L’Informatica nell’esplorazione petrolifera Eni: Dalle origini al Green Data Center

Le tecnologie informatiche entrano nell’esplorazione petrolifera nella prima metà degli anni ’50, quando comparvero le prime registrazioni digitali dei rilievi sismici. Eni, attraverso la caposettore di competenza (Agip S.p.A.), figura senz’altro fra gli early-adopters di queste tecnologie.

Tra la fine del ‘60 e l’inizio del ‘61 l’Ufficio Apparecchiature del Servizio Geofisico assemblò un sistema in grado di leggere i nastri magnetici prodotti dai registratori di campagna, apportare ai dati un minimo di correzioni statiche e filtraggio, e plottarli poi affiancati in modo da produrre una pseudo-sezione sismica.

Successivamente, nel 1964, fu acquistato un centro di Playback sviluppato dalla Geospace, in grado di apportare ai dati sismici correzioni statiche e dinamiche, filtraggi, e realizzare la somma (stack) delle tracce sismiche con punto comune di riflessione.

Nel gennaio 1967 fu firmato un accordo con Western Geophysical, che operava già in Italia attraverso Western Ricerche Geofisiche, per l’apertura a Milano di un centro di calcolo condiviso basato su un elaboratore IBM-360/44 e un plotter digitale a tamburo.

La collaborazione con Western fu mantenuta fino alla fine del 1975, poi, nell’aprile del 1976, la Direzione dei Servizi Centrali dell’Esplorazione inaugurò il primo Centro di Calcolo Agip per l’Elaborazione dei Dati Geofisici. Compito iniziale del Centro era quello di elaborare i dati provenienti dalle campagne di acquisizione sismica. Negli anni successivi il compito si estese ad ogni tipo di attività geofisica di interesse per l’Agip e le proprie Consociate.

Il mainframe di questo primo Centro di Calcolo era un IBM 370/145 con 1 MByte di memoria coadiuvato da un Array Processor IBM-2938. L’ambiente periferico era costituito da 3 unità IBM 3330 con dischi removibili da 100 MByte, 6 unità nastro IBM 3420, una stampante IBM 1403, un plotter Calcomp 748, un plotter elettrostatico Versatek, un plotter fotografico Prakla KPU-B pilotato da un elaboratore Digital PDP 11/45. L’interazione col sistema avveniva attraverso videoterminali IBM e, a partire dal 1977, anche mediante un terminale videografico Tektronix.

Nel 1979 il 370/145 fu sostituito da un IBM 3031 con 3 MByte di memoria; l’Array Processor fu aggiornato al modello IBM 3838, a cui si affiancò successivamente l’FPS AP-190L; le unità 3330 furono sostituite da altrettante unità 3350 con dischi fissi da 317,5 MByte.

Alla fine del 1981 l’ambiente fu potenziato con l’aggiunta di un elaboratore IBM 4341/2 (8 MByte), sostituito, alla fine dell’82, dall’IBM 3083 con 16 MByte di memoria.

Negli anni successivi il mainframe IBM continuò ad evolvere verso i modelli della famiglia 3090 ed ES/9000. Il percorso evolutivo contemplò anche l’aggiunta di unità di calcolo vettoriali (Vector Facility) alle CPU del mainframe, il che consentì la dismissione dei vecchi Array Processor. L’ultimo mainframe (ES/9021-962) fu spento nel marzo del ’97.

In parallelo avveniva la progressiva diffusione dei cosiddetti “sistemi aperti” basati su varianti proprietarie del sistema operativo Unix. I sistemi top di gamma dei principali produttori (IBM, SGI, SUN) si affiancarono nei Centri di Calcolo Eni di San Donato Milanese. Momento topico di questa diffusione fu l’acquisto, nel 1992, di un supercalcolatore Cray Y-MP2/232 basato sul sistema operativo UNICOS derivato dalla fusione di UNIx e COS (Cray Operating System). Il Cray disponeva di 256 MByte di memoria e 2 processori vettoriali per una performance di picco pari a 666 MFlop/s.

I primi anni 2000 portarono una novità che avrebbe nuovamente rivoluzionato l’assetto dei Centri di Calcolo: il sistema operativo Linux. La novità dirompente consisteva non tanto nell’adozione d’un sistema operativo open-source, bensì nella sua disponibilità per computer basati su componentistica Industry-standard. Il costo relativamente contenuto di questa componentistica rese infatti ben presto evidente la possibilità di acquisire potenze di calcolo ingenti a costi sostenibili. Il modello di crescita era naturalmente di tipo scale-out, vale a dire che queste potenze di calcolo sarebbero state ottenute affiancando numerosi computer “standard” operanti in cluster. Rimaneva tuttavia problematico il costo delle licenze d’uso delle applicazioni commerciali, tipicamente licenziate “per core”. Su queste premesse fu riconosciuta l’opportunità di potenziare e accelerare lo sviluppo delle applicazioni proprietarie. Iniziò così un’escalation, che dura tuttora, verso potenze di calcolo sempre maggiori e sistemi sempre più sofisticati di High Performance Computing.

Tra il 2001 e il 2006, oltre dieci cluster Linux furono installati in rapida sequenza nel Centro di Calcolo Eni, per un totale di circa 1.000 nodi di calcolo in produzione.

Il 2007 rappresentò poi un anno di svolta per la decisione di acquisire in soluzione unica 10.240 core di calcolo, corrispondenti a 2.560 nodi e una potenza di picco pari ad oltre 88 TFlop/s. I nodi furono suddivisi in 8 cluster distinti (6 da 256 + 2 da 512 nodi). La potenza elettrica necessaria ad alimentare queste macchine sfiorava il MW, un ammontare incompatibile con le disponibilità del Centro di Calcolo Eni dell’epoca. Si ricorse quindi ad un sito ospite esterno, individuato nel Centro di Calcolo del Cineca a Casalecchio di Reno (BO).

I sistemi HPC i Eni, più volte rivisitati e aggiornati, sono rimasti in Cineca per circa 6 anni, fino all’apertura del Green Data Center.

Vai all'indice

Il Green Data Center

Inaugurato il 29 ottobre del 2013, il Green Data Center è tra i primi Centri di Calcolo in Europa per tipologia e dimensione (5.200 mq utili, fino a 30 MW di potenza IT, fino a 50 kW/mq) e tra i primi al mondo per efficienza energetica (PUE di progetto 1,2).

L’edificio è costituito da due corpi simmetrici distanti tra di loro 20 m e organizzati per garantire ridondanza sia dal punto di vista strutturale che impiantistico. Ognuno dei due corpi, denominati trifogli, contiene tre sale macchine: due da 800 e una da 1.000 mq.

L’efficienza energetica del Green Data Center deriva soprattutto dal sistema di raffreddamento in free-cooling. Anziché impiegare ininterrottamente unità di condizionamento, il free-cooling sfrutta un sistema complesso di regolazione della temperatura che consente l’utilizzo diretto dell’aria esterna per gran parte dell’anno; il ricorso ai condizionatori è quindi ridotto alle sole giornate più calde. Il risultato è particolarmente significativo se si considera che la tecnica del free-cooling è utilizzata tipicamente in siti collocati più a nord del 45° parallelo, e comunque in climi più rigidi.

Il Green Data Center è costruito in prossimità della centrale elettrica Enipower di Ferrera Erbognone; la centrale è alimentata a metano, la meno inquinante tra le fonti fossili. La vicinanza della Centrale consente di migliorare ulteriormente l’efficienza energetica complessiva, dal momento che elimina le dispersioni di energia dovute al trasporto su rete geografica.
Altro elemento d’eccellenza del sito sta nelle ridondanze che offre a garanzia di un’assoluta continuità d’esercizio. Il Green Data Center è infatti classificato Tier IV, il livello massimo previsto dai criteri di classificazione dell’Uptime Institute. Inoltre, un sistema di controllo a San Donato Milanese tiene costantemente sotto monitor il funzionamento degli impianti tecnici del GDC.

 

Vai all'indice

L’ambiente HPC

L’apertura del Green Data Center ha consentito il rientro in Eni degli ambienti di calcolo trasferiti in Cineca nel 2007. La disponibilità del nuovo sito ha offerto in realtà l’occasione per una profonda rivisitazione dell’ambiente di High Performance Computing. In particolare è stato stabilito di:
  • decuplicare la performance dell’ultima generazione dei sistemi HPC in Cineca (da 300 TF/s a 3 PF/s).
  • adottare architetture ibride basate su CPU Intel e GPU Nvidia.
 
Nel 2013 e 2014 sono stati installati rispettivamente i cluster hpc1 ed hpc2, due sistemi ibridi da 1.500 nodi basati, il primo, su CPU Intel SandyBridge + GPU Nvidia K10, il secondo, su CPU Intel IvyBridge + GPU Nvidia K20X. La fornitura dei due sistemi è stata assegnata ad IBM in altrettante gare d’appalto indipendenti.
 
Hpc2 è entrato in posizione 11-ma nella TOP500 di giugno 2014 con oltre 3 PF/s di HPL, e in posizione nona nella coeva GREEN500 con 2,8 GF/s/W. Il cluster ha inoltre fruttato ad Eni il “Readers Choice Award” di HPCwire, la prestigiosa rivista di settore, con la motivazione “Best Use of HPC in the Oil & Gas Industry”.
 
La prima generazione di sistemi HPC al GDC, giunta ormai a fine-vita, è in fase di sostituzione.
 
Il cluster hpc1 è stato già sostituito con un nuovo sistema (hpc3) da 750 nodi basati su CPU Intel Broadwell + GPU Nvidia K80. Hpc3, entrato in esercizio nel marzo 2017, ha una performance di picco di 3,8 PF/s e una performance HPL di 2,6 PF/s. La fornitura è stata assegnata in gara ad IBM/Lenovo.
 
 
Il sostituto di hpc2 (hpc4) sarà consegnato entro la fine del 2017 e installato in Q1 2018.
 
Con il cluster hpc4 si prevede di ampliare il numero delle soluzioni ibride da porre in competizione; si stanno valutando a tal fine CPU AMD, CPU IBM e GPU AMD.
 
L’ampliamento delle soluzioni certificate presuppone naturalmente un attento e oneroso lavoro preliminare di valutazione delle architetture di potenziale interesse, e il successivo porting delle applicazioni proprietarie sulle nuove piattaforme. Queste attività di rilievo applicativo fanno parte di una sorta di laboratorio permanente che Eni porta avanti attraverso specifici progetti di ricerca multidisciplinari. In questi progetti confluisce anche la valutazione dei sistemi di storage per l’ambiente HPC.
 
La sostituzione in corso dei sistemi HPC di prima generazione ha riguardato anche il sistema di storage. Dopo un decennio di utilizzo di sistemi basati sul filesystem parallelo GPFS (IBM), l’esito positivo della valutazione di Lustre (filesystem parallelo open source) ha consentito di porre in competizione le due soluzioni. La fornitura è stata assegnata ad HPE, che ha offerto un sistema basato Lustre. Il nuovo storage, acceduto simultaneamente dai due cluster di produzione, si compone di un’area primaria (tier1) da 10 PB e 200 GB/s, un’area secondaria (tier2) da 5 PB e 10 GB/s, e un’area NAS (Network Attached Storage) da 100 TB e 100.000 IOPS.
 
 
Le risorse HPC sono principalmente dedicate all’esecuzione di applicazioni proprietarie di processing sismico (subsurface imaging) e geologia di bacino (petroleum system modeling). Il contesto applicativo si sta peraltro espandendo ai simulatori di giacimento, sul cui sviluppo si è recentemente deciso d’investire.