Skip to Content
STORIA DELL'INFORMATICA
STORIA DELL'INFORMATICA
STORIA DELL'INFORMATICA

ENEA - Agenzia Nazionale per le Nuove Tecnologie

Giovanni Bracco

ENEA [1], l’Agenzia nazionale per le nuove tecnologie, l’energia e lo sviluppo economico sostenibile  è nata nel 2009 ed è erede di competenze, risorse ed esperienza degli Enti che l’hanno preceduta.

Nel 1952 viene creato, presso il CNR, il CNRN (Comitato Nazionale per le Ricerche Nucleari) il cui scopo è acquisire e diffondere conoscenze scientifiche sulle applicazioni pacifiche dell’energia nucleare alle scienze biologiche, agricole, alla fisica dei materiali e all’elettronica. Nel 1960 il Governo italiano cede all’EURATOM il Centro Ricerche di Ispra e, sull’onda dell’entusiasmo seguito alla prima Conferenza sull’uso pacifico dell’energia nucleare, organizzata a Ginevra nel 1955 dall’ONU, il Parlamento trasforma il CNRN in CNEN (Comitato Nazionale per l’Energia Nucleare). Il CNEN si organizza come struttura di sviluppo tecnologico, in stretto collegamento con l’industria, per la progettazione e realizzazione di impianti nucleari e impianti per il ciclo del combustibile.

Nel 1982 il CNEN si trasforma in ENEA (Comitato nazionale per la ricerca e lo sviluppo dell’Energia Nucleare e delle Energie Alternative) e si occupa, da quel momento, non più soltanto di energia nucleare ma anche di fonti rinnovabili, uso razionale dell’energia e impatto ambientale.

A seguito dei risultati dei tre referendum popolari del 1987 nel 1991 l’Ente diventa Ente per le Nuove tecnologie l’Energia e l’Ambiente, mantenendo lo stesso acronimo ENEA e con una nuova missione: la ricerca nel campo delle energie alternative, delle nuove tecnologie e dell’ambiente.

Il ruolo di ente pubblico che opera nei settori dell'energia, dell'ambiente e delle nuove tecnologie viene confermato nelle successive leggi di riforma che hanno infine portato nel 2009 alla nascita dell’Agenzia nazionale per le nuove tecnologie, l’energia e lo sviluppo economico sostenibile (ENEA), finalizzata “alla ricerca e all’innovazione tecnologica nonché alla prestazione di servizi avanzati nei settori dell’energia, con particolare riguardo al settore nucleare, e dello sviluppo economico sostenibile”.

Le attività di ricerca e sviluppo portate avanti nel corso del tempo hanno richiesto sin dall'inizio degli anni '60 [2] la disponibilità di sistemi di calcolo di taglia significativa come supporto alla modellistica e alla simulazione innanzi tutto nel campo nucleare ma con l'evoluzione dei compiti assegnati l'ambito si è esteso al settore energetico in senso più ampio e a quello ambientale.

Una specificità poi delle infrastrutture per il calcolo scientifico e tecnologico di CNEN prima e di ENEA è stata quella di essere distribuita sul territorio nazionale tra molti dei centri di ricerca dell'Ente stimolando quindi già dalla fine degli anni '60 la realizzazione di una rete efficace di interconnessione tra i sistemi disponibili e successivamente, a partire dagli anni '90, di una integrazione complessiva delle risorse di calcolo in una infrastruttura unitaria delle risorse disponibili.

Nei prossimi paragrafi verrà descritto lo sviluppo dei sistemi di calcolo dall'inizio degli anni '60 fino ad oggi, inizio 2017, partendo dalla descrizione dei primi sistemi [1-5], procedendo con l'adozione dei mainframe, epoca conclusasi per ENEA nei primi anni 2000, descrivendo la situazione molto varia e diversificata degli anni '90 fino allo sviluppo di una infrastruttura organica ed integrata ENEAGRID [6,7] tuttora in produzione e che include i sistemi più recenti [8,9,11,12]. I dati specifici dei singoli sistemi sono stati raccolti nella Tabella 1.

ENEA

INDICE

 

I primi sistemi, anni '60

Per la realizzazione dei programmi di ricerca del CNEN era necessario disporre di un mezzo di calcolo di elevate capacità comparabile con quelli esistenti nei centri di ricerca di altri Paesi; nel 1960 venne deciso quindi l'acquisto per la sede di Bologna di un calcolatore IBM-704 [2] che costituì al momento il sistema di calcolo più potente installato in Italia. Il gruppo numerico della sede CNEN di Bologna aveva già lavorato sul sistema IBM-650 della Facoltà di Ingegneria della Università di Bologna collaborando anche alla organizzazione della sua acquisizione, con fondi MIUR ed del Comune di Bologna.  Il sistema CNEN IBM-704 fu installato nel 1961 [3] e poi affiancato da un sistema IBM-1401 dedicato alle operazioni di I/O. Nel 1964 venne poi acquistato un sistema IBM-7094 , Fig. 1, corredato di due sistemi IBM-1401 per l'I/O sostituiti per i servizi di I/O nel 1966 da un sistema IBM-7040, realizzando così un sistema accoppiato IBM-7094/7040. Nel 1961 nel Centro di Ricerche di Frascati veniva installato un sistema IBM-1620/1 [4] e successivamente un simile sistema IBM 1620 venne istallato pure nel Centro Ricerche Casaccia. Nel 1968 sempre nel Centro di Ricerche di Casaccia veniva acquisito un sistema ibrido digitale/analogico EAI 8800/640 [5]. Tale installazione costituiva lo sviluppo delle attività pregresse nel campo del calcolo analogico che avevano portato anche allo sviluppo negli anni precedenti di un sistema realizzato all'interno del CNEN. L'attività intensa del CNEN nel campo del calcolo elettronico era supportata in quegli anni da un folto gruppo di personale che tra i soli Centri di Bologna e Frascati ammontava complessivamente a circa 60 unità tra ricercatori e tecnici, dedicate esclusivamente al calcolo scientifico, la cui attività spaziava dalla gestione dei sistemi allo sviluppo numerico fino alla gestione delle banche dati nucleari.

    

Sala calcolatori elettronici: Console del sistema IBM-7094 ed unità nastro [3]

Vai all'indice

 

L'epoca dei mainframe 1968 - 2003 

Seguendo lo sviluppo tecnologico, dalla fine degli anni '60 le risorse per il calcolo scientifico del CNEN, ENEA dal 1982, diventano basate sui sistemi mainframe IBM, inizialmente della serie IBM 360, IBM 370, IBM 390 e infine a sistemi della serie 9000. A partire dal 1968 i mainframe IBM vengono installati su 4 sedi, Bologna, Frascati, Casaccia e la sede centrale di Roma, Fig.2. A partire del 1988 i mainframe iniziano a supportare la Vector Facility di cui vengono progressivamente dotati tutti i centri. I sistemi operativi utilizzatoti sono le varie versione di MVS/OS390 ma anche in qualche caso VM. Vengono anche acquisiti mainframe IBM compatibili, prodotti da Olivetti-Hitachi. Alla metà degli anni '90 il trasferimenti logistici sia della Sede Centrale a Roma che della sede di Bologna Via Mazzini coincidono con la dismissione dei relativi mainframe.  Pure il sistema di Casaccia viene trasferito negli stessi anni a Frascati, sito che era stato identificato come la localizzazione di questo tipo di tecnologia. Per quanto riguarda il calcolo scientifico un sistema mainframe viene mantenuto in ENEA fino al 2003, quando viene dismesso il modello IBM 9672/R3 che era stato installato a Frascati nel 1999. In Casaccia a partire dall'inizio degli anni '80 vengono installati anche sistemi VAX, sistema operativo MVS, che col tipo VAX 9000 del 1992 possono anch'essi inclusi nella categoria mainframe e che al livello invece di minicomputer sono ampiamente diffusi negli stessi anni nei laboratori sperimentali dell'Ente.

Centro di Calcolo. Sede Centrale Roma, 1980

Vai all'indice

 

Adozione di tecnologie diversificate e attività di sviluppo 1990 - 2005

Dall'inizio degli anni '90 l'alto costo delle tecnologie mainframe promuove la diffusione di sistemi basati su minicomputer e workstation UNIX. Tale tendenza si sviluppa in ENEA dapprima con l'introduzione di sistemi IBM RISC/6000 per proseguire poi con sistemi paralleli SP2 dotati di rete di connessione dedicata al calcolo. Sistemi SP2 vengono installati a Frascati e Bologna mentre su Casaccia ai già citati sistemi VAX si aggiungono macchine dedicate specificamente a due linee di ricerca e sviluppo.

La prima riguarda le attività di calcolo del gruppo di simulazioni di clima che spinse all'installazione prima di un modello Cray Y-MP EL entry level e poi ad un sistema vettoriale SV1/1A.

La seconda invece è frutto del coinvolgimento di ENEA in una attività di sviluppo di una piattaforma dedicata al calcolo largamente parallelo, nata in INFN con il progetto APE100 ed evoluta poi anche in un quadro industriale da Alenia Spazio e dalla sua controllata inglese Quadrics Supercomputer World, che aveva incorporato Meiko Scientific, la società che aveva sviluppato negli anni '80 i transputer. Si tratta di sistemi SIMD (Single Instruction on Multiple Data) di cui fu acquisito da ENEA un certo numero in varie versioni da 8 fino a 512 processori, da Quadrics-Q1 a QH4. Nel 1995 viene poi varato il progetto PQE-2000 che coinvolgeva oltre ad ENEA anche CNR, INFN ed Alenia Spazio per la realizzazione di una piattaforma che integrasse le potenzialità MIMD (Multiple Instruction on Multiple Data) con quelle di un sistema puramente SIMD. Tale progetto portò alla realizzazione di un prototipo che accoppiava un sistema Quadrics QSW-CS2  di tipo MIMD  con i sistemi SIMD Quadrics. La componente MIMD era dotata di una rete di comunicazione veloce Meiko la cui evoluzione portò poi successivamente alla implementazione della rete QsNet, concorrente nei primi anni 2000 di Infiniband e Myrinet.

In Casaccia nel 2000 viene acquisto un sistema, FERONIA, formato da un cluster di nodi con processori DIgital Alpha e dotato di rete QsNet. Dopo la chiusura della linea di processori Alpha l'infrastruttura QsNet venne riusata con il cluster FERONIX, con precessore Intel Xeon.

Tornando alla seconda metà degli anni '90 sistemi Quadrics furono anche installati a Bologna, Frascati e Trisaia formando il primo nucleo di una infrastruttura di risorse di calcolo omogenee distribuite sul territorio nazionale.

Vai all'indice

 

Il sistema integrato per il calcolo scientifico ENEAGRID

Come si è visto nella sezione precedente dalla seconda metà degli anni '90 il quadro generale dei sistemi per il calcolo scientifico di ENEA mostra una situazione molto variegata che include ancora qualche mainframe ma nello stesso tempo anche molteplici piattaforme di calcolo con hardware e sistemi operativi molto diversi. Negli stessi anni in un contesto molto più ampio la disponibilità di sistemi di calcolo potenti, distribuiti su vaste aree geografiche ma connessi tra loro da reti ad alta velocità, portava allo sviluppo del concetto di griglia computazionale. Grazie allo sviluppo della rete GARR  anche i sistemi di calcolo ENEA erano connessi con una rete di buone prestazioni e quindi era naturale pensare di integrare tali risorse in una infrastruttura comune per fornire all'utenza un servizio meno frammentato  ed omogeneo nei metodi di accesso. Si trattava quindi di realizzare una griglia (GRID) computazionale, ENEAGRID.

Il concetto di GRID scaturisce dal tentativo di fornire una visione unitaria su di un insieme eterogeneo di risorse informatiche sparse tra siti distanti appartenenti e si adatta poi particolarmente bene al caso  di una singola istituzione distribuita tra molte sedi, come il caso di ENEA. La realizzazione concreta di una griglia computazionale richiede la definizione di un insieme di strumenti software capaci di realizzare in modo uniforme l'accesso alle risorse informatiche disponibili, sia in termini di sistemi di calcolo che di archiviazione di dati. Inoltre tali strumenti devono essere in grado di garantire la sicurezza di operazione della griglia e fornire la possibilità di monitorare in ogni istante il suo funzionamento.

I componenti software scelti al cuore della implementazione iniziale di ENEAGRID [6,7] sono stati LSF Multicluster, un prodotto Platform, incorporato negli anni recenti in IBM, per la gestione delle risorse e AFS, il file system allora distribuito da IBM Transarc ed poi diventato Open Source. Tali componenti si sono dimostrati prodotti affidabili e tuttora ben utilizzabili anche a più di 25 anni dalla prima messa in servizio. Tali prodotti si caratterizzavano per un buon supporto multi piattaforma ed una natura intrinsicamente distribuita. Per le altre funzionalità di base, ovvero la gestione della grafica remota e il monitoraggio, i prodotti usati inizialmente erano CITRIX Metaframe e Patrol per il monitoring dell'intera infrastruttura. Tali componenti furono poi sostituiti nel corso degli anni da prodotti Open Source come FreeNX e Zabbix. Il sistema di autenticazione inizlalmente integrato in AFS migrò successivamente all'utilizzo di Kerberos 5 MIT nativo. L'insieme di questi software, ai quali si è aggiunto negli anni 2000 anche il file system parallelo GPFS (dal 2016 chiamato Spectrum Scale) di IBM, costituisce il così detto “middleware” di ENEAGRID ed ha permesso di integrare negli ultimi 25 anni gran parte delle risorse di calcolo in un unico ambiente di facile accesso per l'utente e di facile amministrazione per la gestione. 

Sin dall'inizio ENEAGRID venne concepita come un insieme di risorse, servizi ed applicazioni usufruibili dall'utente attraverso delle interfacce standard e unificate con un alto livello di astrazione rispetto a quello dei sistemi hardware che lo supportava. Tale modalità di operazione prefigurava per l'utente quello che in anni recenti viene fornito dai servizi di tipo Cloud, anche se all'epoca il concetto di sistemi virtualizzati era ancora ai suoi stati iniziali.

L'infrastruttura appena illustrata, sviluppata alla fine degli anni '90 ed implementata inizialmente sul sistema di Quadrics distribuite sui vari centri ENEA, ha incorporato progressivamente i sistemi già descritti ed ad essi si sono poi aggiunti quelli acquisiti nella prima metà degli anni 2000 e caratterizzati ancora da una certa varietà.

A Frascati vennero installati sistemi IBM AIX SP3 (64 cpu), SP4 (128 cpu) ed infine SP5 (256 cores) , tre generazioni di cluster Linux 32 bit composti rispettivamente da 6, 10 e 16 nodi ed un cluster AMD x86_64, di 20 nodi biprocessore. A Casaccia un cluster linux di 7 nodi con processori Pentium4, il sistema SGI Altix 350 con 32 cpu IA64, un sistema CRAY XD1, un cluster linux con processore AMD x86_64 e dotato di schede FPGA. Tutti questi sistemi erano integrati in ENEAGRID [7] e accessibili in modalità unificata per l'utenza. Dal punto di vista della potenza di calcolo il sistema più significativo era il cluster SP5 di 1.6 TFlops.

Vai all'indice

 

Focalizzazione delle architetture e progetti PON 2005 - oggi

Nel corso degli anni 2000 è avvenuto poi un cambiamento importante nella modalità di finanziamento delle nuove risorse di calcolo con l'arrivo dei progetti infrastrutturali cofinanziati dal MIUR nel quadro dei Piani Operativi Nazionali, mirati allo sviluppo delle regioni le regioni dell’Unione Europea con un prodotto interno lordo (PIL) pro capite inferiore al 75% della media comunitaria.  L'aggiudicazione di alcuni progetti ENEA in risposta a bandi PON di carattere infrastrutturale ha fatto fare un salto di qualità  nella dimensione delle risorse di calcolo disponibili. Le condizioni specifiche dei Bandi PON hanno così portato allo sviluppo dei centri di calcolo dei siti ENEA del meridione, innanzitutto Portici, quello meglio collegato dato la vicinanza di Napoli, ma anche Brindisi e Trisaia.

Nel campo ICT i due primi progetti portati a termine da ENEA nell'ambito del PON Ricerca 2000-2006 del MIUR sono stati i progetti TELEGRID e CAMPUS [8]. Con questi due progetti è stato possibile potenziare i Centri di Calcolo di Portici, Brindisi e Trisaia, con l'installazione di risorse di calcolo (Linux x86, AIX, IRIX e anche MacOS), di sistemi storage significativi e di tutti i servizi necessari ad integrare tali risorse in ENEAGRID. Quanto realizzato con tali progetti ha costituito poi la base sulla quale ENEA si aggiudicò nel 2006 il progetto CRESCO, sempre nel quadro PON Ricerca 2000-2006.

Con il progetto CRESCO [9] la strategia di sviluppo delle risorse calcolo di ENEA ha avuto una evoluzione importante concentrando l'azione sulla acquisizione di un sistema di calcolo allo stato dell'arte che ottimizzasse il rapporto potenza di calcolo e costi in armonia con quanto avveniva all'epoca nel quadro internazionale. Venne prescelto così un sistema basato su Linux X86_64 e rete Infiniband DDR. Per venire incontro ad esigenze specifiche dell'utenza il sistema, di produzione IBM, venne comunque strutturato in tre sezioni che condividevano la stessa rete Infiniband: una sezione a grande memoria, con nodi a 4 socket e 64 GB RAM (CRESCO1), una sezione principale di 256 nodi blade dual socket e 16 GB di RAM (CRESCO2) ed infine una terza sezione speciale (di nodi con schede video di alte prestazioni, nodi con scheda FPGA, 4 nodi Cell) dedicata ad attività di sperimentazione. Il sistema, entrato in produzione nel 2008, appare nelle liste Top 500 dalla fine del 2007 alla fine del 2009 con Rmax da 9.2 a 24.5 TFlops, occupando la posizione più significativa (#126) al giugno 2008 con 17.1 TFlops. Sul  sito di Portici la realizzazione del progetto CRESCO richiese la creazione di una nuova sala calcolo, Fig.3, il potenziamento dei sistemi di alimentazione elettrica (300 KW sotto UPS), la realizzazione dei sistemi di condizionamento (per 250 KW di capacità refrigerante), l'acquisizione di un sistema storage DDN 9550 180 TB ed di una libreria nastro IBM serie TS3500. Nel quadro del progetto CRESCO vennero anche installate risorse di calcolo più limitate a Brindisi, cluster CRESCOB, e Trisaia.

Portici Centro di Calcolo CRESCO, 2008

 

Negli anni successivi il cluster CRESCO2 fu poi espanso fino a 340 blades raggiungendo così 2720 cores ai quali si aggiungevano i 672 cores della sezione CRESCO1, per un totale di 3392.

Negli stessi anni è stato portato avanti un rinnovamento delle risorse di calcolo nelle regioni fuori progetti PON e data la progressiva riduzione dei finanziamenti provenienti del Contributo Ordinario dello Stato l'aggiornamento è stato fatto su dimensione limitata ma con la stessa strategia di focalizzazione sulla piattaforma Linux X86_64, con l'acquisizione di un cluster su Casaccia, CRESCOC, di 16 nodi  dual processor AMD 6 core, rete Infiniband DDR, e di uno su Frascati, CRESCOF, 20 nodi dual processor AMD  12 core, rete Infiniband QDR.

Sempre a Portici nel periodo 2008-2012 è stato ospitato il sistema il Gateway Eurofusion [10] un piccolo  cluster di sviluppo (1 Tflop) dedicato alle attività di simulazione dei ricercatori europei nel campo della fusione nucleare controllata per il quale ENEA si aggiudicò la relativa gara emessa da Eurofusion.

Con l'arrivo dei bandi inquadrati nel successivo PON 2007-2013 l'infrastruttura realizzata con il progetto CRESCO è stata la base sia per il successo nella aggiudicazione di vari progetti di ricerca (LAMRECOR, VIS4FACTORY, DIRECTFOOD, ITA@CHA [11]), con dotazioni contenute per quanto riguardava fondi infrastrutturali, che in quella del progetto infrastrutturale TEDAT [11] più rilevante in termini quantitativi. L'insieme di questi progetti ha valorizzato gli investimenti della tornata precedente dei progetti PON sfruttando anche il gruppo di competenza che era stato creato sopratutto a Portici nel corso degli anni del loro sviluppo.

Per quel che riguarda i progetti PON 2007-2013 le risorse infrastrutturali limitate dei progetti di ricerca sono state concentrate su due linee: l'acquisizione in varie frazioni di un singolo cluster CRESCO3 (al suo completamento formato da 84 nodi da 24 cores ognuno per un totale di 2016 cores, rete Infiniband QDR), il potenziamento della infrastruttura storage basata su un sistema DDN9900. CRESCO3 è entrato in produzione nel 2013 ed è installato nelle stessa sala calcolo che ospitava i cluster CRESCO precedenti.

Il progetto infrastrutturale TEDAT ha permesso un aggiornamento significativo delle risorse complessive permettendo di mettere in funzione ad inizio 2014 il cluster CRESCO4 [12], dotato di 304 nodi dual 8 cores (4864 in totale) per un Rpeak di circa 100 TFlops e rete Infiniband QDR. La messa in servizio di CRESCO4 ha richiesto la creazione di una seconda sala del Centro di Calcolo di Portici, Fig. 4a,b, con il relativo sistema di condizionamento per 200 KW di capacità refrigerante.

Nelle figure qui sotto vengono mostrate i portici 2013 CED CRESCO4 e Portici Cluster CRESCO4 [12] rispettivamente

 . 

Anche nel caso del progetto TEDAT al cluster principale sono stati aggiunti un numero limitato di nodi speciali, dotati di grande memoria (768GB), di coprocessori PHI e di schede GPU NVIDIA K40M. Queste ultime si aggiungono anche ad un piccolo sistema acquisito precedentemente e dotato di 4 schede NVIDIA S2050. 

Vai all'indice

 

Le prospettive

Con l'entrata in funzione del cluster CRESCO4 l'insieme delle risorse di calcolo di ENEAGRID è stato aggiornato mantenendo un livello significativo su scala nazionale. Nel 2014 a livello italiano tra le istituzioni di ricerca pubbliche solo CINECA, SISSA e CMCC potevano vantare sistemi comparabili nella stessa tecnologia. Nel corso del 2015 è stato poi messo in servizio un cluster più piccolo, CRESCO5, dotato di 22 nodi dual 8 core con processori di ultima generazione e dedicato alle applicazioni licenziate.

La varietà dei campi applicativi in cui le risorse di supercalcolo di ENEA sono utilizzate è testimoniata per quel che riguarda l'ultimo decennio dai Report Annuali CRESCO, disponibili dal 2008 [13], dove la ricerca e lo sviluppo nel campo energetico, nucleare, ambientale si concretizzano in applicazioni specifiche, dalla scienza dei materiali, alla fluidodinamica applicata anche alla combustione o all'aerospazio, alle tecnologie nucleari, alle biotecnologie, alle simulazioni climatiche piuttosto che allo studio della diffusione degli inquinanti nell'atmosfera fino alla fisica dei sistemi complessi.

Ad oggi, inizio 2017, gli scenari di sviluppo delle risorse di calcolo ENEA si inquadrano sia nell'ambito dei futuri progetti infrastrutturali PON che sulle prospettive che nascono sull'accordo ENEA-CINECA del 2015, per il quale all'interno del sistema HPC italiano veniva  riconosciuto  il ruolo di ENEA come livello TIER1 rispetto a quello di TIER0 giocato da sempre da CINECA. Nell'ambito di tale accordo, ENEA-CINECA si sono aggiudicati nel 2015 la realizzazione di un sistema multi PetaFlops (MARCONI-FUSION) dedicato ai ricercatori della Fusione Europea ed entrato in funzione a Bologna nell'estate 2016. Nell'ambito dello stesso accordo ENEA opererà su Portici un sistema, al momento indicato come CRESCO6, che entrerà in funzione durante la seconda metà del 2017, con una taglia prevista di circa 700 TFlops.

In preparazione della installazione di CRESCO6 su Portici nel corso del 2016 il centro di calcolo originario di CRESCO1 e CRESCO2 è stato completamente riorganizzato con il potenziamento della infrastruttura storage con sistemi DDN per 1PB complessivo e con l'aggiornamento anche del sistema di condizionamento in modo che Portici sia in grado di ospitare contemporaneamente due sistemi di calcolo di taglia significativa col limite complessivo 300 KW di potenza elettrica assorbita. In tal modo sarà possibile garantire una fornitura continuativa dei servizi di calcolo anche nel quadro di futuri rinnovi. 

Vai all'indice

Tabella 1. Risorse per il calcolo scientifico di CNEN/ENEA dal 1960

Nella tabella seguente sono riportati i principali sistemi di calcolo CNEN/ENEA con riferimento alla sede di installazione, l'anno di inizio e fine dell'operazione, il nome con cui il sistema è stato citato , (spesso coincidente con il modello) ed il modello stesso della macchina o del processore. Quando i dati sono disponibili  sono stati riportati anche il numero di core, il valore di Rpeak, come il massimo numero di istruzioni in virgola mobile eseguite al secondo e una sigla per indicare la tipologia di rete di interconnessione ad alta banda e basta latenza. I dati sono da ritenere indicativi sopratutto per i sistemi meno recenti. In questa versione della tabella non sono riportati i dati di prestazione dei sistemi mainframe. I sistemi ancora in produzione non hanno ovviamente data di fine operazione.

Sito

da anno

fino a  anno

Nome o tipo

Modello o cpu

#cores

Rpeak (Gflops)

HPC Network

Bologna

1961

1965

IBM 704

IBM 704

 

 

 

Frascati

1961

1968

IBM 1620

IBM620/1

 

 

 

Bologna

1964

1966

IBM 7094

IBM 7094+2*1401

 

 

 

Bologna

1966

1970

IBM 7094+7040

IBM 7094+7040

 

 

 

Bologna

1968

1971

Mainframe

IBM 360/65

 

 

 

Casaccia

1968

1971

Calcolatrice Ibrida

EAI-640

 

 

 

Frascati

1968

1977

Mainframe

IBM 360/44

 

 

 

Casaccia

1970

1980

Mainframe

IBM 360/44

 

 

 

Bologna

1971

1976

Mainframe

IBM 360/75

 

 

 

Casaccia

1971

1985

Calcolatrice Ibrida

EAI-640/EAI-8945

 

 

 

Bologna

1976

1986

Mainframe

IBM370/168

 

 

 

Frascati

1977

1980

Mainframe

IBM 370/135

 

 

 

RomaSede

1978

1985

Mainframe

Mainframe IBM

 

 

 

Casaccia

1980

1986

Mainframe

IBM4341

 

 

 

Frascati

1980

1983

Mainframe

IBM 3031

 

 

 

Casaccia

1981

1986

Supermini

VAX 11/785

 

 

 

Bologna

1983

1986

Mainframe

OH5480-4H

 

 

 

Frascati

1983

1987

Mainframe

IBM4341/N12

 

 

 

RomaSede

1985

1988

Mainframe

IBM 4381

 

 

 

Bologna

1986

1987

Mainframe

IBM3090/180

 

 

 

Casaccia

1986

1989

Mainframe

OH5480/8

 

 

 

Casaccia

1986

1992

Supermini

VAX 8800

 

 

 

Bologna

1987

1988

Mainframe

IBM3090/180 VF

 

 

 

Frascati

1987

1988

Mainframe

IBM 3090/180

 

 

 

Bologna

1988

2000

Mainframe

IBM3090/300e VF

 

 

 

Frascati

1988

1989

Mainframe

IBM 3090/300E

 

 

 

RomaSede

1988

1992

Mainframe

IBM 9221

 

 

 

Casaccia

1989

1994

Mainframe

IBM9121/440 VF

 

 

 

Frascati

1989

1990

Mainframe

IBM 3090/300E VF

 

 

 

Frascati

1990

1992

Mainframe

IBM3090/250J VF

 

 

 

Casaccia

1992

2000

Mainframe

VAX 9000

 

 

 

Frascati

1992

1994

Mainframe

IBM3090/280T VF

 

 

 

RomaSede

1992

1995

Mainframe

IBM 3031

 

 

 

Casaccia

1994

1999

Cray

CRAY Y-MP EL

 

0.5

 

Frascati

1994

1996

Mainframe

IBM9121/440 VF

 

 

 

Frascati

1994

1998

Risc6000

Risc6000 990

 

0.1

 

Frascati

1994

1998

SP2 THIN

IBM-SP2 9076 THIN

16

4.3

HPS

Bologna

1996

2000

QUADRICS-Q1

QUADRICS SIMD

8

0.4

meiko

Frascati

1996

1998

Mainframe

IBM 9672/R21

 

 

 

Frascati

1996

2002

QUADRICS-Q1

QUADRICS SIMD

16

0.8

meiko

Frascati

1997

2002

IBM P2SC

Risc6000 595

1

1.8

0.0

Bologna

1998

2004

SP2

IBM SP

4

1.1

HPS

Frascati

1998

2002

SP R50

IBM

16

3.2

HPS

Frascati

1998

2002

SP2 THIN2

IBM SP2 THIN2

16

10.2

HPS

Frascati

1998

1999

Mainframe

IBM 9672/R14

 

 

 

Bologna

1999

2000

QH1

QUADRICS SIMD

128

6.4

meiko

Casaccia

1999

2010

DAFNE

CRAY-SV1/1A

16

19.2

SMP

Casaccia

1999

2000

PQE1/SIMD

QUADRICS SIMD

1664

83.2

meiko

Casaccia

1999

2000

PQE1/MIMD

QSW-CS2

16

2.0

meiko

Frascati

1999

2003

OS390

IBM 9672-R*3 /RC3

 

 

 

Trisaia

1999

2004

QUADRICS-Q1

QUADRICS SIMD

24

1.2

meiko

Bologna

2000

2006

QH1/MC

QUADRICS SIMD

64

10.0

meiko

Casaccia

2000

2010

PROMETEO

Pentium4

7

16.8

QsNet

Casaccia

2000

2005

FERONIA

Alpha 21264

160

106.7

QsNet

Frascati

2000

2003

SP2 PWR3

IBM-SP2

8

6.4

HPS

Frascati

2000

2002

FARM Linux NF

Pentium3

6

3.6

Eth-1GE

Frascati

2001

2002

FARM Linux

Pentium4

10

18.0

Eth-1GE

Frascati

2001

2008

SP3

SP RS/6000

32

48.0

HPS

Frascati

2002

2010

ONYX2CED

MIPS R12000

8

3.2

SMP

Bologna

2003

2010

PACE

P4 690

8

38.4

HPS

Casaccia

2003

2010

FERONIX

Xeon

12

28.8

QsNet

Frascati

2003

2011

BW305

Pentium4

16

38.4

Eth1-GE

Frascati

2003

2012

SP4

P4 690

128

768.0

HPS

Casaccia

2005

2010

TURAN

SGI Altix 350 IA64

32

70.4

SMP

Frascati

2005

2011

EUROFEL

AMD 265

40

144.0

Eth-1GE

Frascati

2005

2013

SP5

P5 575

384

1152.0

HPS

Frascati

2005

2013

SP5-13

P5 595

64

243.2

SMP

Portici

2005

2009

OSTRO

P4 690

16

76.8

HPS

Trisaia

2005

2009

CLUAPPLE

PowerMac G5

24

60.0

Eth-1GE

Casaccia

2006

2010

LARAN

AMD 2.2 Opteron

48

211.2

HypTrans

Portici

2008

2015

CRESCO1

E7330

672

6451.2

DDR

Portici

2008

2014

CRESCO2

E5345

2048

18841.6

DDR

Brindisi

2009

2015

CRESCOB

E7330

80

768.0

ETH

Casaccia

2009

 

CRESCOC

AMD2427

192

1689.6

DDR

Frascati

2011

 

CRESCOF

AMD6174

480

4224.0

QDR

Portici

2011

 

CRESCO2+

E5345+E5530+E5620

2720

25024.0

DDR

Portici

2012

 

CRESCO3

AMD6234

2016

19353.6

QDR

Portici

2013

 

CRESCO4

E5-2670

4864

101171.2

QDR

Portici

2014

 

CRESCO4M

E5-2643v2

60

5680.0

QDR

Portici

2014

 

CRESCO4S

E5-2680v2+PHI+K40

64

14633.6

QDR

Portici

2015

 

CRESCO5

E5-2630v3

672

25804.8

QDR

 

 

Vai all'indice

Riferimenti

1]  http://www.enea.it
[2] F. Pierantoni, “GianniPuppi e l'IBM 650”, Bollettino della Società Italiana di Fisica, Supplemento, 5-6, 2007, pp. 34-35
[3] A.V. Notiziario CNEN  1967, “Il Centro di Calcolo di Bologna”, vol.2, 31.
[4] A.V. Notiziario CNEN  1967, “Il Laboratori Nazionali di Frascati del CNEN”, vol.8, 47.
[5] A. Mathis Notiziario CNEN 1968,”La nuova calcolatrice ibrida dell centro della Casaccia”, vol.6,28
[6] S. Migliori, et al. “ENEA Computing Factory”, Proceedings of the International Conference on Parallel and Distributed Processing Techniques and Applications, PDPTA 1999, June 28 July 1999, Las Vegas, Nevada, USA. Vol.6, 3037-3040
[7] S. Migliori, G. Bracco, P. D’Angelo "L’architettura di ENEA  GRID, infrastruttura distribuita per la condivisione di risorse informatiche per il calcolo scientifico" Conferenza GARR 2005 "La rete daPERtutto", Pisa, 1013/5/2005 
[8] Progetti PON 2000-2006: http://www.telegrid.enea.it, http://www.afs.enea.it/project/campus, http://www.cresco.enea.it.
[9] S. Migliori, G. Bracco, P. D'Angelo, D. Gianmattei, M. De Rosa, S. Pierattini, S. Podda, A. Quintiliani,S. Raia,A. Funel, G.Richelli,  "Architecture and performances of the CRESCO HPC system" International Supercomputing Conference ISC  Dresden 17-19/6/2008, Research Poster #7 e anche  http://www.cresco.enea.it
[10] https://www.euro-fusion.org/newsletter/gateway-–-new-computing-facility-for-tokamak-modelling/
[11] Progetti PON 2007-2013 vedi  http://www.ict.enea.it/it/progetti/utict-e-i-progetti
[12] G. Ponti et al., "The role of medium size facilities in the HPC ecosystem: the case of the new CRESCO4 cluster integrated in the ENEAGRID infrastructure", Proceedings of the 2014 International Conference on High Performance Computing and Simulation, HPCS 2014, art. no. 6903807, 1030-1033
[13] http://www.cresco.enea.it/CRESCO_reports

 

Vai all'indice