Socials

Share us:


Submit CCMMMA - Centro Campano per il Monitoraggio e la Modellistica Marina ed Atmosferica in Delicious

Submit CCMMMA - Centro Campano per il Monitoraggio e la Modellistica Marina ed Atmosferica in Digg

Submit CCMMMA - Centro Campano per il Monitoraggio e la Modellistica Marina ed Atmosferica in FaceBook

Submit CCMMMA - Centro Campano per il Monitoraggio e la Modellistica Marina ed Atmosferica in Google Bookmarks

Submit CCMMMA - Centro Campano per il Monitoraggio e la Modellistica Marina ed Atmosferica in Stumbleupon

Submit CCMMMA - Centro Campano per il Monitoraggio e la Modellistica Marina ed Atmosferica in Technorati

Submit CCMMMA - Centro Campano per il Monitoraggio e la Modellistica Marina ed Atmosferica in Twitter

Submit CCMMMA - Centro Campano per il Monitoraggio e la Modellistica Marina ed Atmosferica in Twitter

Storie di supercalcolo e di previsioni meteorologiche alla ricerca del giorno giusto per porre fine al terzo Reich o per vincere l’America’s Cup

Immagina una grande sala, più o meno come un teatro, tranne per il fatto che le gallerie sono tutte intorno, anche nello spazio usualmente occupato dal palcoscenico. Sulle pareti di questa sala è dipinta la mappa del globo terrestre, dove il soffitto rappresenta le regioni polari del nord, l’Inghilterra è circa all’altezza della prima galleria, quindi, più verso il basso i tropici, l’Australia e, infine, l’Antartico nel livello inferiore.

Ognuno dei posti delle gallerie è occupato da un calcolatore, una miriade di calcolatori sono al lavoro sul tempo atmosferico, relativo alla zona della mappa dove ciascuno di essi risiede e solo su quella occupandosi o di una singola equazione o di una parte di un’equazione. 
 
Il lavoro di ciascuna regione è coordinato da un calcolatore di rango superiore. Numerose piccole lampadine visualizzano istantaneamente i valori calcolati da ciascun calcolatore, così che quelli adiacenti possano leggerli in modo da mantenere la comunicazione dal nord al sud della mappa.
 
Dal pavimento si solleva un piedistallo alto circa la metà della sala, dotato di un pulpito dove risiede chi coordina l’intera operazione di calcolo grazie all’aiuto di molti assistenti che fanno da messaggeri. Uno dei suoi compiti è fare sì che la velocità di soluzione delle equazioni, relative ad ogni parte del globo, sia uniforme. Il coordinatore agisce come un direttore di orchestra, solo che gli  strumenti che dirige sono strumenti per il calcolo. Ad esempio potrebbe utilizzare un raggio di luce blu per indicare quelle regioni che sono in ritardo e che devono aumentare la velocità di calcolo e  uno di luce rossa per ridurre la velocità delle regioni troppo in anticipo, nella soluzione delle equazioni.
 
Quattro impiegati di maggiore esperienza raccolgono i dati del tempo previsto man mano che questi vengono prodotti e, attraverso un sistema di posta pneumatica, li inviano in una sala dove regna il silenzio, dove vengono codificati e trasmessi perché vengano utilizzati. Quindi, i dati prodotti vengono conservati per un uso futuro.
 
 
Tali, o di tal genere, i pensieri dell’eclettico scienziato inglese Luwis Fry Richardson, nato nell’ottobre del 1881 e morto nel settembre del 1953, passato alla storia come l’inventore delle previsioni meteorologiche mediante processi numerici, come mostrato nel suo articolo “Weather prediction by numerical process” del 1922. Leggere il suo scritto è entusiasmante: anticipa di decenni l’architettura di un supercalcolatore individuandone le componenti fondamentali ovvero i nodi di calcolo, la rete di comunicazione, i sistemi di controllo e sincronizzazione, la memorizzazione dei risultati per un uso futuro. Richardson, in maniera completamente innovativa, propone le previsioni meteo, come la soluzione delle equazioni differenziali, applicate alla fluidodinamica atmosferica, superando l’approccio puramente storico-statistico dell’analisi delle serie temporali, ancor oggi non caduto totalmente in disuso. Richardson, convinto e fervente pacifista, tanto da essere ritenuto ineleggibile agli onori accademici, interromperà i suoi studi sulla meteorologia computazionale, distruggendo i lavori ancora in attesa di pubblicazione, resosi conto dell’importanza strategica della stessa, durante gli eventi bellici. 
 
Come tutti i geni innovatori della storia, Richardson soffre l’anacronismo tecnologico che costringe le sue intuizioni a rimanere tali fino a pochi anni prima della sua morte, quando un evento di proporzioni epocali sta per verificarsi, per porre  fine ad una delle guerre più sanguinose della storia, in termini di perdite civili: è necessaria una perfetta pianificazione, per creare ed espandere una testa di ponte alleata nel territorio a nord della Francia e fiaccare, e quindi ridurre all’impotenza, le forze del Reich nell’Europa centrale. Per far ciò,  è necessaria abilità bellica, sono necessarie perfette previsioni meteo, per l’uso massiccio di paracadutisti e di mezzi anfibi. La data dell’alba del 6 giugno 1944 non può essere scelta con un lancio di dadi per quello che passerà alla storia come lo “Sbarco in Normandia”, l’operazione “Overlord”, il D-Day. E’ necessario supercalcolo e questa volta, circa 22 anni dopo l’articolo di Richardson,   questa volta la tecnologia esiste, è disponibile ed è stata già utilizzata in altri contesti.
 
John von Neumann, matematico ungherese, nato a Budapest del 1903 e trasferitosi negli Stati Uniti su invito dell’università di Princeton nel 1930, a partire dallo scoppio della seconda guerra mondiale si dedica alla matematica applicata ed alla creazione di macchine per il calcolo automatico. E’ considerato il padre dell’architettura dei calcolatori che porta ancor oggi il suo nome e che, in quegli anni, vede l’applicazione pratica nella creazione del mastodontico Electronic Numerical Integrator And Computer (ENIAC), il primo computer della storia. Presentato ufficialmente 1946, costato una cifra esorbitante e fortissimamente voluto dalle alte gerarchie militari, nel corso del suo processo evolutivo è stato ampiamente utilizzato durante il conflitto, inizialmente per i calcoli balistici, poi per la ricerca della soluzione al codice enigma, per il progetto Manhattan e, quindi, per produrre le previsioni meteo, al fine di pianificare l’invasione per la liberazione del territorio francese.
 
Richardson morì nel 1953, dopo aver visto i propri studi di meteorologia computazionale applicati in primis per scopi bellici, ma, purtroppo, senza la soddisfazione di saperlo in vita, aveva raggiunto un altro primato: non solo il metodo di calcolo descritto nel 1922 risultava innovativo in quanto tale, ma anche l’approccio computazionale superava la cosiddetta architettura von Neumann. Aveva applicato, per la prima volta, in modo consapevole il calcolo parallelo, ma quelle che gli erano mancate erano state unicamente le alte prestazioni.
 
Leonard Kleinrock, nel 1962 scrive nella sua tesi di dottorato che, probabilmente, assisteremo alla diffusione dei fornitori di risorse computazionali i quali, così come avviene per le linee elettriche e telefoniche,  forniranno servizi per le case e gli uffici, distribuiti sul territorio nazionale anticipando gli accadimenti nel mondo del supercalcolo di quasi quaranta anni.
 
 
Ma, sul fronte del calcolo ad alte prestazioni, è il 1961 un anno di importanza storica, perché Seymour Cray progetta il primo supercomputer della storia, il CDC6600, per conto della Control Data Corporation, anche se solo nel 1982 viene presentato il CRAY X-MP, progettato dallo stesso Cray, ormai a capo dell’omonima azienda: è il primo computer dotato di multiprocessori, è effettivamente quello che oggi viene chiamato un calcolatore parallelo ad alte prestazioni e le previsioni meteo sono state una delle prime applicazioni progettate per funzionare, sfruttando appieno la potenza di calcolo disponibile. Finalmente, la domanda e l’offerta di potenza computazionale s’ incontrano, con soddisfazione di risultati.
 
E’ l’inizio delle previsioni meteorologiche computazionali operazionali.
 
La figura del meteorologo, analizzatore delle serie temporali e di segni atmosferici, comincia ad essere sostituita dall’interpretatore dei risultati prodotti dai modelli matematici. Presso la Pensylvania State University, nel corso degli anni 70, viene sviluppato il modello MM5. Il  Mesoscale Model 5 è l'ultimo di una serie di modelli per simulazione su mesoscala, sviluppati da Anthes e da Warner, che implementano, in maniera tecnologicamente efficace ed efficiente, quanto immaginato da Richardson all’inizio del secolo, utilizzando un approccio seriale.
 
Nel corso degli anni ’90, le architetture parallele si diffondono in ogni ramo applicativo scientifico, ingegneristico ed economico, così come aumenta l’offerta dei grandi produttori di macchine da calcolo parallelo ad alte prestazioni, come le Thinking Machines o l’IBM SP: tanta potenza, disponibile a costo estremamente elevato, costringe lo sviluppo di applicazioni di modellistica atmosferica ed oceanografica ad essere possibile solo a grandi enti di ricerca, tipicamente statunitensi, come la Argonne National Laboratory, dove vengono realizzate le librerie che permettono la comunicazione fra i processi residenti su differenti processori e come l’University Corporation for Atmosphere Research e il National Center for Atmospheric Research.
 
In questo contesto, nella metà degli anni ’90, John Michalakes implementa la versione parallela del modello MM5, denominata MPP, grazie allo sviluppo di una libreria software che permette la decomposizione del dominio spaziale, su cui effettuare i calcoli di previsioni meteo, in aree ciascuna affidata ad un nodo di calcolo, mentre un nodo principale ne coordina le operazioni, e la sincronizzazione e  ne raccoglie i risultati. Il sogno di Richardson viene così realizzato.
 
Rimane il problema del costo della potenza di calcolo. Nella prima metà degli anni ’90, l’acquisto di un calcolatore parallelo rimane ancora fuori della portata della maggior parte delle università e centri di ricerca, ma un eroe leggendario è destinato a cambiare la storia e, per certi versi, a salvare il mondo. E’ il 1994, quando alla NASA Donald Becker pensa di riutilizzare dei comuni personal computer, non più al top delle performance, per creare un sistema di calcolo parallelo con componenti completamente commerciali, esplorando la possibilità dell’high performance computing a basso costo. L’idea è tanto semplice quanto geniale: utilizzare comuni PC, come nodi di calcolo e nodi di controllo, ed una rete ad alte prestazioni per la comunicazioni fra le differenti componenti. Il sistema operativo scelto per questo tipo di applicazione è Linux e Beowulf , il leggendario eroe del poema epico inglese è il nome scelto per il progetto, il cui sviluppo viene preso presto in carico dalla comunità internazionale interessata, al calcolo scientifico. E’ la nascita dell’era delle previsioni meteorologiche a scala locale, che possono essere ottenute aumentando localmente la risoluzione del calcolo e, grazie alla disponibilità di high performance computing a costo accessibile, essere prodotte per ricerca o presso gli enti preposti alla gestione del territorio.
 
Nello stesso periodo dell’ascesa dei sistemi di supercalcolo di tipo Beowulf, un altro evento epocale cambia la storia dell’umanità tutta: le autostrade digitali non sono più un’oscura voce dei programmi dei governi di oltreoceano, ma Internet diventa economica, accessibile, veloce e stabile. Finisce l’era del dove ed inizia quella del quando, il mondo è a portata di click e, quindi, strumenti di acquisizione meteo, geograficamente distribuiti, centri di raccolta ed elaborazioni di dati satellitari, enti produttori di dati meteorologici ricavati da modelli, come l’European Center for Mesoscale Weather Forecast di Reading, nei pressi di Londra, sono finalmente interconnessi e capaci di elaborazioni operazionali con scala temporale, prossima al tempo reale. Grazie alla migliorata comprensione dei fenomeni atmosferici, ed ai legami con la dinamica oceanografica e biosferica, alla maggiore capacità dei sensori meteo, montati su piattaforme orbitali o aereotrasportati, grazie all’avanzamento nella teoria e nelle applicazioni dell’elaborazione dei dati meteo, all’interconnessione veloce di ciascuna di queste componenti, al calcolo distribuito su elaboratori geograficamente distanti ed al calcolo parallelo ad alte prestazioni, con il nuovo millennio, si raggiunge il traguardo dell’affidabilità previsionale delle 72 ore, ma, nel contempo, pressano due richieste da parte della comunità delle scienze applicate alla meteorologia: l’accoppiamento fra modelli differenti e la validazione degli stessi. Ancora una volta, risolte già da tempo le problematiche di tipo teorico, rimane ancora la necessità di potenza computazionale.
 
E’ il 1998 quando Ian Foster e Carl Kesselman, nell’ormai storico libro “The Grid: Blueprint for a New Computing Infrastructure “scrivono che una griglia computazionale è un’infrastruttura hardware e software che provvede ad un indipendente, consistente, pervasivo ed economico accesso a risorse computazionali ad alte prestazioni”. Il termine Grid è solitamente riferito alla linea di distribuzione elettrica: quello che Leonard Kleinrock, ritenuto uno dei padri di internet, aveva anticipato in maniera prematura nel 1962 diviene realtà alla fine del secolo. Successivamente, nel 2000, insieme a Steve Tuecke, nell’articolo “The Anatomy of the Grid”, i padri fondatori del Grid Computing focalizzano l’attenzione sul concetto di condivisione delle risorse ,non riduttivamente come  scambio di file, ma, piuttosto,come accesso diretto al sistema di calcolo, al software, ai dati e agli strumenti in un ambiente di problem solving collaborativo, facente uso di strategie di ricerca ed allocazione dinamica delle risorse disponibili. In questo contesto la condivisione deve essere necessariamente controllata, in modo da garantire affidabilità e sicurezza e questo può essere fatto attraverso la creazione di organizzazioni virtuali trasversali ad enti, persone fisiche o organizzazioni reali. 
E’ la nascita dell’approccio collaborativo alle scienze computazionali e, ancora una volta, le applicazioni meteo rappresentano un ottimo piano di test per la nuova tecnologia e, viceversa, per la modellistica meteorologica il Grid Computing, come calcolo distribuito ad un più alto livello evolutivo, è la soluzione necessaria alle più pressanti richieste di accoppiamento e validazioni di modelli.
 
In un approccio a blocchi, è intuitivo pensare al modello atmosferico come l’ideale forzante per un modello di dinamica della circolazione oceanica ed ad uno per la propagazione delle onde marine indotte dal vento, mentre, contestualmente, lo stesso modello meteo può fornire forzanti ad un modello di evoluzione delle terre emerse, in termini di uso del suolo e conseguente attività biologica. In questo stesso contesto, possono essere inseriti modelli di tipo socioeconomico che permettono di valutare l’impatto antropico sul tempo atmosferico, sull’inquinamento dell’aria e dell’acqua. Due modelli si dicono accoppiati se un primo produce i dati utilizzati per inizializzare e controllare il secondo. L’accoppiamento può essere effettuato dopo che il primo modello ha prodotto i risultati, oppure stesso a livello di equazioni. In ambo i casi la necessità di calcolo da alte prestazioni cresce ed è necessaria una massiccia parallelizzazione al fine di rendere il problema risolvibile in tempi utili.
 
La validazioni dei modelli può essere effettuata mediante un’analisi statistica e da un confronto dei dati prodotti in previsione con quelli prodotti in seguito all’inizializzazione dello stesso modello con i dati successivamente acquisiti e relativi al mondo reale. Tuttavia, per poter avere un’indicazione della qualità della previsione in tempo reale e non a posteriori è necessario ripetere la previsione numerose volte, perturbando i dati di inizializzazione ed effettuando un’analisi di sensibilità sui risultati. Anche in questo caso, la necessità di calcolo parallelo ad alte prestazioni aumenta in maniera consistente per il gran numero di simulazioni da dover lanciare contemporaneamente.
 
Il Grid Computing, grazie all’accesso sistematico alle risorse computazionali alto performanti, consente di risolvere queste problematiche in maniera efficace ed efficiente come dimostrato nel 2003 da Robert Jacob, Ian Foster ed altri nell’articolo “Automating Climate Science…”.
 
L’accuratezza in termini spaziali, temporali e di affidabilità delle previsioni meteorologiche è indissolubilmente legata alle capacità computazionali disponibili, che risultano, quindi, d’ importanza strategica sia dal punto di vista del governo nazionale che del management locale di una qualsiasi nazione e forti sono stati gli investimenti in termini scientifici ed economici per fare si che la scala dell’affidabilità passasse  dalle 72 ore d’ inizio millennio alle 144/150 attuali. Infiniti sono gli ambiti applicativi delle previsioni meteorologiche a scala locale, in cui l’alta risoluzione spaziale e temporale è un requisito principe, come nel caso della previsioni di eventi estremi, ad esempio alluvioni e mareggiate,e  di manifestazioni sportive di estrema rilevanza economica per pubblico, per  sponsor ed indotto tecnico- scientifico, come,  ad esempio, la leggendaria Americas’s Cup, in cui ancora le possibilità offerte dal supercalcolo non sono state ancora pienamente sfruttate.
Attualmente, le problematiche a lunga scala temporale, ovvero quelle legate alle previsione climatica, iniziano ad essere intimamente legate a quelle meteorologiche, a causa dei cambiamenti globali e all’incremento dei fenomeni estremi, anche in zone storicamente lontane da queste problematiche. In questo caso la richiesta di affidabilità computazionale, oltre che di pure prestazioni, è ancora più pressante poiché le simulazioni non coinvolgono solo giorni, ma mesi, anni, centinaia di anni e millenni.
 
 
Richardson, padre dei metodi risolutori alla base della meteorologia computazionale, sarebbe stato sicuramente contento di sapere che il suo approccio è l’attuale chiave di volta per salvare il mondo piuttosto che per distruggerlo e… perché no, portare a casa anche la Vecchia Brocca.