fbpx Supercomputer contro la pandemia | Scienza in rete

Supercomputer contro la pandemia

Primary tabs

Vista dall'alto del supercomputer MARCONI100 del CINECA. Credit: Tukulti65 / Wikipedia. Licenza: CC BY 4.0.

Tempo di lettura: 9 mins

Lunedì i CDC hanno aggiornato le linee guida sulla pandemia includendo gli aerosol tra i possibili veicoli di trasmissione del virus. Gli aerosol sono le particelle più piccole emesse dal naso e dalla bocca di una persona quando starnutisce, tossisce o parla, e hanno un diametro tra qualche decimo di micrometro fino a dieci micrometri. Queste particelle sono più leggere dei cosiddetti droplet, che hanno diametri superiori fino a qualche centinaio di micrometri, e dunque non sono attirati immediatamente a terra dalla forza di gravità ma possono rimanere in movimento nell'aria per lunghi periodi. La loro dinamica è particolarmente importante per valutare il rischio di contagio in ambienti chiusi, in cui il ricambio dell'aria è limitato.

L'aggiornamento delle linee guida dei CDC arriva tre giorni dopo la notizia che Donald Trump è risultato positivo al SARS-CoV-2 e a quattro giorni dal primo confronto tra Trump e Biden in vista delle elezioni presidenziali del 3 novembre prossimo. Biden e Trump si sono scontrati in un dibattito trasmesso in diretta televisiva durato oltre un'ora e mezza in cui hanno parlato da podi distanziati di circa due metri. L'allestimento del dibattito televisivo ha spinto molti a chiedersi se Biden è stato esposto a un rischio di contagio concreto.

Tra i modi per capire come droplet e aerosol circolano nell'aria ci sono i modelli computazionali. Già ad aprile un gruppo di scienziati del Kyoto Institute of Technology aveva mostrato che la distanza di sicurezza dovrebbe essere maggiore di 1 metro (meglio 2 metri) per evitare di essere investiti dagli aerosol. Sempre la simulazione della dispersione di queste particelle nell'aria, aveva permesso al supercomputer giapponese Fugaku di concludere che le visiere sono sostanzialmente inutili a contenere la diffusione dei droplet (un risultato confermato di recente anche da un altro studio con un approccio diverso, ovvero la visualizzazione in laboratorio tramite laser del movimento di queste goccioline nell'aria dopo uno starnuto). A fine agosto, sempre Fugaku aveva stabilito che le mascherine in polipropilene sono più efficaci di quelle in tessuto.

Il supercomputer Fugaku è ospitato dal RIKEN Center for Computational Science a Kobe ed è stato sviluppato in collaborazione con Fujitsu. È oggi il computer più potente al mondo, capace di eseguire 415,5 milioni di miliardi di operazioni al secondo (si dice che la sua potenza di calcolo è di 415,5 petaflops), quasi trenta volte più veloce del secondo più potente supercomputer del mondo, il Summit di IBM. Per avere un'idea di cosa vogliano dire questi numeri, basti pensare che un processore presente in un personal computer può arrivare a qualche centinaio di gigaflops, ovvero un milione di volte meno potente di un supercomputer. L'inizio delle attività di Fugaku era previsto per il 2021, ma ad aprile di quest'anno il centro ha annunciato che avrebbe messo a disposizione parte della sua capacità computazionale per progetti di ricerca su SARS-CoV-2 e COVID-19. Sempre lunedì NVIDIA ha annunciato che sta costruendo nel Regno Unito il più potente supercomputer del mondo che aiuterà i ricercatori ad affrontare domande difficili in campo medico, in particolare riguardo COVID-19. Insomma, le piattaforme di high performance computing sono considerate uno strumento cruciale per contrastare con la ricerca scientifica l'avanzata di questa nuova malattia. I loro impieghi sono infatti molteplici.

Modelli epidemiologici

La simulazione della dispersione delle goccioline di saliva nell'aria è infatti solo uno dei modi in cui i supercomputer hanno partecipato alla ricerca contro la pandemia di COVID-19. Un ruolo prominente lo hanno avuto infatti nelle prime settimane dell'epidemia per provare a prevedere il grado di diffusione del virus nelle popolazioni e misurare gli effetti delle diverse misure di distanziamento sociale che i governi stavano allora considerando di introdurre per gestire l'emergenza.

Un esempio è la collaborazione tra il Gauss Centre for Supercomputing, che raggruppa i tre supercomputer tedeschi Hawk a Stoccarda, JUWELS a Julich e SuperMUC-NG a Garching vicino Monaco di Baviera, e gli epidemiologi dell'Università di Heidelberg e del Frankfurt Institute for Advanced Studies coordinata dall'italiana Maria Vittoria Barbarossa. La collaborazione ha permesso di elaborare delle stime sull'evoluzione del numero di contagi in Germania nei mesi successivi considerando diversi gradi di riduzione dei contatti sociali. Per farlo gli epidemiologi hanno impiegato il modello SEIR (acronimo di Susceptible, Exposed, Infectious or Recovered) che assegna tutti gli individui della popolazione a una fra quattro categorie, i suscettibili, i contagiati, gli esposti (coloro che sono stati infettati ma non sono ancora contagiosi) e i guariti, che si assume non possano più reinfettarsi. Il numero di individui appartenente a ciascuna di queste quattro categorie è una variabile che evolve nel tempo in dipendenza dalle altre. La loro collettiva evoluzione temporale è descritta da un sistema di equazioni differenziali che può essere risolto ricorrendo a metodi numerici e da qui la necessità di impiegare piattaforme di calcolo sufficientemente potenti per elaborare i risultati del modello in breve tempo. Nel caso della collaborazione coordinata da Barbarossa è stato scelto un modello che tiene conto della suddivisione della popolazione in fasce di età, attribuendo a ciascuno un diverso profilo di rischio di infettarsi e di infettare gli individui appartenenti al proprio gruppo o ad altri gruppi. Inoltre il modello è stato rifinito per tenere conto delle diverse fasi dell'infezione.

Esiste però un universo di modelli epidemiologici che richiedono simulazioni numeriche per poter ottenere delle previsioni. Come si legge in questo articolo pubblicato dalla rivista Nature all'inizio di aprile, una categoria di modelli ad alto fabbisogno computazionale è quella chiamata agent-based, in cui si simula il comportamento di ciascun individuo della popolazione tenendo in considerazione la rete sociale con cui interagisce.

Appartiene a questa categoria il modello impiegato dal gruppo di epidemiologi dell'Imperial College coordinati da Neil Ferguson, soprannominato dai media inglesi 'professor lockdown', per produrre una delle prime previsioni dell'andamento dell'epidemia a marzo scorso. Il modello in questione era stato formulato da Neil Ferguson e colleghi per descrivere l'epidemia di influenza H5N1 in Tailandia nel 2005 (qui i dettagli tecnici). La popolazione viene generata a computer tenendo conto dei dati sulla densità abitativa, sulla stratificazione per età, sulla distribuzione di dimensione delle famiglie, di quella delle scuole e dei luoghi di lavoro e infine sugli spostamenti effettuati per raggiungere quotidianamente il luogo di lavoro o la scuola. Considerando il fatto che ogni ambiente ha una diversa probabilità di diffondere il virus (ad esempio è più probabile il contagio in famiglia che quello a scuola) si calcola la probabilità individuale di essere infettati in un certo momento e per un certo arco temporale, probabilità che dipende dalla configurazione di tutto il resto della popolazione che viene simulata. Con questa probabilità si effettuano delle simulazioni: tanti mondi possibili in cui le persone si spostano da casa per andare a scuola o al lavoro e a ogni passo temporale ciascuna di queste persone si infetterà o meno in base alla sua probabilità individuale (a ogni passo si sorteggia una variabile casuale da una distribuzione che tiene conto della probabilità di contagio di quell'individuo in quel momento particolare e in quello specifico corso degli eventi). Questo insieme di possibili mondi permette di dare una stima probabilistica di quale sarà il numero di infetti nel futuro giorno per giorno. Chiaramente per poter simulare questi mondi c'è bisogno di conoscere alcune caratteristiche di base dell'epidemia, come il grado di infettività in diversi ambienti (al chiuso o all'aperto), il decorso della malattia, in particolare il periodo di incubazione, e così via. Come è facile immaginare una simulazione così dettagliata della dinamica di una popolazione ha un enorme fabbisogno computazionale e dunque la disponibilità di supercomputer in grado di macinare un gran numero di calcoli in tempi brevissimi è cruciale. Quando queste prime simulazioni sono state realizzate, l'epidemia era molto giovane e dunque è stato necessario fare delle assunzioni non basate necessariamente sui fatti. Man mano che l'epidemia è progredita abbiamo guadagnato informazioni e conoscenza sul virus e ora queste previsioni sono più affidabili.

Un altro modello agent-based è quello formulato da Alessandro Vespignani e dal suo gruppo alla Northeastern University di Boston. Si chiama GLEaM (Global Epidemic and Mobility) e si basa su una simulazione del comportamento individuale delle persone includendo però anche i dati di mobilità su brevi e lunghe distanze, suddividendo la popolazione mondiale in 3300 sottogruppi, ciascuno associato a un hub aeroportuale. Utilizzando il modello GLEaM il gruppo statunitense ha prodotto uno studio, pubblicato sulla rivista Science, sull'impatto che le restrizioni imposte sui viaggi internazionali hanno avuto sul progredire dell'epidemia di COVID-19 a livello globale nelle fasi iniziali.

Tra i modelli agent-based e quelli che descrivono l'evoluzione dell'epidemia tramite la dinamica aggregata degli individui appartenenti alle quattro categorie suscettibili, esposti, infetti e guariti (il primo tipo di modelli che abbiamo descritto) esistono molte possibilità intermedie. Un esempio è il modello descritto dal matematico Nicola Bellomo e dall'economista Pietro Terna su Scienza in retein cui ogni individuo appartiene a una diversa categoria in base al suo stato di salute iniziale e ciascuna di queste categorie ha una diversa probabilità di infettarsi e va incontro a un differente decorso.

La ricerca di nuovi farmaci

La terza area in cui le piattaforme di high performance computing hanno avuto un ruolo cruciale è stata quella del cosiddetto drug discovery, ovvero la ricerca di farmaci efficaci nel trattamento della COVID-19.

EXCSALTE4COV è un consorzio finanziato con 3 milioni di euro tramite il programma Horizon 2020 della Commissione Europea che raggruppa 18 istituzioni da 7 Paesi con lo scopo di individuare molecole già note o già impiegate per la cura di altre malattie che possano essere efficaci contro i casi moderati o lievi di COVID-19. Il consorzio mette insieme tutti i soggetti che compongono la 'filiera' del drug discovery. C'è il sincrotrone ELETTRA di Trieste, che tramite cristallografia a raggi X è in grado di costruire modelli tridimensionali delle 25 proteine del virus che hanno diversi ruoli biologici nel processo di infezione. Poi c'è la farmaceutica Dompé, che ha messo a disposizione la sua libreria di molecole e i suoi modelli di simulazione della dinamica molecolare passando in rassegna oltre 400 mila composti per trovare quelli capaci di legarsi alle proteine del virus e inibirne il processo di replicazione. Per farlo Dompé ha potuto contare sul supercomputer Marconi100 del consorzio interuniversitario CINECA, con una potenza computazionale che raggiunge i 32 petaflops. E andando ancora avanti nel processo di drug discovery, c'è la Katholieke Universiteit Leuven in Belgio che ha testato in vitro in cellule infettate col SARS-CoV-2 le molecole più promettenti selezionate dai modelli computazionali. Il consorzio già a giugno ha prodotto un primo risultato, individuando nel Raloxifene, un farmaco usato nella cura dell'osteoporosi in menopausa ma non solo, un candidato promettente e avanzando all'EMA, l'agenzia europea del farmaco, la richiesta di avviare studi clinici sugli esseri umani.

Un altro grande consorzio è nato dalla collaborazione tra il centro di eccellenza CompBioMed, anch'esso finanziato da Horizon 2020, il Gauss Centre for Supercomputing e una serie di centri di high performance computing negli Stati Uniti, tra cui il supercomputer Summit di IBM ospitato presso lo Oak Ridge National Laboratory. Il centro CompBioMed è coordinato dal Professor Peter Coveney direttore del Centre for Computational Science alla University College London, e mette a disposizione le competenze maturate nell'ambito della biologia computazionale, in particolare nella ricerca di nuovi farmaci antivirali.

In questa rassegna vale infine la pena di includere il consorzio statunitense COVID-19-HPC, che mette insieme i centri di calcolo di laboratori federali, università, centri di ricerca ma anche società private (IBM e Microsoft tra le altre) per offrire una capacità di calcolo fino a 600 petaflops. A oggi ha permesso lo sviluppo di 87 progetti, che vanno dalla previsione della struttura delle proteine del virus fino allo sviluppo di una applicazione per il contact tracing che sia rispettosa delle leggi sulla privacy europee.

 

Per ricevere questo contenuto in anteprima ogni settimana insieme a sei consigli di lettura iscriviti alla newsletter di Scienza in rete curata da Chiara Sabelli(ecco il link per l'iscrizione). Trovi qui il testo completo di questa settimana.

Buona lettura, e buon fine settimana!


Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Why have neural networks won the Nobel Prizes in Physics and Chemistry?

This year, Artificial Intelligence played a leading role in the Nobel Prizes for Physics and Chemistry. More specifically, it would be better to say machine learning and neural networks, thanks to whose development we now have systems ranging from image recognition to generative AI like Chat-GPT. In this article, Chiara Sabelli tells the story of the research that led physicist and biologist John J. Hopfield and computer scientist and neuroscientist Geoffrey Hinton to lay the foundations of current machine learning.

Image modified from the article "Biohybrid and Bioinspired Magnetic Microswimmers" https://onlinelibrary.wiley.com/doi/epdf/10.1002/smll.201704374

The 2024 Nobel Prize in Physics was awarded to John J. Hopfield, an American physicist and biologist from Princeton University, and to Geoffrey Hinton, a British computer scientist and neuroscientist from the University of Toronto, for utilizing tools from statistical physics in the development of methods underlying today's powerful machine learning technologies.