fbpx Dati bene comune: convegno al Senato | Scienza in rete

Dati bene comune: pandemia, PNRR e le prossime sfide del paese

Primary tabs

Tempo di lettura: 4 mins

Dati: informazione, risorsa, diritto. La pandemia da SARS-CoV-2 ha mostrato come, per avere consapevolezza delle situazioni, per prendere tempestive decisioni e pianificare interventi, gli ingredienti imprescindibili siano i dati, liberi e accessibili, che indichino la direzione in cui andare. I dati sono un bene prezioso ma, per ora, non comune. L’accessibilità e la disponibilità pubblica di dati completi, puntuali e disaggregati è un tema che genera dibattito da diverso tempo.

Il 29 ottobre 2021, al Senato della Repubblica, nella sala Zuccari di Palazzo Giustiani, si è tenuto “I dati, bene comune. Pandemia, PNRR e le prossime sfide del Paese”, un incontro multidisciplinare che ha riunito esperti di vari settori per discutere sul valore e l’utilizzo dei dati nel mondo di oggi, e per sensibilizzare l’opinione pubblica e i decisori politici della necessità di creare canali di condivisione e accesso ai dati.

L’iniziativa, promossa dalla senatrice Mariolina Castellone, si è aperta con l’intervento di Pierpaolo Sileri, sottosegretario di stato alla salute, che ha contestualizzato il tema nella cornice della transizione digitale della sanità, punto cardine della mission di innovazione dell’imminente PNRR (Piano Nazionale per la Ripresa e la Resilienza).

I dati sanitari diventano infatti protagonisti del primo intervento, condotto da Giuseppe Pontrelli, medico dell’ospedale Bambino Gesù. I dati sanitari, solo in parte accessibili, sono stati necessari per lo studio e l’elaborazione di modelli di efficacia delle dosi vaccinali, mirati a indirizzare la scelta della migliore strategia di somministrazione dei vaccini durante la situazione emergenziale.

I dati quindi come fondamenta di modelli, come fonte di previsioni. Francesco Sylos Labini, ricercatore del Centro Enrico Fermi, delle previsioni fa il focus del suo intervento, raccontando esattamente cosa si intende con questo termine, quali tipologie esistono e come la scienza delle previsioni, fondata sul monitoraggio costante dei fenomeni, si intrecci con la politica e l’opinione pubblica, soprattutto quando si tratta del tema dell’affidabilità.

Affidabilità: essere degni di fiducia. Questo uno dei problemi principali che i decisori politici hanno dovuto affrontare in era pandemica, soprattutto nell’ambito della campagna vaccinale, in cui una ragione di esitazione è tutt’ora la diffidenza verso le fonti ufficiali. Problema che, secondo Stefania Salmaso, epidemiologa dell’Associazione italiana di epidemiologia, avrebbe trovato una parziale soluzione nella raccolta e condivisione dei dati. Tale accessibilità avrebbe mostrato una pluralità di voci, una informazione indipendente che controlla la qualità dell’elaborazione dei dati e, in caso, corrobora le decisioni degli organi di potere. In Italia invece, spiega la Salmaso, la gestione centrale autoreferenziale ha visto le informazioni viaggiare secondo un’unica direzione di sola raccolta, in assenza di coordinamento tra regioni e restituzione del patrimonio informativo ottenuto.

“I dati sono un diritto, sono il cemento per la fiducia e il consenso” così Luca Carra, direttore di Scienza in rete, apre il suo intervento, in continuità concettuale con il discorso della Salmaso, e racconta di #datibenecomune, l’iniziativa nata nel 2020 che spinge per la promozione della cultura dei dati, attraverso la loro libera e organizzata condivisione, senza dimenticare un quadro concettuale opportuno per poter leggere e interpretare le informazioni raccolte.

Sulla gestione della raccolta ed elaborazione dati in Italia, interviene Patrizio Pezzotti dell’Istituto superiore di Sanità, che racconta come l’ISS, storicamente incaricato della sorveglianza da parte degli organi istituzionali, abbia lavorato in tempi di pandemia, riportando le attività di monitoraggio e disseminazione operate dall’istituto.

L’evento ha offerto poi una visione internazionale, con Vittoria Colizza dell’INSERM (istituto nazionale per la salute e la ricerca medica) di Parigi, è stato analizzato l’approccio francese alla sorveglianza e rielaborazione condivisa dei dati pandemici, attraverso un ecosistema digitale che ha permesso, tra le altre cose, una restituzione di informazioni ad alta risoluzione spaziale, senza comprometterne l'anonimato.

Alessandro Vespignani, della Northwestern University di Boston, offre invece uno sguardo verso gli Stati Uniti e sposta il focus verso il tema degli algoritmi predittivi, ovvero i modelli che attraverso l’analisi dei dati correnti e le assunzioni di eventi o comportamenti futuri, disegnano i possibili scenari che potrebbero verificarsi. Vespignani racconta come agisce un modello, delineandone potenzialità e limiti, all’insegna di un approccio poli-senso da incorporare nel processo decisionale pubblico.

L’incontro termina con l’intervento di Guido Scorza, rappresentante del Collegio del garante per la privacy che descrive come le norme per la protezione dei dati personali si inseriscono nel contesto dell’utilizzo e condivisione dei dati spesso, e a volte erroneamente, percepite come nemiche più che come strumento per la libera ma tutelata circolazione dei dati.


 


Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Why have neural networks won the Nobel Prizes in Physics and Chemistry?

This year, Artificial Intelligence played a leading role in the Nobel Prizes for Physics and Chemistry. More specifically, it would be better to say machine learning and neural networks, thanks to whose development we now have systems ranging from image recognition to generative AI like Chat-GPT. In this article, Chiara Sabelli tells the story of the research that led physicist and biologist John J. Hopfield and computer scientist and neuroscientist Geoffrey Hinton to lay the foundations of current machine learning.

Image modified from the article "Biohybrid and Bioinspired Magnetic Microswimmers" https://onlinelibrary.wiley.com/doi/epdf/10.1002/smll.201704374

The 2024 Nobel Prize in Physics was awarded to John J. Hopfield, an American physicist and biologist from Princeton University, and to Geoffrey Hinton, a British computer scientist and neuroscientist from the University of Toronto, for utilizing tools from statistical physics in the development of methods underlying today's powerful machine learning technologies.