fbpx Gli algoritmi nel Paese dei bugiardi | Scienza in rete

Gli algoritmi nel Paese dei bugiardi

Primary tabs

Che i dati usati per le "chiusure colorate" nelle diverse Regioni non siano poi così oggettivi era a ben vedere sotto gli occhi di tutti. Tra gli indicatori impiegati vi è per esempio il "numero di casi con inchiesta epidemiologica completata", basato su autodichiarazioni e che alcune Regioni non hanno potuto fornire o hanno fornito in ritardo. Il risultato è un governo dell'epidemia confuso: sarebbe meglio, allora tornare a criteri più semplici.

Tempo di lettura: 5 mins

Le chiusure colorate dal verde al rosso portano scompiglio sociale, aizzano campanilismi mai sopiti, seminano sospetti di brogli sui dati, proprio come nelle elezioni americane appena concluse. Ma chi l’avrebbe mai detto che inventarsi una “risposta di precisione” su base regionale e basata su “dati oggettivi” avrebbe scatenato questa zizzania, con inevitabile coda di inchieste della magistratura sui dati pervenuti in ritardo o “aggiustati”? Ma con il senno di poi, chi mai avrebbe potuto pensare il contrario, nel paese di Pinocchio?

Del resto che gli algoritmi non siano del tutto neutrali se ne parla ormai da anni. Ma anche senza farla troppo complicata, il rischio che i dati non siano così “oggettivi” come invece sembrano pensare molti politici, dal premier Conte al governatore De Luca, era a ben vedere sotto gli occhi di tutti.

Il governo ci ha assicurato che la classificazione delle varie regioni nei quattro scenari di gravità e corrispondenti colori discende automaticamente dall’algoritmo composto di 21 indicatori del sistema di monitoraggio nazionale. Fra i 21 indicatori del sistema, tuttavia, alcuni dipendono dalla buona fede di chi li manda, essendo basati su autodichiarazioni. Ad esempio, il "numero di casi con inchiesta epidemiologica completata". Alcune regioni come Lombardia e Piemonte hanno dichiarato che la loro capacità di seguire in tempi utili la catena di trasmissione di casi e relativi contatti stava rapidamente diminuendo. Al contrario, regioni come il Lazio hanno dichiarato una capacità di tracciare e isolare pari al 100%. Altre regioni ancora - a detta di operatori coinvolti nel processo - non li hanno proprio consegnati, oppure con molto ritardo, o con una qualità molto inferiore ad altre regioni meglio attrezzate. Ragione che dovrebbe automaticamente portare alla presunzione di scarso controllo dell’epidemia, e quindi farle avanzare nelle caselle a maggior rischio.

Se questo primo set di indicatori relativi al tracciamento dei casi, alla percentuale dei tamponi positivi, ai nuovi focolai ecc. fotografano lo stato dell’epidemia allo stato nascente, ve ne sono altri, come l’occupazione dei letti ordinari e in terapia intensiva, che mettono a fuoco i danni ormai fatti. L’insieme degli indicatori - in particolare l’Rt e la pressione sul sistema sanitario a livello regionale - dovrebbero sancire l’assegnazione di ogni regione a uno dei quattro scenari di rischio in modo automatico. Pare però che alla vigilia del dpcm del 3 novembre le regioni che per un motivo o per l’altro potevano rientrare nelle zone arancione o rossa fossero 11, diventate 6 (quattro rosse e due arancioni) dopo l’inevitabile confronto con le regioni. Altre, fra cui Campania, Liguria, Veneto, Toscana e Umbria, sono rimaste tinte di giallo o arancione.

Cosa è successo al famoso bronzeo automatismo? È successo, come sempre avviene con i dati, che si è aperto un dibattito su diverse possibili interpretazioni. Dove piazzare per esempio quelle regioni che non hanno presentato per tempo i dati, o li hanno presentati di qualità discutibile? Quelle indifendibili perché non presentavano dati da settimane (come la Valle d’Aosta) sono state confermate in zona rossa, altre invece sono state graziate (messe quindi in fascia gialla) in base a criteri che non si trovano scritti da nessuna parte. E che dunque alimentano legittimi sospetti. 

Non si pensi necessariamente a chissà quali inconfessabili maneggi; più semplicemente la cabina di regia - davanti alla grande eterogeneità qualitativa dei dati che arrivavano dalle regioni - ha fatto alcune scelte pragmatiche ma non propriamente “automatiche”, come non considerare nel computo quegli Rt che presentavano un intervallo di confidenza che andava sotto 1 e altre simili quisquilie, di fatto non penalizzando ma provvisoriamente graziando quelle regioni che pur avendo dati epidemiologici allarmanti (come ospedali pieni di malati Covid) avevano altri indicatori non in ordine.

Insomma, a voler fare chiusure di precisione declinate in addirittura 4 diverse fasce di gravità ci si è andati a impastare in un governo dell’epidemia confuso, di difficile lettura per gli stessi cittadini (a Milano si può correre intorno a casa e non si può andare a trovare la mamma, a Firenze si può arrivare al parco e si può andare a trovare la mamma), e fondamentalmente poco solido scientificamente.

Non abbiamo dubbi che alla prossima riclassifiicazione (pare oggi stesso) molti di questi guasti verranno sanati e parecchie regioni usciranno dalla zona gialla-arancione per approdare ad arancione-rossa. Con nuovi malumori e conflitti. Malumori e conflitti che peraltro serpeggiano anche all’interno delle regioni, mettendo i sindaci in disputa con i loro governatori: perché mai - si chiede il sindaco di Brescia - noi dovremmo stare nella zona rossa come Milano se abbiamo meno casi e gli ospedali meno in crisi? Vagli a spiegare che se da un lato si può facilmente calcolare l’Rt per ogni provincia (e perché no, per ogni comune) il conto dell’occupazione dei ricoverati Covid non sembra aver senso a livello provinciale, visto che il sistema a rete (hub e spoke) degli ospedali lombardi assegna pazienti di diverse province prioritariamente nei pochi ospedali che per legge regionale sono tenuti a ricevere i malati gravi.

Il passo dalla complessità al casino è breve. Meglio sarebbe tornare a criteri più semplici. Anzi, semplicissimi. Affrontare un’epidemia in rapida crescita in tutta Italia con un solo lockdown, diciamo fra l’arancione e il rosso, per tre settimane. Nel frattempo potenziare la capacità di tracciamento e migliorare la qualità dei dati, che come chiedono molte associazioni andrebbero condivisi al pubblico in forma disaggregata per una migliore comprensione di quello di cui stiamo parlando. E soprattutto prepararci alla prossima, complicatissima, riapertura.

 

Articoli correlati

Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Why have neural networks won the Nobel Prizes in Physics and Chemistry?

This year, Artificial Intelligence played a leading role in the Nobel Prizes for Physics and Chemistry. More specifically, it would be better to say machine learning and neural networks, thanks to whose development we now have systems ranging from image recognition to generative AI like Chat-GPT. In this article, Chiara Sabelli tells the story of the research that led physicist and biologist John J. Hopfield and computer scientist and neuroscientist Geoffrey Hinton to lay the foundations of current machine learning.

Image modified from the article "Biohybrid and Bioinspired Magnetic Microswimmers" https://onlinelibrary.wiley.com/doi/epdf/10.1002/smll.201704374

The 2024 Nobel Prize in Physics was awarded to John J. Hopfield, an American physicist and biologist from Princeton University, and to Geoffrey Hinton, a British computer scientist and neuroscientist from the University of Toronto, for utilizing tools from statistical physics in the development of methods underlying today's powerful machine learning technologies.