fbpx Un cruscotto per monitorare l'evoluzione dell'epidemia | Scienza in rete

Un cruscotto per monitorare l'evoluzione dell'epidemia

Tempo di lettura: 7 mins

Che i dati comunicati tutte le sere al vespero dalla Protezione civile siano solo una lontana approssmiazione dei dati reali di diffusione del contagio da Covid-19 nella popolazione è cosa risaputa e per il momento difficilmente modificabile. Ci sono rilevanti problemi di definizione di caso legati anche a un decreto governativo che prevedeva di considerare caso solo i malati con sintomi rilevanti cui veniva fatto un tampone che dava esito positivo. Questo esclude quindi sia gli asintomatici, sia i paucisintomatici, sia i deceduti senza effettuazione di tamponi. Ma oltre ad escluderli, il che non sarebbe dal punto di vista statistico un grave problema tranne che per la sola sottostima dei contagiati, fa sì che il numero di casi diventi funzione delle scelte di politica sanitaria di diffusione dei test diagnostici.

Un altro problema è il tipo di comunicazione che vien fatta dalla Protezione civile, quasi esclusivamente interessata alla prevalenza dei malati e in particolare alla prevalenza dei malati che necessitano delle terapie maggiori. In realtà quando tutti i media alla sera danno l’incremento di casi si riferiscono alla prevalenza e talvolta rischiano di far passare come positiva una diminuzione di prevalenza anche se determinata in larga quota dall’incremento della mortalità oltre che dalle guarigioni. 

Per questi motivi si è creato questo cruscotto di monitoraggio dell’incidenza dei “malati confermati” ipotizzando che grosso modo questi possano rappresentare una frazione costante dei contagiati, anche se, come prima detto, è probabile che costante non sia. Per “sospettare” eventuali cambiamenti di queste politiche di estensione diagnostica occorre innanzitutto vedere come si comporta a livello regionale il rapporto tra casi e tamponi, indice che può dipendere sia dal tasso diagnostico della popolazione (numero di tamponi per abitanti), sia dalla scelta di chi sottoporre a diagnosi in funzione dei suoi sintomi, dei suoi sospetti, del suo ruolo nella comunità.

Figura 1. Rapporto percentuale del numero di ricoveri giornalieri sul numero dei tamponi giornalieri nelle regioni con più abitanti (medie mobili a 7 giorni). Questo grafico, relativo alle regioni con più abitanti, evidenzia come il rapporto tra casi e tamponi sia molto diverso tra regioni e come all’interno della stessa regione abbia subito importanti differenze. Più l’incidenza è cresciuta e più, almeno nelle fasi immediate, il rapporto è cresciuto e la percentuale dei positivi sul totale dei tamponi è cresciuto. Si consideri che lo scopo precipuo del tampone è quello di confermare la diagnosi al momento dell’eventuale ricovero per evitare soprattutto di considerare positivo un soggetto con una patologia simile ma non Covid-19. E poi si consideri anche che la capacità di eseguire e analizzare i tamponi non è nelle diverse regioni uguale, e soprattutto non è proporzionale al probabile numero dei casi da diagnosticare. In tutti i cinque grafici di questo articolo viene anche usata una funzione di smoothing (cioè una funzione di smussamento che consiste nell’eliminare le piccole variazioni di una curva). La necessità di uno smoothing nasce non solo dalla variabilità dei valori reali ma anche dalla variabilità indotta dal sistema delle notificazioni, soprattutto degli esiti dei tamponi che in alcuni casi ha superato, ci è stato detto, anche i tre giorni [1].

Il cruscotto

Il “cruscotto” si compone dei seguenti tre grafici che si aggiornano ogni sera per l’intera nazione e che sono disponibili anche per qualche selezionata regione.

Tutti i tre grafici si basano sui nuovi casi di contagi comunicati dalla Protezione civile seppur non direttamente, in quanto vengono comunicati solo ogni giorno i totali, dall’inizio dell’epidemia, dei casi prevalenti, dei guariti, dei deceduti e della loro somma che è il totale dei casi incidenti; nuovi casi, ovviamente, sono gli incrementi giorno dopo giorno di quest’ultimo totale.

Il trend dei nuovi cassi incidenti

Figura 2. Andamento del numero giornaliero di infetti (e medie mobili a 3 e a 5 elementi).

In una ipotesi di crescita esponenziale dei casi, ipotesi confermata nelle prime fasi dell’epidemia, mi è sembrato meglio leggibile l’andamento dei nuovi casi leggendolo in una scala logaritmica che permette di evidenziarne la loglinearità. In effetti sino a circa il 20 marzo l’andamento appare lineare nella sua trasformazione logaritmica, seppur leggermente calante; da quella data invece l’andamento rimane pressoché orizzontale evidenziando quello che alcuni hanno chiamato picco e altri forse più propriamente plateau, cioè un numero assoluto giornaliero costante di casi. La scala logaritmica permette di dare ugual valore grafico agli incrementi o decrementi percentuali e non alle corrispondenti differenze invece descritte nel secondo grafico.

Le differenze di casi tra un giorno e l’altro

Figura 3. Trend della differenza di nuovi casi diagnosticati in Italia per COVID-19 rispetto al giorno precedente. 

Nel secondo grafico si evidenziano gli incrementi e i decrementi di casi tra un giorno e il precedente in valore assoluto. Questo ad esempio permette di evidenziare una curiosa ciclicità settimanale con una crescita importante di casi a metà settimana nelle giornate di mercoledì o di giovedì. Questo andamento è di difficile interpretazione e se non fosse semplicemente casuale, potrebbe dipendere o da un ritardo di notifica dei casi o di produzione di tamponi nei giorni di sabato e domenica che poi si sommano a quelli di metà settimana, o invece a una reale crescita di casi conseguenti a maggiori contagi avvenuti durante gli WE precedenti. Questa ipotesi sembra confermata dal fatto che durante l’ultimo WE non sembra si sia ripetuta, ma questo è stato il primo WE con misure di lockdown rigide.

Anche in questo grafico, comunque si riesce a evidenziare come il numero giornaliero di nuovi casi abbia avuto una crescita sino a circa il 20 marzo per poi decrescere seppur in modo molto “ballerino”.

Una stima semplice dell’indice di replicazione (Rt)

Figura 4. Percentuale di nuovi contagi diagnosticati rispetto a quelli diagnosticati a lag antecedenti. 

Per meglio esaminare questo grafico si riporta qui sotto un particolare degli ultimi giorni di epidemia.

Il significato di questo indice è l’intensità di espansione, o riduzione dell’epidemia, che può essere riferito al numero medio di nuovi casi prodotti da ciascun caso precedente.

Se ogni caso producesse un solo caso, l’epidemia continuerebbe all’infinito mantenendo costante il numero dei contagiati; in questo caso il valore dell’indice Rt sarebbe pari ad 1 e nel grafico viene rappresentato con la linea orizzontale a punti gialli.

Tanto più il valore è alto tanto più l’epidemia si sviluppa e viceversa accade se scende al di sotto dell’unità. Si consideri che rimanendo al di sotto dell’unità l’epidemia tende necessariamente ad annullarsi, se però si interrompe la decrescita rimanendo costante il numero di nuovi casi, l’indice ritorna a valori prossimi all’unità.

Nei primi giorni dell’epidemia, quando non vi erano ancora misure di contenimento, l’indice raggiungeva anche valori di 5 e in alcune regioni anche molto di più; in Italia attorno al 20 marzo l’indice era ancora di circa 1,5 e scendeva rapidamente, ma poi attorno al 25 marzo risaliva nuovamente oltre l’unità per poi ridiscendere e ancora risalire attorno al 3 di aprile. Sembra infine che dopo tale data sia ripreso a diminuire e si spera senza più arrestarsi. Per una decrescita sostanziosa l’indice dovrebbe scendere almeno a valori di 0,5.

Come viene calcolato? Innanzitutto, come si è già detto, la serie delle frequenze nei nuovi casi viene "lisciata" con una media mobile centrata a 5 elementi. Questo determina un ritardo della stima dell’indice a due giorni precedenti l’ultimo con dati disponibili.

Vengono poi calcolati dei semplici rapporti tra la media mobile centrata su ciascun giorno e le media mobile centrate su 3, 4, 5 e 6 giorni precedenti. Considerando che la stima della replicazione di un caso dovrebbe avvenire dopo un periodo di incubazione stimato mediamente di 4,5 giorni, la stima dell’Rpiù corretta dovrebbe situarsi tra i rapporti calcolati a 4 e a 5 giorni antecedenti, cioè tra le linee continue verde e rossa. Le linee tratteggiate, a 3 o 6 giorni antecedenti, danno un’idea di quello che potrebbe essere se la stima del periodo di incubazione fosse minore o maggiore.

Conclusione

Questo cruscotto che è stato costruito a scopo di analisi personale sembra sia in grado di monitorare bene l’andamento della epidemia senza introdurre complessi modelli matematici, interessanti ma molto spesso opinabili, soprattutto quando “pretendono” di volere fare delle previsioni e non solo di costruire possibili scenari dipendenti dai parametri introdotti.

Questo monitoraggio non si pone il problema di prevedere ma solo di descrivere le caratteristiche dell’evoluzione passata. I grafici effettuati per le singole regioni sono risultati molto interessanti e molto diversi da una regione all’altra. Quindi se a qualcuno questo cruscotto piace, lo può adattare magari anche migliorandolo.

 

Nota
1. Le funzoni si smoothing (smussamento) che abbiamo utilizzato si basano su medie mobili centrate a 3 e a 5 elementi. Una media mobile significa che ogni valore è sostituito con la media del suo valore e di quelli che gli stanno vicini. Centrata significa che il valore di interesse è al centro e a lato ci sono un ugual numero di valori: se a 3 elementi significa quello centrale più uno a destra e uno a sinistra, il tutto diviso tre. Se la edia mobile è a 5 elementi, significa che il valore centrale ne avrà due destra e due a sinistra, e quindi lo smussamento è maggiore.

 

 

Articoli correlati

Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Why have neural networks won the Nobel Prizes in Physics and Chemistry?

This year, Artificial Intelligence played a leading role in the Nobel Prizes for Physics and Chemistry. More specifically, it would be better to say machine learning and neural networks, thanks to whose development we now have systems ranging from image recognition to generative AI like Chat-GPT. In this article, Chiara Sabelli tells the story of the research that led physicist and biologist John J. Hopfield and computer scientist and neuroscientist Geoffrey Hinton to lay the foundations of current machine learning.

Image modified from the article "Biohybrid and Bioinspired Magnetic Microswimmers" https://onlinelibrary.wiley.com/doi/epdf/10.1002/smll.201704374

The 2024 Nobel Prize in Physics was awarded to John J. Hopfield, an American physicist and biologist from Princeton University, and to Geoffrey Hinton, a British computer scientist and neuroscientist from the University of Toronto, for utilizing tools from statistical physics in the development of methods underlying today's powerful machine learning technologies.