fbpx Trial clinici: esperti di contenuto o di metodo? | Science in the net

Trial clinici: esperti di contenuto o di metodo?

Tempo di lettura: 8 mins

Sull’interpretazione e la sintesi di importanti trial continuano a emergere controversie, nonostante una sempre maggiore condivisione dei principi dell’evidence based medicine da parte della comunità scientifica e di quella dei clinici. Gli esempi più evidenti, considerato il mio background, li ho trovati nell’ambito dei programmi di screening [1].
Casi esemplari sono la controversia sullo screening mammografico (1), che dura da 15 anni senza che si sia arrivati a un qualsiasi punto conclusivo, e quella, sebbene meno accesa, sullo screening con HPV per il cancro della cervice uterina (2, 3, 4, 5, 6). In entrambi i casi diverse revisioni sistematiche, pur disponendo degli stessi risultati sperimentali, hanno talvolta prodotto raccomandazioni differenti se non addirittura opposte.

Nel caso dello screening mammografico, considerato che le stime sulla riduzione di mortalità nelle donne 50-69 anni sono ormai simili in tutte le metanalisi (1, 7, 8), la controversia riguarda oggi le stime di sovra-diagnosi, per misurare le quali nessun trial era stato disegnato.
Tuttavia la sovra-diagnosi può essere osservata in un paio di trial riguardanti la mortalità, oltre che in un ampio set di studi osservazionali. Proprio nella metodologia di analisi degli studi osservazionali, dove i bias sono più probabili, dove è spesso necessario l’uso di assunti dedotti da altre conoscenze di base, constatiamo le difficoltà di una corretta revisione sistematica delle evidenze (1, 7, 8).
Per quanto riguarda lo screening con HPV la controversia è di fatto superata, ma la dinamica di come si sono sviluppate le raccomandazioni è emblematica e ha lasciato sul campo molta dell’autorevolezza di due importati agenzie governative: l’americana USPSTF e la canadese CTFPHS. La prima ha commissionato e pubblicato nel novembre 2011 una revisione sistematica che concludeva che non c’erano sufficienti evidenze per introdurre il test HPV come test di 1° livello (2); nel marzo 2012 la stessa USPSTF nelle sue linee guida (3), pubblicate in contemporanea e in accordo con le linee guida di tutte le principali società scientifiche americane (4), raccomanda il test HPV.
Simile la storia delle raccomandazioni della Canadian Task Force che nel 2013 boccia l’uso del test HPV (5); a distanza di pochi giorni le principali società scientifiche canadesi rispondono facendo notare che il test è già in uso in diverse provincie e annunciano nuove linee guida multi societarie che loro raccomandano il test HPV (6).[2]
E' sempre più frequente che agenzie governative scelgano di affrontare o prevenire una controversia scientifica con un metodo che potremmo dire processuale, cioè chiamando dei giudici esterni, esperti di valutazione della letteratura o esperti nelle discipline ma che non abbiano mai pubblicato in precedenza sull’argomento specifico, ritenendo che chi è chiamato a valutare le evidenze sia in questo modo privo di pregiudizi e di conflitti d’interesse.
È stata una scelta esplicita nel caso dei canadesi, è accaduto nel caso della prima revisione degli americani ed ha il suo caso principe, che ha fatto scuola, nella revisione dell’UK Independent Panel (1) sullo screening mammografico.

"Le congetture sono per definizione non dimostrabili, ma solo falsificabili"

In quest’ottica, il valore principale per una corretta sintesi delle evidenze sembra essere quello dell’assenza di pregiudizi, più che la conoscenza specifica della malattia o della tecnologia che si prende in esame, che anzi può essere d’intralcio. È la competenza metodologica come valutare la qualità delle evidenze e come sintetizzarle ciò che garantisce, secondo questo approccio, la correttezza del processo di sintesi.
Il presupposto per tale visione è che le evidenze siano assolute e non legate a un modello interpretativo della realtà o, detto con Popper, a una serie di “congetture” che interpretano i fatti e li mettono in correlazione fra loro (9).
Questo approccio ha prodotto dei risultati soddisfacenti nel campo dei trial farmacologici, ma entra in crisi laddove i trial diventano più complessi e contengono miriadi di studi sulla storia naturale della malattia, sulla patogenesi.
Questi studi, come nel caso dei grandi trial di prevenzione da cui siamo partiti, non rispondono più al paradigma “un obiettivo, un trial” ma provano a valutare diverse strategie di intervento con un solo studio. Le revisioni sistematiche della USPSTF e della CTFPHS sullo screening con HPV hanno fallito nel produrre raccomandazioni accettabili per la comunità scientifica proprio perché basate sul principio dell’evidenza assoluta.
Non è pensabile una scienza nella quale sia possibile produrre nuova conoscenza senza unire evidenze e congetture. Una scelta di differenti elementi di contesto e di modelli interpretativi ha portato i due documenti della USPSTF a conclusioni radicalmente opposte. Cioè anche la sintesi di evidenze adotta congetture. Dobbiamo allora prima di tutto riconoscere questo fatto e poi darci un metodo scientifico per scegliere le migliori congetture, ovvero quei modelli interpretativi delle evidenze che più si avvicinano alla verità. Le congetture sono per definizione non dimostrabili, ma solo falsificabili.
Come facciamo quindi a scegliere le congetture migliori per interpretare le evidenze e dunque anche per produrre quelle sintesi di evidenze che sono le revisioni sistematiche o le linee guida?
Le congetture più convincenti sono quelle che permettono di costruire modelli che siano in grado di spiegare più fenomeni (o evidenze) possibili in diversi ambiti, dalle scienze di base alla clinica, modelli che si siano dimostrati predittivi (cioè che abbiano già resistito a qualche tentativo sperimentale di falsificazione). Per questa operazione di selezione delle congetture abbiamo ovviamente bisogno di persone che conoscano a fondo la patologia, la sua storia naturale e la sua patogenesi, che conoscano le sue basi molecolari, di persone che conoscano i meccanismi di azione e il razionale degli interventi proposti, che conoscano i limiti e i punti di forza delle differenti congetture. Abbiamo bisogno, in sintesi, di esperti. Certamente gli esperti potranno avere pregiudizi sulle congetture, magari alcune le avranno formulate loro stessi, ma è un rischio che dobbiamo accettare, invece che tentare una sintesi delle evidenze in assenza delle conoscenze di contesto, negando così che esiste una parte della conoscenza che non è né evidenza, né è dimostrabile a partire da essa.

"Less research is needed"

In sostanza, la paura dei conflitti d’interesse ci ha portato a confondere la conoscenza, intesa come expertise, e le congetture che ne fanno parte con i pregiudizi. Ci siamo convinti che i trial fossero un esperimento così potente da produrre evidenza assoluta, nel senso di priva di legami con le teorie e le congetture che hanno portato a disegnare il trial stesso. Di conseguenza abbiamo bandito la necessità di formulare e valutare le congetture nella fase di sintesi delle evidenze, trattandole come mattoni universali che avessero un unico modo corretto di assemblaggio una volta rispettate le regole del metodo. Negando la complessità dei dati e dei modi in cui li possiamo mettere in relazione per prima cosa rischiamo di produrre sintesi inaccettabili per la comunità scientifica e inoltre abbiamo rinunciato alla possibilità di produrre nuove congetture e nuova conoscenza nella fase di sintesi per demandare ogni avanzamento a nuovi esperimenti.
Rodger Kessler e Russ Glasgow hanno provocatoriamente proposto una moratoria di 10 anni per tutti i nuovi trial randomizzati in prevenzione: “it was time to think smarter about the kind of research we need and the kind of study designs that are appropriate for different kinds of question” (10).
Trish Greenhalgh nel suo blog su PlosOne notava che una delle affermazioni più usate e meno ragionate nel vocabolario accademico e in particolare nelle conclusioni delle revisioni sistematiche è “more research is needed” a cui lei risponde con “Its time for less research and more thinking”.
Questa suona proprio come una nuova sfida lanciata dall’eredità di Karl Popper alle scienze biomediche.

 

Note
[1] Va detto che nell’ambito della prevenzione, per le sue peculiarità, la sintesi dei risultati dei trial è normalmente problematica e, di conseguenza, lo sono le revisioni sistematiche. Le caratteristiche che rendono gli studi di prevenzione più difficili da sintetizzare sono: eventi rari che necessitano di studi con numerosità enormi, lunghi lag time fra intervento ed eventi prevenibili, necessità di Endpoint surrogati, interventi ad alta manualità/expertise, impossibilità di effettuare blinding (spesso anche dell’assessor), analisi Intention to treat estremamente diluita dalla bassa partecipazione al programma, difficoltà di standardizzare gli interventi.
[2] In entrambi i casi le prime revisioni bocciano il test HPV per il timore che induca un eccesso di accertamenti non necessari e di sovra trattamento ma le raccomandazioni emanate successivamente, dalla stessa agenzia nel caso degli USA e dalle società scientifiche nel caso del Canada, hanno adottato proprio quei protocolli che comportano più rischi di aumentare le colposcopie e il sovra trattamento: il cosiddetto co-testing, cioè l’effettuare in parallelo il pap-test e il test HPV, e, nel caso dei canadesi, un intervallo biennale invece che quinquennale.

Bibliografia
1. Independent UK Panel on Breast Cancer Screening. The Benefits and Harms of Breast Cancer Screening: An Independent Review. A report jointly commissioned by Cancer Research UK and the Department of Health (England). October 2012. available at: http://www.cancerresearchuk.org/prod_consump/groups/cr_common/@nre/@pol/documents/generalcontent/breast-screening-report.pdf
2. Whitlock EP Vesco KK, Eder M, Lin JS, Senger CA, Burda BU. Liquid-based cytology and human papillomavirus testing to screen for cervical cancer: a systematic review for the U.S. Preventive Services Task Force. Ann Intern Med. 2011;155(10):687-97.
3. Moyer VA, U.S. Preventive Services Task Force. Screening for cervical cancer: U.S. Preventive Services Task Force recommendation statement. Ann Intern Med. 2012;156(12):880-91.
4. Saslow D Solomon D, Lawson HW, Killackey M, Kulasingam SL, Cain J, Garcia FA, Moriarty AT, Waxman AG, Wilbur DC, Wentzensen N, Downs LS Jr, Spitzer M, Moscicki AB, Franco EL, Stoler MH, Schiffman M, Castle PE, Myers ER. American Cancer Society, American Society for Colposcopy and Cervical Pathology, and American Society for Clinical Pathology screening guidelines for the prevention and early detection of cervical cancer. Am J Clin Pathol. 2012;137(4):516-42.
5. Canadian Task Force on Preventive Health Care, Dickinson J, Tsakonas E, Conner Gorber S, Lewin G, Shaw E, Singh H, Joffres M, Birtwhistle R, Tonelli M, Mai V, McLachlin M. Recommendations on screening for cervical cancer. CMAJ. 2013;185(1):35-45.
6. The SOGC, the SCC and GOC issue a joint position statement in response to new CTFPHC recommendations on screening for cervical cancer (February 21, 2013). http://www.hpvinfo.ca/uploads/hpvinfo.ca/files/medcervicalcancerscreenin...
7. EUROSCREEN Working Group. Summary of evidence of breast cancer service screening outcomes in Europe and first estimates of benefit and harm balance sheet. J Med Screen 2012;19(Suppl. 1):5-13
8. Gotzsche PC, Jorgensen KJ. Screening for breast cancer with mammography. Cochrane Database Syst Rev. 2013;6:CD001877.
9. Popper K. Realism and the Aim of Science: From the Postscript to “The Logic of Scientific Discovery”. W.W. Bartley III Ed. Paperback – 29 Aug 1985
10. Kessler R, & Glasgow RE (2011). A proposal to speed translation of healthcare research into practice: dramatic change is needed. American journal of preventive medicine, 40 (6), 637-44 PMID: 21565657


Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Why science cannot prove the existence of God

The demonstration of God's existence on scientific and mathematical grounds is a topic that, after captivating thinkers like Anselm and Gödel, reappears in the recent book by Bolloré and Bonnassies. However, the book makes a completely inadequate use of science and falls into the logical error common to all arguments in support of so-called "intelligent design."

In the image: detail from *The Creation of Adam* by Michelangelo. Credits: Wikimedia Commons. License: public domain

The demonstration of God's existence on rational grounds is a subject tackled by intellectual giants, from Anselm of Canterbury to Gödel, including Thomas Aquinas, Descartes, Leibniz, and Kant. However, as is well known, these arguments are not conclusive. It is not surprising, then, that this old problem, evidently poorly posed, periodically resurfaces.