fbpx L’editing dell’umanità | Science in the net

L’editing dell’umanità

Primary tabs

Tempo di lettura: 10 mins

Non sono un biologo molecolare, per cui mi stupisco di trovare spesso nella casella dello spam, tra occasioni di sesso e trappole di fishing, anche offerte di acquisto di sistemi CRISPR/Cas, gli stessi di cui le autorità britanniche hanno autorizzato l’uso su embrioni umani per modificarne il genoma. 

Sono utensili molecolari scoperti solo tre anni fa, sui quali infuriano due battaglie: quella per il brevetto e lo sfruttamento economico; e quella sui confini etici e legali oltre cui non ci si dovrebbe spingere. Consentono di “riscrivere” il DNA con semplicità e precisione tali da aprire la porta a possibilità sino a ieri impensabili, in tutti i campi della biologia, compresa la correzione di gravi malattie ereditarie, come la distrofia muscolare o l’emofilia.

Sembra di essere tornati agli anni settanta, quando David Baltimore (premio Nobel nel 1975 con Renato Dulbecco e Howard Temin) promosse ad Asilomar una celebre moratoria sulla tecnica dell’“ingegneria genetica”, che si chiamava allora “DNA ricombinante”. Ora si parla invece di “editing genomico”, e sarebbe interessante approfondire tutte le implicazioni del cambiamento di metafora. L’allarme sembra oggi più concreto e immediato, perché modificando il genoma umano a livello di cellule germinali (spermatozoi, uova ed embrioni), oltre a cercare d’eliminare cause di malattia si potrebbe essere avventatamente tentati di migliorare caratteri fisici o intellettuali; d’altra parte ogni svista compiuta su un singolo individuo verrebbe pagata indefinitamente dalle generazioni future.

Anche gli argomenti della disputa non sono cambiati molto in questi 40 anni: giocare a fare dio, sostituirsi all’evoluzione naturale, avventurarsi su una china scivolosa senza conoscere tutte le possibili conseguenze, da una parte; pesare pragmaticamente i vantaggi e gli svantaggi, concedere ai malati la speranza, non frenare il progresso della scienza e dell’umanità, dall’altra. La rapidità con cui avanzano le promesse delle biotecnologie sorpassa di molte lunghezze l’arrancare dell’intera società nella consapevolezza della posta in gioco.

Sono passati meno di due mesi da quando a New York, (per iniziativa dello stesso Baltimore, ormai  quasi ottantenne) si sono incontrati scienziati americani, cinesi, britannici e di altri paesi per cercare di concordare una linea comune internazionale, e già Londra ha rotto gli indugi col via libera a un esperimento su embrioni umani sani, da distruggere però dopo una settimana di sviluppo: lo scopo quindi è di ricerca pura e non di far nascere bambini “geneticamente modificati”, cosa che resta proibita anche in UK. Poco meno di un anno fa c’era già stata la fuga in avanti di ricercatori cinesi, che avevano pubblicato i risultati, peraltro deludenti, di un esperimento di editing genetico su embrioni umani non vitali.

Perché tanta concitazione? C’è odore di grande affare, e gli investitori più accorti si sono già mossi, a partire da Google Ventures e fondazione Bill Gates, che pompano decine di milioni di dollari nelle possibili applicazioni in medicina, mentre colossi come DuPont puntano a quelle in agricoltura. Dai tempi di Asilomar tutto è cambiato. Gli americani non dominano più in modo incontrastato la ricerca biologica, incalzati dai cinesi e da altri. Soprattutto la scienza non è più una faccenda accademica: si moltiplicano le start e gli spin off,  pronti a essere inglobati dal capitale a rischio e dall’industria, e addirittura in questo campo scorrazzano i biohacker, dilettanti che nei sottoscala giocano con tecnologie alla portata ormai di quasi tutti: compresa l’offerta via spam di cui dicevo all’inizio.

In compenso, rispetto agli anni settanta non si può dire che manchino completamente le regole. Anzi semmai ce ne sono troppe, perché quasi ogni paese ha le sue, che vanno dall’interdizione di ogni ricerca sugli embrioni, come in Germania e in Italia, a proibizioni sull’editing del genoma umano, come in gran parte d’Europa, a vaghe linee guida come in Cina, India e Giappone. Gli Stati Uniti si distinguono per l’ipocrisia di negare i fondi federali alle ricerche sugli embrioni, lasciando piena libertà di svolgerle con finanziamenti privati.

In questo bailamme la linea tracciata dalla Human Fertilisation and Embryology Authority (HFEA) britannica appare sensata: consentire anche nell’uomo la ricerca sulle possibilità dello strumento, continuando a bandire qualsiasi applicazione nella riproduzione. Purtroppo è chiaro che buone regole in un solo paese non servono a molto. La globalizzazione anche per la scienza richiederebbe di ideare forme di autorità sovranazionali o di dare maggior peso a quelle esistenti. Soprattutto sarebbe urgente uno sforzo di democrazia, anche con strumenti innovativi come le giurie dei cittadini, per consentire ai cittadini del mondo intero di dire la loro su temi da cui dipendono le sorti dell’umanità.

Pubblicato sul Fatto Quotidiano.

Un passo importante, ma non cambierà il mondo…

di Vittorio Sgaramella

Apprezzo molto il confronto che fai  tra l’ingegneria genetica all’inizio del 70 e l’attuale editing  genomico. Concordo che tra le differenze importanti ci sono da un lato l’aumentata precisione degli interventi sul DNA e dall’altro la massiccia industrializzazione delle tecnologie basate sugli acidi nucleici (ma già prima dell’ingegneria genetica  Wilkins, il terzo uomo della doppia elica, diceva che il DNA è come l’oro di Mida: fa impazzire chiunque lo tocchi!). Al famoso convegno di Asilomar nel 75 dopo tre giorni (e due notti) di concitate e confuse discussioni si prese atto della precisione del DNA ricombinante, della sua facilità d’uso, del suo potenziale impatto sulla ricerche agro-medico-industriali, tutte cose allora considerate rivoluzionarie, ma anche dell’irreversibilità di eventuali danni da manomissioni involontarie o deliberate del DNA (e quindi del patrimonio genetico comune a tutta la biosfera, uomo compreso). Si propose una moratoria e tutti tornammo ai nostri Paesi e alle nostre fondamentali ricerche: alcuni con tanto zelo da arrivare a chiedere a colleghi di Paesi più permissivi (leggi Italia!) di ospitarli per completare le loro ricerche, ovviamente, vitali per la sopravvivenza dell’umanità; purtroppo la moratoria da loro proposta e da noi appena approvata a Asilomar le vietava nei loro Paesi (leggi USA!). Rigettai, ovviamente, la sorprendente richiesta: il mio illustre collega/amico rinviò i suoi fondamentali esperimenti e l’umanità sopravvisse… Ma si sa: a volte le moratorie hanno lo scopo di nobilitare chi le propone e di rallentare chi le rispetta!

Non credo che le sorti dell’umanità  verranno sconvolte dall’avvento del gene drive e del genomic editing  basati su CRISPR-Cas9 (o su sistemi simili, tipo TALEN o ZF), così come non lo furono dall’avvento dell’ingegneria genetica 40 anni fa: sono tutti approcci in teoria applicabili all’uomo, tanto alle sue cellule somatiche quanto a quelle embrionali e gli effetti saranno  probabilmente marginali in tutti i casi. La differenza tra ingegneria genetica e editing  genomico a mio avviso sta soprattutto nella maggior versatilità  dell’editing genomico rispetto all’ingegneria genetica: il primo permette interventi su qualunque sequenza di DNA , la seconda è limitata alle sequenze riconosciute dalle  forbici molecolari allora note, le famose nucleasi di restrizione. Ma poter intervenire su tante (tutte?) sequenze di DNA  fa una differenza quantitativa: la qualità, i meccanismi e gli esiti degli interventi restano sostanzialmente gli stessi. 

Entrambi gli approcci devono però tenere ben presenti alcune novità. Una si riferisce al fatto che di tutte le caratteristiche che vorremmo migliorare manipolando il DNA ben poche dipendono solo da specifiche sequenze di ACG e T del genoma: la maggior parte dipende da più sequenze oltre che dall’epigenoma, cioè da strutture che contengono anche RNA e proteine e assomigliano più ai cromosomi che al DNA vero e proprio. Sono strutture che per la loro mobilità e stabilità dipendono anche dall’ambiente, oltre che da programmi scritti in altre sequenze del DNA. Questo vale per il 90% delle nostre malattie, anche di molte di quelle  classificate come ereditarie, dall’Huntington, via determinazione genetica,  al cancro, via inclinazione o effetti ambientali, per la stragrande maggioranza dei nostri tratti, fisici e ancor più per quelli comportamentali. 

Se vogliamo un pisello alto anziché uno basso, basta modificare il DNA del singolo gene coinvolto e selezionare le piantine alte (Mendel e Darwin rivisitati dagli ingegneri/editori genetici!). Ma se vogliamo un essere umano alto anziché uno basso, dobbiamo modificargli un 200 geni (in quali cellule? in tutte?) oltre all’ambiente in cui il nanerottolo dovrebbe crescere! E se proprio vogliamo che anche i suoi discendenti siano più alti, oggi (come ai tempi di Asilomar) dovremo  intervenire su embrioni creati in provetta, sapendo però che al massimo  uno su dieci avrà uno sviluppo sano e sopravviverà all’editing genomico, e infine che solo una frazione ancor minore sarà alta (e dimentichiamo il gene drive!): ne vale la pena? 

Un’altra novità suggerisce che se poi  volessimo un individuo umano più intelligente di quanto potrebbe esserlo naturalmente, anche qui conviene dimenticare i geni: siamo messi peggio che con l’altezza, altro carattere multifattoriale ma a determinazione enormemente più complessa! Rende di più  operare sull’ambiente: male che vada avremo un ambiente migliore per noi, per i nostri discendenti, per l’intera biosfera e magari anche per i geni di tutti! Un’ulteriore novità deriva dalla crescente consapevolezza che in ogni organismo multicellulare non ci sono due cellule a genoma perfettamente identico: e questo può creare problemi, perché non sappiamo bene com’è il genoma che stiamo cercando di modificare. 

Una considerazione finale merita  la tecnologia di base delle modificazioni genetiche, ingegneristica o editoriale che sia. Di per sé il trapianto di geni (ché di questo si tratta) comporta l’introduzione nel nucleo delle cellule bersaglio di molte migliaia di copie delle sequenze di DNA necessarie per la modificazione. Il loro ingresso nel nucleo è un’invasione vera e propria che allerta il sistema di protezione e riparazione del DNA residente e lo destabilizza pericolosamente. Di qui le basse rese e i frequenti effetti secondari non desiderati o addirittura dannosi. 

In conclusione il sistema CRISPR-Cas  quanto a precisione è migliore dei precedenti: l’RNA riconosce il DNA meglio di qualunque proteina. Anche l’idea di usare gli embrioni soprannumerari nella ricerca piuttosto che lasciarli marcire in frigorifero, è lodevole, ma non è limitata a CRISPR. È  il problema del rapporto sequenza di DNA/carattere che spiazza: il DNA su cui si spera d’intervenire con crescente precisione è diventato un bersaglio mobile e in continuo travestimento epigenetico, oltre a essere responsabile spesso solo una parte del processo di definizione del tratto che vorremmo migliorare (inclina, non determina,  diceva S. Tomaso, ma parlava di stelle). 

Oggi la definizione di gene è incerta: non è più un fatto casuale (come un congiuntura strale!), ma è un sistema Read Write (RW), o piuttosto Read Only Memory (ROM)? Oggi riteniamo che la sua sequenza e la sua struttura non siano costanti nello spazio-tempo dello sviluppo dell’individuo e che cambino in risposta a programmi interni e/o a stimoli esterni. Nella genetica è in atto un processo di ridimensionamento dei geni e quindi dei genomi che va considerato con attenzione perché la sua portata è davvero rivoluzionaria. Cominciamo a prendere atto che spiega il fallimento della clonazione: ci si ricorderà che  la clonazione alla Dolly venne eletta da Science “Breakthrough of the Year 1997”: lo stesso riconoscimento è appena andato al Gene Editing…. E così è successo al Nobel per la medicina del 2012 (a Gurdon e a  Yamanaka!). Queste rivisitazione del concetto di gene possono spiegare tante cose, oltre all’affaire Dolly:  il limitato successo dei Progetti Genomi, in accordo col fatto che non esiste il mio genoma individuale, se non quello di quando ero un effimero zigote appena assemblato dai miei genitori al momento del mio concepimento; le difficoltà dei protocolli di rigenerazione della staminalità in quanto condizione basata sul DNA (ad es. nelle cosiddette iPSC), quando invece è basata sul genoma, sull’epigenoma e sull’ambiente, fattori tutti indeterminabili; il problematico impiego del cosiddetto gene drive, che vede i geni come pezzi di lego rimovibili e inseribili a volontà in una struttura al tempo stesso effimera e elusiva.

A proposito di intelligenza non si può non pensare qui alle bombe dette intelligenti: sono, si dice, infinitamente più precise di quelle usate nella seconda guerra mondiale, ma nella lotta all’IS i loro bersagli sono diventati infinitamente più elusivi e forse singolarmente meno determinanti.

Tutte queste considerazioni rendono piuttosto improbabile che le sorti dell’umanità dipenderanno da sistemi CRISPR-CaSs. Spero che questa mia valutazione non sembri pessimistica: a me pare realistica e comunque da discutere democraticamente ma consapevolmente. 

Articoli correlati

Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Why have neural networks won the Nobel Prizes in Physics and Chemistry?

This year, Artificial Intelligence played a leading role in the Nobel Prizes for Physics and Chemistry. More specifically, it would be better to say machine learning and neural networks, thanks to whose development we now have systems ranging from image recognition to generative AI like Chat-GPT. In this article, Chiara Sabelli tells the story of the research that led physicist and biologist John J. Hopfield and computer scientist and neuroscientist Geoffrey Hinton to lay the foundations of current machine learning.

Image modified from the article "Biohybrid and Bioinspired Magnetic Microswimmers" https://onlinelibrary.wiley.com/doi/epdf/10.1002/smll.201704374

The 2024 Nobel Prize in Physics was awarded to John J. Hopfield, an American physicist and biologist from Princeton University, and to Geoffrey Hinton, a British computer scientist and neuroscientist from the University of Toronto, for utilizing tools from statistical physics in the development of methods underlying today's powerful machine learning technologies.