fbpx L’AI potrebbe aiutarci ad andare d'accordo? | Scienza in rete

L’AI potrebbe aiutarci ad andare d'accordo?

grafica con cervello e chip

L'AI, spesso criticata per la standardizzazione dei suoi contenuti, potrebbe trasformare questo limite in un punto di forza nei dibattiti su temi divisivi. Come hanno mostrato alcuni esperimenti, Chatbot come la Habermas Machine e Debunkbot mostrano risultati promettenti nella mediazione di controversie e nel contrasto alle teorie complottistiche. Pur considerando gli attuali limiti, il futuro di queste tecnologie potrebbe essere non nella sostituzione, ma nel supporto ai processi di decisione umani.

Tempo di lettura: 7 mins

In un loro recente studio, Anderson, Shah e Kreminsky, un ricercatore indipendente e due ricercatori della Santa Clara University, hanno messo in guardia rispetto ai rischi di appiattimento e omogeneizzazione delle idee prodotte con il supporto di un Large Language Model (nel caso di studio, ChatGpt). Il rischio di appiattimento individuato è stato soprattutto semantico e linguistico. I risultati di questo lavoro riecheggiano un leitmotiv già sentito in riferimento ai chatbot, che sin dagli albori del loro avvento hanno suscitato in numerosi editoriali della stampa italiana e internazionale la stessa critica: sia lo stile di scrittura sia l'elaborazione dell'informazione da parte del chatbot sono corrette (con l'eccezione delle ben note allucinazioni); eppure, sono anche estremamente standardizzate. Questa percepita - e, perché no, effettiva - standardizzazione dei contenuti trae le sue origini dalla natura stessa del chatbot: essendo allenato su moli esorbitanti di testi e costruendo le sue frasi sulla base di un'associazione semantica calcolata in modo probabilistico, non può che riprodurre testi in cui risulta evidente il loro essere il risultato di una combinazione di un insieme variegato di materiali.

Ma se da un lato questa “neutralità” del chatbot pone delle criticità a temi come la creatività e l'innovazione (sul piano della scrittura ma non solo), dall'altro potrebbe essere una risorsa nella gestione dei dibattiti e nella de-polarizzazione di opinioni estreme. E se questa stessa caratteristica dei chatbot, che fa sì che rischino di essere un mezzo di appiattimento della creatività, diventasse un mezzo di appianamento delle controversie?

Habermas e Debunkbot: utili a gestire le controversie

Ha suscitato un discreto clamore mediatico – forse anche per l’altisonanza del nome, che richiama a uno dei più grandi filosofi del ‘900 – la Habermas machine, un chatbot così chiamato in onore del grande filosofo tedesco e della sua teoria dell’azione comunicativa. All’interno di questa teoria, sviluppata in un omonimo libro da Habermas nel 1981, viene sviluppato un modello normativo di discorso ideale. Habermas tenta, in questo libro, di definire i criteri che le affermazioni all’interno di una comunicazione fra diverse parti dovrebbe rispettare per consentire di raggiungere un’intesa collettiva:

  1. Verità: ciò che viene affermato deve essere vero in senso oggettivo, ossia deve corrispondere alla realtà del mondo empirico. Se dico "fuori piove", questa affermazione è valida solo se effettivamente sta piovendo.
  2. Sincerità (o veridicità): il parlante deve essere sincero, cioè esprimere ciò che realmente pensa e crede. Se dico qualcosa che non credo veramente, anche se fosse oggettivamente vero, starei ingannando il mio interlocutore.
  3. Correttezza normativa (o legittimità): il contenuto dell'affermazione deve rispettare norme sociali condivise e accettate. Se dico "è giusto rispettare la fila", questa affermazione non è valutata in base alla verità empirica, ma in base alla sua conformità alle regole e ai valori del contesto sociale.

Secondo Habermas, rispettando questi criteri può avere luogo un discorso razionale che porterebbe, per la sua stessa natura, a raggiungere un’intesa comunicativa fra le parti in causa. In parole semplici, in caso di disaccordo fra le parti, sarebbe comunque possibile in un tale contesto far emergere i migliori argomenti, tener conto delle istanze delle varie parti in causa ed esprimere in modo chiaro e conciso una tesi.

Sono propri questi principi che alcuni ricercatori di Google DeepMind hanno cercato di incorporare nella loro Habermas Machine, una macchina pensata per aiutare i gruppi a gestire le controversie; e che, in un apposito esperimento sociale, ha dato i suoi frutti.

L’Habermas Machine è servita a piccoli gruppi di persone nel Regno Unito a trovare un terreno comune durante le discussioni su temi politici divisivi come la Brexit, l’immigrazione, il salario minimo, il cambiamento climatico… All’interno dei singoli gruppi, veniva chiesto ai partecipanti di esprimere le proprie opinioni su un determinato tema, e darle “in pasto” al chatbot, il quale, raccolto un numero consistente di affermazioni, doveva elaborare un testo che riassumesse le posizioni del gruppo, tenendo conto dei pareri di minoranza, delle criticità e delle condizionali espresse da tutti, pur con il proposito generale di esprimere la posizione del gruppo; il testo elaborato doveva poi essere sottoscritto dal gruppo.

Ebbene, i risultati evidenziano che i partecipanti trovavano i “manifesti del gruppo” più informativi, chiari e imparziali rispetto a quelli elaborati dai mediatori umani.

Lo stile di scrittura neutro, la capacità di elaborare, soppesare e quantificare il peso delle opinioni espresse, assieme a un codice etico incorporato algoritmicamente, hanno permesso al chatbot di riassumere meglio di un essere umano le posizioni in causa; e questo non è neanche l’unico caso in cui queste qualità non sono tornate utili.

Contro le convinzioni complottistiche

Nel settembre del 2024, su Science è apparso uno studio, condotto da Costello, Pennycook e Rand del MIT, che testimonia l’efficacia del chatbot Debunkbot (letteralmente, “bot smontatore”) nel mettere in discussione le convinzioni complottistiche delle persone.

In uno studio condotto su base volontaria, i ricercatori hanno reclutato oltre 2200 statunitensi sostenitori, in misura più o meno convinta - e quantificata, attraverso un questionario - di svariate teorie del complotto: dalle classiche cospirazioni che coinvolgono l’assassinio di John F. Kennedy, passando per gli alieni e gli Illuminati, a quelle relative a eventi di attualità come il Covid-19 e le elezioni presidenziali americane del 2020. I partecipanti venivano poi invitati a interagire col chatbot, esprimendo le loro teorie, i motivi che le sostenevano e la forza con la quale vi credevano.

Il risultato? Le persone uscivano dalla conversazione generalmente molto meno convinte della propria opinione: la fiducia nelle teorie del complotto è decresciuta del 21% in media, con il 25% dei partecipanti passati da una relativa sicurezza nelle proprie convinzioni (>50%) a uno status di maggior incertezza. Un follow-up di due mesi dopo ha confermato la persistenza del mutamento. I ricercatori, tuttavia, hanno riconosciuto i limiti dello studio, che si è basato su sondaggi online con partecipanti americani retribuiti. Sebbene i risultati siano «promettenti», resta da verificare se siano applicabili a chi crede nelle teorie del complotto in modo più radicale e a persone di culture e Paesi diversi.

L'AI come strumento di supporto nei processi democratici

«Sebbene siano due software diversi, entrambi possono essere pensati come strumenti di supporto nei processi democratici». È questa la premessa necessaria che Giovanni Boniolo, professore di Filosofia della scienza e Medical Humanities presso il Dipartimento di Neuroscienze e Riabilitazione dell’Università di Ferrara, pone all’utilizzo dell’intelligenza artificiale nella gestione delle controversie. Il professore è tuttavia scettico sulle reali possibilità di Debunkbot, rispetto ai problemi che si propone di risolvere: «Nel caso di Debunkbot, parliamo di un chatbot che si occupa di debunkare teorie del complotto. Tuttavia, dobbiamo pensare a chi lo dovrebbe usare: io non so quanto un complottista sarebbe d’accordo - non dietro compenso, fuori dal contesto di un esperimento, e deliberatamente - nell’usare un chatbot per farsi smontare una teoria in cui crede; può darsi che qualcuno lo usi come “motore di ricerca” per risolvere dei dubbi, ma per la stessa finalità potrebbe allora usare internet. E qui entra in gioco lo stesso problema: perché una persona dovrebbe conferire al chatbot una maggiore autorevolezza rispetto agli studi, alle riviste scientifiche e ai giornali divulgativi che diffondono la scienza?».

Ben più interessante, secondo Boniolo, l’uso che si potrebbe fare della Habermas Machine: «Lo scopo della Habermas Machine è di lavorare su pareri di persone diverse, per tentare di arrivare a una sorta di accordo finale; che è lo scopo di qualunque processo deliberativo». La Habermas Machine, infatti, va pensata all’interno di una teoria del processo deliberativo, affinché una sua eventuale funzione e utilità possano essere comprese. Tuttavia, dev’essere pensata anche come una parte del processo, e non come un tutto che lo va a sostituire: «I processi deliberativi non possono essere ridotti a degli input processati da una macchina, che rielaborano opinioni e ne restituiscono un output riassuntivo, dal quale poi far seguire una decisione. Nei processi decisionali collettivi, come quelli della democrazia partecipativa - spiega Boniolo - le persone, prima di confrontarsi, vengono educate, formate al problema che devono affrontare. Per un approccio deliberativo corretto ci deve essere uno stadio precedente di “informazione” delle parti in causa. Pensiamo al tema dell’energia nucleare, molto caldo al momento (anche a seguito della recente approvazione della legge delega sul nucleare sostenibile, ndr): com’è possibile pensare che le opinioni sul tema, date in pasto al chatbot, possano essere sensate e consistenti, se le persone non sono né formate sul tema, né tantomeno dotate di opportune competenze argomentative?».

Concepire uno strumento come quello della Habermas Machine in una funzione supportiva, e non sostitutiva, diventa dunque centrale: «L’Habermas Machine può avere una funzione nel riassumere e sintetizzare le posizioni dei presenti, e nell’essere inclusiva delle opinioni delle parti in causa; in un certo senso, può anche avere una funzione educativa al “come dibattere”. Tuttavia, nella fase finale della deliberazione, il ruolo delle persone deve rimanere centrale. La democrazia deliberativa non è solo decidere, ma conoscere, discutere e decidere». Ed è, pare proprio, nel secondo momento che la Habermas Machine può inserirsi, ma non come la scala mobile che conduce un gruppo di persone da un problema iniziale a una soluzione finale, bensì come la pagaia di un traghetto che, mossa dalle persone, le supporti nel raggiungere lo stadio finale di un processo deliberativo.

 

HideArticoli correlati

Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

President Trump reshapes US research landscape

trump

Con una serie di ordini esecutivi, Donald Trump smantella le politiche climatiche di Biden e ritira gli Stati Uniti dall'accordo di Parigi. Le agenzie federali scientifiche (EPA, NIH, CDC, FDA, NASA) vengono ristrutturate con nuove nomine orientate alla deregolamentazione. Vengono congelate le assunzioni federali, mentre la revisione delle collaborazioni internazionali potrebbe ridefinire il ruolo USA nella ricerca globale. Immagine: Donald Trump.

20 January 2025 marks a turning point in US science policy, with a series of executive orders drastically redefining the role of federal science and research agencies. A detailed analysis of the documents reveals an approach that fundamentally changes the basis of US climate, energy and biomedical research policy.

This comprehensive list shows the scope and breadth of the first day's interventions, which touch virtually every aspect of the federal government, from foreign policy to national security, from energy to immigration, from administrative reform to social policy.