fbpx Intelligenza artificiale ed educazione: la ricerca di un incontro | Scienza in rete

Intelligenza artificiale ed educazione: la ricerca di un incontro

Formazione ed educazione devono oggi fare i conti con l'IA, soprattutto con le intelligenze artificiali generative, algoritmi in grado di creare autonomamente testi, immagini e suoni, le cui implicazioni per la didattica sono immense. Ne parliamo con Paolo Bonafede, ricercatore in filosofia dell’educazione presso l’Università di Trento.

Crediti immagine: Kenny Eliason/Unsplash

Tempo di lettura: 7 mins

Se ne parla forse troppo poco, almeno rispetto ad altri ambiti applicativi dell’intelligenza artificiale. Eppure, quello del rapporto fra AI ed educazione è forse il tema più trasversale all’intera società: non solo nell’apprendimento scolastico ma in ogni ambito, la formazione delle persone deve fare i conti con le possibilità aperte dall’IA. Diciamo “fare i conti con” e non “essere riconfigurata da”, poiché troppo spesso la prospettiva del determinismo tecnologico – secondo cui le tecnologie determinano da sole, per la loro configurazione tecnica, le attività e più in generale il contesto sociale in cui sono inserite - fa capolino nei nostri discorsi, veicolando l'idea dell'ineluttabilità del progresso tecnico, a cui dobbiamo solamente adeguarci. Così nella società, così nell’educazione: la sola denominazione di “Scuola 4.0” per il piano d’investimento di modernizzazione della scuola - a cui contribuiscono i fondi del Pnrr - ci dà la misura dell’orientamento verso “innovazione e digitalizzazione” dei nostri percorsi scolastici.

Il rischio è che vengano lasciati da parte altri problemi della scuola (relativi a personale, strutture, progressivo declino di competenze tradizionali come la comprensione del testo) e soprattutto altre finalità (educare il cittadino, prima ancora che il lavoratore). Prendendo atto dell’enorme potere “narrativo” dell’intelligenza artificiale, mai quanto come in questo settore è necessario un approccio critico a queste tecnologie. In particolar modo, un occhio di riguardo va prestato alle intelligenze artificiali generative, algoritmi in grado di creare autonomamente testi, immagini e suoni a partire da una rielaborazione autonoma di dati. Le implicazioni per l’educazione, la didattica, l’apprendimento sono immense.

Di alcune di queste implicazioni – senza pretesa di esaustività - abbiamo parlato con Paolo Bonafede, ricercatore in filosofia dell’educazione presso l’Università di Trento.

Con l’avvento di Internet, abbiamo avuto improvvisamente accesso a una disponibilità quasi illimitata di conoscenza. Non solo, con l’IA generativa adesso abbiamo la possibilità di riassumere, addirittura rielaborare questa conoscenza, di averla insomma “sempre più a portata di mano”. Alla luce di ciò, deve cambiare il modo di educare?

Prima di tutto, bisogna chiarire che cosa si intenda per IA: noi assumiamo la definizione dell'UNESCO, per cui si considerano i sistemi di intelligenza artificiale «come sistemi che hanno la capacità di elaborare dati informazioni in un modo che ricorda il comportamento intelligente, e tipicamente comprende aspetti di ragionamento, apprendimento, percezione, previsione, pianificazione o controllo». In questa definizione si riassumono elementi informazionali, cognitivi e decisionali, che individuano i meccanismi di funzionamento delle IA generative. È chiaro dunque che l’IA ha un vantaggio enorme rispetto al normale essere umano: può rielaborare moli di informazioni in frazioni di tempo infinitesimali, offrendo un supporto quasi istantaneo.

Il punto è chiarire che questo processo artificiale può solo supportare i processi di apprendimento e di educazione umana, non sostituirli. La disponibilità quasi infinita di conoscenza che le macchine ci danno l’illusione di avere non è che un ammasso di informazioni alla rinfusa, se non esiste una mente in grado di vedere (o costruire) il filo logico che le lega. E la capacità di costruire questo filo logico la si impara con la fatica - perché l’apprendimento è fatica, e anche per questo si cerca di veicolarlo anche in forme divertenti (per esempio con la gamification) – e non con le facili scorciatoie offerte dalle simulazioni di un ragionamento umano.

Questo non vuol dire avere uno sguardo avverso nei confronti delle tecnologie: l’importante, come ci insegna Stiegler, è concepirle come un phàrmakon, al tempo stesso antidoto e veleno, a seconda del dosaggio con cui le assumiamo.

A tal proposito, come si possono integrare a scuola?

Esiste un’organizzazione, AIED, che organizza periodicamente conferenze internazionali sull’argomento e in cui prendono forma riflessioni abbastanza “funzionali” sull’IA nel campo dell’educazione: dato l’attuale stato dell’arte delle tecnologie, ci si chiede come implementarle per raggiungere determinati obiettivi di sviluppo e/o apprendimento. Lo stesso Consiglio d’Europa, nelle apposite conferenze dei ministri dell’educazione dei vari paesi, si occupa del framework normativo per l’inserimento di questi strumenti. Spesso e volentieri però troviamo policy che fanno riferimento al rapporto IA-educazione in senso un po’ generico, senza chiarire come l’IA possa essere implementata nell'educazione (l'«imparare con l'IA») o sulla preparazione dei cittadini a vivere in un mondo sempre più influenzato dall'IA (cioè «imparare come attivare la collaborazione uomo-IA»).

Quello che bisogna mantenere, secondo me, è un approccio critico al loro utilizzo: al di là delle indubbie potenzialità che offrono, dobbiamo sempre ricordarci che vanno inserite in contesti sociali, come quello scolastico; la scuola è un ambiente che è fatto di obiettivi educativi e di apprendimento, di competenze da acquisire e consapevolezze da acquistare; un ambiente che soprattutto è un laboratorio di socialità e democrazia, fatto da bambini, bambine, ragazzi e ragazze e poi insegnanti, collaboratori, genitori e dirigenti . Il rapporto tra IA e esseri umani ha senso solo se manteniamo questo orizzonte sociale, nel quale software e dispositivi non assorbono completamente l’individuo. Una scuola veramente 4.0 è un ambiente nel quale la mediazione interpersonale fra esseri umani e tecnologia, fatta di collaborazione e confronto collettivo, non viene meno.

Interpreto in questo senso il contributo di Maria Ranieri, docente di didattica e pedagogia speciale dell’università di Firenze (di cui è recentemente uscito il libro Scuola e intelligenza artificiale. Percorsi di alfabetizzazione critica), che si abbina al testo di Pier Cesare Rivoltella e Chiara Panciroli Pedagogia algoritmica: il fatto che, parlando di IA Literacy, ciascuno di loro insista sul ruolo centrale di competenze critiche ed etiche, e non solo di aspetti procedurali e operativi (rispetto all’innovazione della didattica, alla possibilità di iper-personalizzare i percorsi di apprendimento), non è un caso. Stesso discorso per il già citato documento UNESCO del 2021 (AI and education: guidance for policy-makers) che insiste sulla necessità di adottare un approccio umanistico come principio generale per lo sviluppo di politiche sull'IA e l'istruzione.

E come si applicano all’AI queste attenzioni critiche ed etiche?

Mantenendo vivo lo spazio del confronto e dell’analisi critica: scrivere un prompt per avere la risposta a una domanda (che più è specifica, più necessita di essere dettagliata) e far fare agli alunni un fact-checking delle risposte ottenute è un compito da svolgere insieme, di modo che si possano sviluppare discussioni sulle potenzialità ma anche le fallibilità di queste tecnologie. Penso sia a noto a tutti che ChatGPt sovente incappa in errori banali, legati alla comprensione del testo, alla fornitura di informazioni sbagliate, all’invenzione di cose che non esistono. Basta fare un giro sul web, per rendersene conto. In questo senso, uno dei compiti degli insegnanti potrebbe essere proprio quello di illustrare la fallibilità di queste tecnologie o, meglio ancora, di farle scoprire agli studenti. Solo in questo modo si può sviluppare una coscienza della natura “non oracolare” di questi strumenti, specie in questo tempo di eccessivo entusiasmo.

È chiaro però che l’illusione della “facile soluzione” fornita da queste tecnologie possa essere scoperta solo da una mente piuttosto matura: rimango convinto che questo genere di strumenti vada inserito - e sempre con cautela - relativamente tardi nel percorso formativo. Anzi, dirò di più: secondo me non dobbiamo cadere nella trappola del determinismo tecnologico. È importante che la ricerca pedagogica mantenga viva la sua postura dubitante, di modo che il connubio tra IA e contesti educativi e di apprendimento non sia solo di natura funzionale e a breve gittata. Per farlo, di nuovo, non si può prescindere da uno spazio dialogico. Altrimenti il rischio è quello di continuare ad abbinare, in chiave antipedagogica, educazione e performance.

Qual è una capacità umana che l’AI non potrà mai sopperire, e su cui l’educazione deve puntare?

Noi possiamo vincere la sfida dell’educazione e della formazione nel tempo dell’AI insistendo sulla nostra capacità di approfondimento: è la profondità della conoscenza che ci rende ciò che siamo, non l’estensione. I dataset su cui sono addestrati i modelli di intelligenza artificiale generativa contengono una tale mole di dati, che a un essere umano non basterebbe una vita intera per leggerli tutti. Ciò in cui ancora ChatGpt, Gemini e altre IA generative hanno un deficit è la profondità della conoscenza degli argomenti, essendo la loro funzione innanzitutto quella di riassumere, dare prospettive generali, sintetizzare moli di informazione… E ciò in cui ChatGpt non ci raggiungerà mai è la comprensione e la rielaborazione critica delle informazioni che produce, che valuta, che possiede nel suo dataset: il modo stesso in cui ChatGpt compie queste operazioni non è che un lavoro di associazioni statistiche – invero altamente ingegnoso - che legano delle parole ad altre parole, a seconda della probabilità della loro occorrenza in un contesto sintattico e semantico. Non c’è una reale comprensione del testo.

Quel genere di comprensione la può avere solo un essere umano che, educato secondo una concezione “artigianale” dell’educazione, ha pazientemente appreso un mestiere, delle competenze, delle nozioni, e che dopo lungo tempo ha imparato a padroneggiare in modo critico e flessibile quel sapere come nessuna IA attualmente esistente può fare.

 


Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Discovered a New Carbon-Carbon Chemical Bond

A group of researchers from Hokkaido University has provided the first experimental evidence of the existence of a new type of chemical bond: the single-electron covalent bond, theorized by Linus Pauling in 1931 but never verified until now. Using derivatives of hexaarylethane (HPE), the scientists were able to stabilize this unusual bond between two carbon atoms and study it with spectroscopic techniques and X-ray diffraction. This discovery opens new perspectives in understanding bond chemistry and could lead to the development of new materials with innovative applications.

In the cover image: study of the sigma bond with X-ray diffraction. Credits: Yusuke Ishigaki

After nearly a year of review, on September 25, a study was published in Nature that has sparked a lot of discussion, especially among chemists. A group of researchers from Hokkaido University synthesized a molecule that experimentally demonstrated the existence of a new type of chemical bond, something that does not happen very often.