fbpx Le storie non significano nulla | Science in the net

Le storie non significano nulla

Inside Orebro castle. Credit: Paulius Malinovskis / Flickr. Licenza: CC BY 2.0.

Read time: 3 mins

In un suo recente articolo apparso su PNAS, il giornalista M. Mitchell Waldrop usa proprio questa frase così provocatoria e che ricorda un celebre monologo Shakesperiano, per riassumere uno dei problemi del mondo dell'informazione odierno: gli sforzi per la produzione di contenuti seri e verificati da soli possono fare poco contro la mis/dis/mal infomazione, se non si accompagnano ad altrettanti sforzi da parte di big come Facebook e Google, di lavorare sulla logica degli algoritmi che presentano i contenuti agli utenti.

Anche se suddetti big hanno dichiarato di voler investire in questa direzione – spiega Waldrop – la verità è che al momento strategie chiare ce ne sono poche. Facebook per esempio sta stringendo legami con aziende per finanziare la formazione di giornalisti, ma chiaramente non basta.

Incoronarsi controllori?

Il problema per i social media è essenzialmente come riuscire a dirimere fra assicurare la libertà di parola a tutti e il decidere che cosa è accettabile e che cosa no. Secondo Ethan Zuckerman, giornalista che dirige il Center for Civic Media al MIT, una forma di censura non è possibile, e anche solo provare condurrebbe al disastro perché fomenterebbe nei produttori di fake news ancora di più il desiderio di continuare a fare disinformazione.

Non significa però non potere fare nulla. Sono due infatti le strategie che secondo l'autore colossi come Facebook e Google possono mettere in campo per affrontare il problema. Anzitutto fare in modo che certe notizie provenienti da siti non considerati accertati vengano indicizzate meno (cosa che lo stesso Facebook aveva annunciato di voler fare a maggio 2017), e secondo investire nell'alfabetizzazione mediatica degli utenti, per rendere le persone sempre più “savvy”, cioè consapevoli.

Accanto alla prima strategia, per scoraggiare i produttori e i diffusori di notizie false c'è anche un'altra possibile strada, quella di ridurre al minimo i “benefici” che si possono trarre dal fare disinformazione. Non dimentichiamo che grossa parte delle notizie false che circolano in rete e sui social network sono fabbricate ad hoc per far fruttare denaro, per esempio tramite la pubblicità, a chi le produce e le veicola. In questo senso – spiega l'autore – Facebook e Google hanno già affermato che alcuni siti non avrebbero più potuto guadagnare denaro tramite le loro reti pubblicitarie.

Meglio i falsi positivi che i falsi negativi?

Eppure, al momento pare che viviamo un circolo vizioso senza vie d'uscita sicure. Secondo quanto riferisce Filippo Menczer, computer scientist dell'Università dell'Indiana, le grandi aziende finiscono per preferire i falsi negativi prodotti dagli algoritmi, che al massimo lasciano passare articoli spazzatura, piuttosto che i falsi positivi che finiscono per includere nella massa di articoli spazzatura notizie invece verificate, come è accaduto nel caso della foto vincitrice del premio Pulitzer che raffigurava una bambina di 9 anni vietnamita che fugge nuda da un attacco di Napalm, e che gli algoritmi per la protezione contro la pedopornografia hanno segnalato come contenuto spazzatura.

La seconda strategia è quella di aiutare gli utenti a valutare quello che stanno vedendo. Nel febbraio 2017 un rapporto di Pew Research ha evidenziato che le persone ricordano meno la fonte della notizia che hanno visionato sui social network rispetto a quando arrivano alla notizia tramite il sito web. Sulla scia di queste osservazioni, qualche mese dopo, in agosto, Facebook aveva proposto di permettere agli editori di inserire il logo del proprio brand accanto al titolo delle notizie in modo che compaia chiaramente anche nella preview sui social. Tuttavia, pare non essere così semplice risolvere il problema. Uno studio pubblicato a settembre 2017 da alcuni ricercatori dell'Università di Yale ha mostrato che “etichettare” le notizie rafforza implicitamente l'idea che vi sia un'autorità che dirime tra le informazioni “accettate” e quelle che non lo sono, provocando un inasprimento contro questa autorità in nome della libertà di pensiero e parola. Insomma, si tratterebbe di un'operazione controproducente. E si ritorna così al problema evidenziato in apertura: come riuscire, da parte dei vari Facebook e Google, a dirimere fra assicurare la libertà di parola a tutti e decidere che cosa è accettabile e che cosa no.

Questione di interessi

Al di là delle considerazioni di questo interessante articolo di PNAS, non dobbiamo dimenticare però un altro aspetto, che forse non emerge così chiaramente: qualsiasi siano le strategie che si decide di mettere in campo, si tratta di sforzi che dobbiamo imparare a pretendere dai colossi dell'informazione. E su cui dobbiamo vigilare. Dobbiamo ricordarci che nel panorama dell'informazione non tutti sono portatori dei medesimi interessi economici e affidarsi solamente alle strategie messe in atto dai colossi privati mondiali è forse una strategia miope. Un esempio interessante lo sottolinea Marta Fana, autrice del fortunato libro uscito qualche settimana fa dal titolo “Non è lavoro è sfruttamento” (Laterza), la quale cita l'esempio della Apple Academy di Napoli. “Anche questa volta – scrive Fana – non si tratta di nuovi posti di lavoro creati dalla Apple, ma di corsi di formazione in cui le borse di studio vengono erogate dalla Regione Campania con un finanziamento di 7 miliardi di euro. La Apple contribuirà a coprire solo una decina di borse di studio.” Sempre Apple, secondo quanto riporta la Procura di Milano, fra il 2008 e il 2013 ha “evaso 879 milioni di euro e ha potuto negoziare con le istituzioni italiane di restituirne meno del 40%”.

@CristinaDaRold


Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Why have neural networks won the Nobel Prizes in Physics and Chemistry?

This year, Artificial Intelligence played a leading role in the Nobel Prizes for Physics and Chemistry. More specifically, it would be better to say machine learning and neural networks, thanks to whose development we now have systems ranging from image recognition to generative AI like Chat-GPT. In this article, Chiara Sabelli tells the story of the research that led physicist and biologist John J. Hopfield and computer scientist and neuroscientist Geoffrey Hinton to lay the foundations of current machine learning.

Image modified from the article "Biohybrid and Bioinspired Magnetic Microswimmers" https://onlinelibrary.wiley.com/doi/epdf/10.1002/smll.201704374

The 2024 Nobel Prize in Physics was awarded to John J. Hopfield, an American physicist and biologist from Princeton University, and to Geoffrey Hinton, a British computer scientist and neuroscientist from the University of Toronto, for utilizing tools from statistical physics in the development of methods underlying today's powerful machine learning technologies.