fbpx Il "cognitive computing” del nostro nuovo cervellone spaziale (che sa anche cucinare) | Science in the net

Il "cognitive computing” del nostro nuovo cervellone spaziale (che sa anche cucinare)

Primary tabs

Tempo di lettura: 7 mins

Le grandi avventure astronomiche del futuro sono basate sull’utilizzo di schiere di antenne o di telescopi che, agendo di concerto anche se posti in luoghi tra loro distanti, sono in grado di raggiungere sensibilità 10 o anche 100 volte migliori degli strumenti attuali.
Io coordino la partecipazione dell’Istituto Nazionale di Astrofisica nel CTA – Cherenkov Telescope Array, una schiera di un centinaio di telescopi che rappresenta il futuro dell’astrofisica di altissima energia che studia i fotoni 10 trilioni di volte più energetici di quelli della luce visibile, prodotti dai fenomeni più violenti che avvengono nell’Universo. I raggi gamma che verranno rivelati da CTA non possono raggiungere il suolo. Una volta penetrati nell’atmosfera, interagiscono con gli atomi che trovano sul loro cammino e producono una cascata di particelle secondarie molte delle quali si muovono a velocità superiore a quella della luce nell’aria (anche se la loro velocità rimane sempre minore di quella della luce nel vuoto). Nel 1934, il fisico russo Pavel Cherenkov notò che questo fenomeno produce una brevissima luminescenza bluastra, concettualmente simile al boato sonico che accompagna il superamento della velocità del suono: è quella che chiamiamo luce Cherenkov. CTA vedrà proprio questa luce e, partendo dalle informazione che contiene, ricostruirà la carta d’identità di ogni raggio gamma.
Ovviamente i nostri occhi non possono vedere i lampi di luce bluastra prodotti dai raggi gamma celesti poiché si tratta di fenomeni brevissimi (durano pochi miliardesimi di secondo) e molto deboli (meno di un decimillesimo del fondo del cielo notturno). CTA li rivelerà grazie ai suoi grandi telescopi ed ai suoi strumenti straordinariamente veloci e sensibili. Il CTA avrà anche un’altra capacità: grazie alla molteplicità dei telescopi, raccoglierà molte immagini della luce prodotta da ogni singolo fotone gamma, permettendo di determinare con precisione la sua direzione d’arrivo. (se siete incuriositi da questo tipo di astronomia vi consiglio di visitare il nostro sito divulgativo).
Bisogna riuscire a fare telescopi a basso costo equipaggiati con rivelatori di grande sensibilità capaci di vedere i segnali brevissimi che ci interessano, poi bisogna imparare a gestire un diluvio di dati, gran parte dei quali si riferisce a luce Cherenkov prodotta da raggi cosmici che nell’atmosfera si comportano esattamente come i fotoni di alta energia, ma sono molto più numerosi. Poiché li potremmo confondere con i raggi gamma li consideriamo rumore.
In altre parole, se vogliamo sfruttare al meglio i nostri telescopi dobbiamo risolvere il collo di bottiglia dell’analisi dei dati che saranno tantissimi e affogati dal rumore, ma andranno esaminati in tempo reale per rendersi conto di quando nell’universo succede qualcosa di veramente interessante, oppure se c’è un malfunzionamento nella strumentazione, che pure deve essere seguita in tempo reale.

LA REGOLA DELLE “4 V”

Il grande volume dei dati prodotti dai telescopi del futuro come CTA sta ponendo l’astronomia di fronte a nuove sfide. Una di questa è quella che gli esperti chiamano il problema dei “Big Data”, riassunto dalle 4 V (che stranamente sono uguali in italiano ed in inglese).

1. Volume: la quantità di dati da analizzare;

2. Velocità: si riferisce alla velocità di generazione dei dati, collegata con la necessità di analizzare i dati in tempo reale;

3. Varietà: le diverse informazioni che devono essere acquisite e analizzate contemporaneamente;

4. Veridicità: separare il segnale (i raggi gamma) dal rumore (i raggi cosmici).

In più noi sappiamo che i nostri telescopi devono lavorare in zone desertiche lontani da grandi centri di calcolo con possibilità di connessione che certo non potrebbero permettere di trasferire tutti i dati. L’analisi, almeno quella immediata, va fatta in loco con macchine che possono contare su una potenza limitata.
Da qui la necessità di trovare macchine dalle grandi prestazioni ma di poco ingombro e di pochissimo consumo che ci permetteranno di fare l’analisi in tempo reale dei dati, e anche di trovare nuove soluzioni ai nostri problemi organizzativi, che non sono da poco. Per minimizzare le spese di gestione e la necessità di personale in loco, abbiamo anche cominciato a chiederci come ottimizzare la gestione dei nostri telescopi tenendo sotto controllo tutti i loro sottosistemi. Ci sarebbe bisogno di un sistema intelligente ed amichevole, che ci aiutasse nella gestione remota del nostro osservatorio avvisandoci quando si verificavano anomalie che facciano presagire una prossima rottura.

WATSON E IL COGNITIVE COMPUTING

In questa ricerca abbiamo parlato anche con IBM, che, grazie ad una lunga tradizione di collaborazione con progetti di astronomia, si è dimostrata sensibile alle nostre istanze. Così abbiamo scoperto che il cognitive computing poteva essere l’approccio giusto per risolvere i nostri problemi. Confessando senza vergogna la mia ignoranza in materia, mi sono documentata e ho scoperto Watson e la nuova prospettiva della collaborazione uomo macchina.
Mentre i computer con i quali ho sempre lavorato io sono programmati per fare certe operazioni, più o meno lunghe e difficili, Watson è stato progettato per poter rispondere a delle domande formulate in linguaggio naturale sulla base di biblioteche di informazioni che ha precedentemente acquisito.
Il nocciolo del problema sono gli algoritmi che permettono di comprendere il contesto della domanda. Come confronto immediato, pensiamo che Google ricerca sulle parole ma non è in grado di rispondere ad una domanda e men che meno comprenderne il contesto. Una volta capita la domanda, Watson cerca le possibili risposte e le ordina in base alla probabilità che siano corrette (a suo giudizio, naturalmente). Dopo anni di tentativi, il fenomeno Watson (che prende il nome dal primo CEO di IBM non dal collaboratore di Sherlock Holmes) è esploso nel 2011, quando la macchina ha battuto due campioni nel quiz televisivo Jeopardy.



IBM Watson: Final Jeopardy! and the Future of Watson

Guardando il video (un po’ IBMcentrico) si capisce che Watson non sempre afferra il significato delle domande che sono volutamente complicate, tuttavia il suo enorme bagaglio di conoscenza, insieme alla potenza di calcolo e all’abilità dei suoi preparatori, alla fine lo portano alla vittoria.
Era l’esposizione mediatica che IBM voleva per lanciare il cognitive computing anche se è doveroso riconoscere che, dal punto di vista energetico, Watson è straordinariamente meno efficiente del cervello umano. Nei momenti più intensi di Jeopardy, i computer dietro a Watson consumavano 85 kwatt contro i 20 watt del cervello di un umano.
Una volta acquisita la capacità di apprendimento statico (leggo tutte le info richieste e le metto in relazione tra loro per rispondere alle domande) il passo successivo era passare all’apprendimento dinamico grazie al quale imparo sulla base di quello che faccio, per esempio imparando dalle scelte giuste e da quelle sbagliate che ho fatto. E’ su questo secondo approccio che si gioca la collaborazione uomo macchina con Watson che viene visto come un consigliere sempre super aggiornato che risponde alle domande di un umano.

WATSON E’ UN MEDICO, UN BROKER, UNO CHEF

Ovviamente tutti i campi della conoscenza possono essere insegnati a Watson ma, comprensibilmente, alcuni sono più commercialmente interessanti di altri. Tra le prime applicazioni di Watson, il campo medico la fa da padrone, con qualche tentativo anche in campo finanziario e nel mondo dei giocattoli.
Watson ha ingerito migliaia di ricette da ogni parte del mondo insieme alle fondamentali nozioni della chimica dell’accoppiamento dei sapori. Una volta acquisita la cultura culinaria, a Watson è stato chiesto di proporre degli accoppiamenti nuovi elaborando ricette già note oppure proponendone delle nuove. Scopo dell’esercizio era produrre qualcosa di originale che fosse libero dai pregiudizi che ogni cuoco ha nel retro della testa. La nonna ci ha insegnato che le patate vanno d’accordo con il rosmarino, la tradizione anglosassone accoppia le uova al bacon e così via. A Watson è stato chiesto di andare oltre gli accoppiamenti già noti. La lista di ingredienti potenzialmente accostabili è stata quindi sottoposta allo Istitute of Culinary Education di New York dove gli chef hanno lavorato sulle dosi per arrivare a ricette gradevoli al palato, oltre che originali.
Così è nato Cognitive Cooking with Chef Watson una sessantina di ricette che esplorano inedite combinazioni di sapori. Il risotto alla zafferano con semi di finocchio sfumato con vermut e gin, il Gazpacho andaluso con lo zenzero, croissant alla vaniglia con sapore di porcini e un tocco di menta.
Confesso di non avere ancora provato nessuna delle ricette. Purtroppo (per le persone normali) sono state elaborate da chef che passano la loro vita in cucina e tendono a proporre ricette complicate e lunghissime da fare. Tuttavia la lettura è sufficiente per incuriosire.
Con questi presupposti, sono sicura che, con un po’ di pazienza, Watson potrà imparare la papirologia o l’astrofisica. Chissà che la sua visione senza pregiudizi non ci aiuti a trovare la soluzione dei problemi che resistono a tutti i nostri sforzi.


Pubblicato su Che Futuro


Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Why have neural networks won the Nobel Prizes in Physics and Chemistry?

This year, Artificial Intelligence played a leading role in the Nobel Prizes for Physics and Chemistry. More specifically, it would be better to say machine learning and neural networks, thanks to whose development we now have systems ranging from image recognition to generative AI like Chat-GPT. In this article, Chiara Sabelli tells the story of the research that led physicist and biologist John J. Hopfield and computer scientist and neuroscientist Geoffrey Hinton to lay the foundations of current machine learning.

Image modified from the article "Biohybrid and Bioinspired Magnetic Microswimmers" https://onlinelibrary.wiley.com/doi/epdf/10.1002/smll.201704374

The 2024 Nobel Prize in Physics was awarded to John J. Hopfield, an American physicist and biologist from Princeton University, and to Geoffrey Hinton, a British computer scientist and neuroscientist from the University of Toronto, for utilizing tools from statistical physics in the development of methods underlying today's powerful machine learning technologies.