fbpx La fisica delle reti finanziarie: intervista a Guido Caldarelli | Scienza in rete

La fisica delle reti finanziarie: intervista a Guido Caldarelli

Primary tabs

Immagine Unsplash.

Tempo di lettura: 9 mins

Al cuore della crisi finanziaria del 2007-2008, culminata con la dichiarazione di bancarotta della banca di investimenti Lehman Brothers e dal salvataggio di stato di numerosi altri istituti statunitensi, c’è la fitta trama di connessioni tra gli attori del sistema finanziario costruita intorno al mercato immobiliare americano e, in particolare, alla concessione di mutui sulla casa e alla compravendita di assicurazioni su questi mutui. In particolare, furono cruciali i Credit Default Swap (CDS), derivati finanziari che coinvolgono tre soggetti: il primo dei quali compra un’assicurazione dal secondo per proteggersi dall’eventuale fallimento del terzo, e dunque dal rischio che sia incapace di assolvere alle obbligazioni che ha nei suoi confronti. La bolla dei prezzi del mercato immobiliare, la disinvoltura nella concessione dei mutui e la scarsa regolamentazione dei derivati vengono riconosciuti come le principali cause della crisi che si è propagata a livello globale e ha innescato la crisi del debito sovrano europeo che si è verificata di lì a qualche anno.

Dopo quella crisi, nel 2010, vennero modificati gli accordi di Basilea che regolano il sistema bancario a livello internazionale, per introdurre dei requisiti di capitale aggiuntivo per gli istituti con un ruolo particolarmente rilevante all’interno della rete interbancaria. Venne, in altre parole, riconosciuta la necessità di guardare alle proprietà della rete e non solo a quelle dei singoli soggetti per capire quanto ciascuno di essi concorresse alla stabilità collettiva e come le perdite dei singoli si propagassero lungo la rete tramite rapporti espliciti o impliciti (valutare cioè il livello di “rischio sistemico” della rete).

Questo cambio di mentalità evidenzia l’importanza che riveste la descrizione del sistema finanziario attraverso gli strumenti matematici della teoria delle reti e in particolare l’approccio della fisica statistica. In una rassegna pubblicata poche settimane fa dalla rivista Nature Physics un gruppo di fisici statistici italiani ripercorre i risultati ottenuti finora in questo campo di ricerca e traccia le prospettive future. Abbiamo intervistato Guido Caldarelli, fisico teorico, professore all’Università Ca’ Foscari di Venezia e coordinatore dello studio.

La conversazione è stata adattata per brevità e chiarezza.

La fisica statistica può dire qualcosa di interessante su sistemi economici e finanziari descrivendoli come reti di interazione sociale. Oggi questi stessi metodi vengono usati anche per studiare la dinamica delle interazioni sui social network con l’obiettivo di comprendere certi aspetti della psicologia umana e, più recentemente, progettare delle strategie che proteggano il dibattito democratico da fenomeni dannosi come la diffusione di notizie false. Come è nato l’interesse dei fisici teorici verso la finanza e l’economia? Si può dire che la finanza e l’economia sono stati il primo esempio di rete sociale a cui fisici e matematici si sono interessati?

Credo che l’interesse sia nato per via della disponibilità dei dati che descrivevano il mercato finanziario. Studiare l’andamento dei prezzi delle azioni o delle obbligazioni per capire come interagivano i diversi attori del sistema finanziario è stato possibile prima di analizzare i dati sui social media. Ma c’è una caratteristica comune. Si tratta di reti sociali e la matematica delle reti, o dei grafi, ci ha permesso di misurare caratteristiche a cui altrimenti non avremmo avuto accesso, come distanze, comunità, similitudini. La fisica statistica ci ha guidato nel compito di dedurre caratteristiche macroscopiche partendo dai comportamenti “microscopici”, cioè dei singoli individui o istituzioni. Chiaramente ci sono enormi differenze tra il comportamento delle molecole di un gas, i sistemi per descrivere i quali sono stati sviluppati originariamente gli strumenti che ora usiamo in campo finanziario ed economico, rispetto al quello degli investitori, ma questo non impedisce di utilizzare questi strumenti efficacemente. Questo approccio è così promettente che Ca’ Foscari sta pensando di inserire un curriculum di fisica dei sistemi finanziari ed economici nella sua laurea magistrale di ingegneria fisica. Un’attività simile è anche presente nei corsi di economia.

Quanto è diverso il vostro approccio rispetto a quello più convenzionale della matematica finanziaria?

Sono due modi di affrontare il problema molto diversi. Diverso è soprattutto il modo di costruire i modelli. Mentre la matematica finanziaria usa un approccio prevalentemente deduttivo - posso per esempio partire da un sistema di equazioni differenziali stocastiche per descrivere l’andamento dei prezzi di un’opzione e poi stimare i parametri di queste equazioni sulla base dei dati - la teoria delle reti segue un approccio misto, costruisce un feedback tra approccio induttivo e deduttivo fortemente basato sull’analisi dei dati. In questo senso, fare una fotografia dello stato di un sistema finanziario in un certo istante di tempo in termini di connessioni tra i nodi può dare informazioni estremamente interessanti. Le caratteristiche topologiche, tra cui la presenza di cluster (gruppi di nodi fortemente connessi fra loro ma scarsamente connessi con i nodi esterni), il numero medio di link che partono o entrano in ogni nodo, oppure la centralità, possono dare informazioni nuove.

La teoria delle reti è entrata nella pratica finanziaria?

L’approccio statistico alle reti finanziarie comincia a essere considerato dai regolatori. Un esempio è DebtRank, un indice che può essere calcolato per ciascuno dei nodi di una rete interbancaria e che rappresenta una stima di quanta parte del valore economico della rete andrebbe persa se quel nodo (banca) fallisse. È una proposta che abbiamo formulato nel 2012 in un lavoro realizzato insieme a Stefano Battiston, professore all’Università Ca Foscari di Venezia e all’Università di Zurigo e uno degli autori della rassegna. Abbiamo analizzato l’andamento dei bilanci delle 22 banche statunitensi che hanno ricevuto il 75% dei 1200 miliardi di aiuti messi a disposizione dalla Federal Reserve Bank durante la crisi finanziaria. I dati, che coprono circa tre anni dall’agosto 2007 a giugno 2010 e sono stati resi pubblici solo dopo la crisi alla fine del 2011 sono estremamente dettagliati e documentano i contratti tra le banche e l’evoluzione dell’attivo e del passivo dei loro bilanci. L’indice che abbiamo costruito può variare tra 0 e 1. Se una banca ha indice 0, vuol dire che il suo fallimento non comporterebbe alcuna perdita per il resto del sistema. Al contrario, se una banca con DebtRank pari a 1 fallisse, l’intero valore economico della rete verrebbe perso. Guardando all’evoluzione temporale di questo indice, abbiamo visto che all’inizio della crisi la maggior parte delle 22 istituzioni finanziarie era vicina a 0, avvicinandosi al picco della crisi si sono spostate verso 1 con la media del DebtRank che ha raggiunto il valore di 0,52. Un risultato interessante di questa analisi è stato che la possibilità di causare perdite che si propagano a tutta la rete non dipende tanto dalla dimensione della banca, quanto dalla sua posizione nella rete, mettendo in discussione il paradigma “Too big to fail” e proponendo l’alternativa “Too central to fail”. La Banca Centrale Europea e la Bank of England (la banca centrale del Regno Unito, ndr) hanno usato DebtRank per condurre degli “stress test” sul sistema interbancario europeo e britannico, rispettivamente.

Nel lavoro che ci ha descritto su DebtRank però avevate a disposizione dati che in tempo reale, cioè durante la crisi, erano riservati e non accessibili da parte dei regolatori. La scarsità o parzialità dei dati è un problema che si presenta di frequente in ambito finanziario. Come si può affrontare con la teoria delle reti?

L’idea è quella di costruire un insieme, ensemble nel linguaggio della fisica statistica, di possibili reti che condividano in media alcune delle caratteristiche della rete parziale che osserviamo. A ciascuna di queste possibili reti si assegna un peso, cioè una probabilità, che viene determinato usando il principio della massima entropia, ovvero massimizzando l’ignoranza su tutte le caratteristiche della rete che non sono sottoposte a vincoli derivanti dai dati. Questo stesso metodo può essere anche usato per valutare lo stato di una rete di cui conosciamo completamente la struttura. Se la rete che osserviamo è molto diversa dalle reti “tipiche“ presenti nell’ensemble che abbiamo generato con il metodo della massima entropia, è possibile che ci sia qualche fenomeno di instabilità all’orizzonte. Questo tipo di valutazioni potrebbe essere utilizzato come sistema di early warning, come è stato mostrato in un lavoro coordinato da Diego Garlaschelli e Tiziano Squartini, entrambi alla Scuola IMT Alti Studi di Lucca e tra gli autori della rassegna, riguardante il sistema interbancario olandese e pubblicato nel 2012.

Tracciare la rete che descrive le connessioni dirette tra agenti finanziari, quelle determinate dalla sottoscrizione di un certo contratto, è difficile soprattutto per la mancanza di dati dettagliati. Ma c’è una sfida ancora più ambiziosa: tracciare la rete delle connessioni indirette, quelle determinate dal fatto che gli agenti finanziari possono investire negli stessi beni, e dunque una fluttuazione dei prezzi di questi beni determinerà delle reazioni congiunte e mutualmente influenti. Come si costruisce la rete delle connessioni indirette o implicite e cosa si può imparare da queste reti?

Esistono diversi approcci, come descriviamo nella rassegna. Una possibilità è partire dalle correlazioni tra gli andamenti temporali dei prezzi di diverse azioni. Questa informazione può essere sfruttata per costruire una rete tra le società che emettono quelle azioni in cui, per esempio, due nodi sono connessi solo se la loro correlazione è sopra una certa soglia. Un metodo alternativo è quello di confrontare la matrice di correlazione calcolata dagli andamenti temporali con un insieme di matrici casuali opportunamente costruito e osservare le deviazioni da questo insieme per capire quali sono le correlazioni significative e costruire di conseguenza la rete. Completamente diverso è l’approccio che parte dalla conoscenza dei portafogli di investimento degli agenti finanziari, introduce degli shock nei prezzi delle azioni contenute in questi portafogli e modellizza il comportamento degli investitori per capire come lo shock si propaga nella rete. Ci sono modelli più o meno sofisticati per questi comportamenti.

In questa modellizzazione quanta collaborazione c’è tra chi si occupa di sociologia, scienza del comportamento o psicologia e voi esperti di reti finanziarie?

Ancora poca, probabilmente per questioni culturali e di linguaggio. Spesso abbiamo formazioni molto diverse e capirsi non è semplice. Tuttavia, la grande disponibilità di dati sui comportamenti individuali, i movimenti e le interazioni sociali, raccolti dai dispositivi mobili e dai social network, richiede a sociologi, scienziati comportamentali e psicologi una sempre maggiore familiarità con gli strumenti della statistica e questo ritengo possa portarci su un terreno comune. Proprio ieri Nature ha pubblicato un articolo di prospettiva che descrive la rivoluzione in corso nel campo delle scienze sociali grazie alla disponibilità di dati e dunque alla possibilità di osservare fenomeni che prima erano inaccessibili. Gli autori dell’articolo sottolineano però due differenze molto importanti rispetto alle osservazioni su cui sono basate le scienze naturali. Primo, i dati sui nostri comportamenti non sono raccolti con l’obiettivo di studiare gli individui e la società. Sono dei sottoprodotti di applicazioni che usiamo per organizzare i nostri spostamenti, per comunicare con altre persone, per informarci o per fare acquisti. Secondo, le tecnologie che raccolgono i dati sui comportamenti umani hanno il potere di cambiare i comportamenti stessi. Questo deve essere tenuto in considerazione quando si prova a generalizzare le conclusioni raggiunte in uno studio ad altri contesti. Nel caso della finanza, questa dinamica è ancora più importante perché può accadere che le conclusioni stesse degli scienziati possano informare le decisioni degli investitori sul mercato.

Per ricevere questo contenuto in anteprima ogni settimana insieme a sei consigli di lettura iscriviti alla newsletter di Scienza in rete curata da Chiara Sabelli (ecco il link per l'iscrizione). Trovi qui il testo completo di questa settimana. Buona lettura, e buon fine settimana!


Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Why have neural networks won the Nobel Prizes in Physics and Chemistry?

This year, Artificial Intelligence played a leading role in the Nobel Prizes for Physics and Chemistry. More specifically, it would be better to say machine learning and neural networks, thanks to whose development we now have systems ranging from image recognition to generative AI like Chat-GPT. In this article, Chiara Sabelli tells the story of the research that led physicist and biologist John J. Hopfield and computer scientist and neuroscientist Geoffrey Hinton to lay the foundations of current machine learning.

Image modified from the article "Biohybrid and Bioinspired Magnetic Microswimmers" https://onlinelibrary.wiley.com/doi/epdf/10.1002/smll.201704374

The 2024 Nobel Prize in Physics was awarded to John J. Hopfield, an American physicist and biologist from Princeton University, and to Geoffrey Hinton, a British computer scientist and neuroscientist from the University of Toronto, for utilizing tools from statistical physics in the development of methods underlying today's powerful machine learning technologies.