fbpx La ricerca della complessità: il caos | Scienza in rete

La ricerca della complessità: il caos

Magnum Chaos, wood-inlay by Giovan Francesco Capoferri at the Basilica di Santa Maria Maggiore in Bergamo, based on a design by Lorenzo Lotto.

Tempo di lettura: 14 mins

Nella cosmologia greca, il caos è l’insieme disordinato e indeterminato degli elementi materiali che preesiste al cosmos, al tutto meravigliosamente ordinato. Oggi, almeno per i matematici e i fisici, la parola caos ha un significato decisamente meno generale. E anche più deterministico. Il caos, anzi il caos deterministico, è la scienza che studia i grandi effetti provocati da piccole cause. O, in termini più rigorosi, è la scienza che studia la dinamica dei sistemi non lineari e, comunque, dei sistemi divergenti. Sistemi così sensibili alle condizioni iniziali che la loro evoluzione nel tempo (almeno in un tempo medio-lungo) risulta, di fatto, imprevedibile.
Il caos deterministico, è, a ragione o a torto, uno dei protagonisti della storia scientifica e culturale degli ultimi decenni. Almeno da quando, nella seconda parte del secolo, si è imposto come una disciplina fisico-matematica di successo, che ha prodotto risultati, teorici e applicativi, notevoli.

Il caos deterministico entra da protagonista nella storia scientifica e culturale nella seconda parte del XX° secolo perché le simulazioni al computer dell'evoluzione dei sistemi dinamici divergenti accompagnano e, addirittura, originano lo studio e la ricerca dei principi fondanti dei sistemi complessi. Lo studio e la ricerca dei principi fondanti della complessità.
Non a caso, infatti, George Cowan, il fondatore dell'Istituto che a Santa Fe, Stati Uniti, dalla metà degli ‘80 studia la complessità, elegge il caos a «scienza del XXI secolo» e a fondamento della ricerca sui sistemi complessi, perché è la «prima alternativa rigorosa a quel pensiero lineare, riduzionistico, che ha dominato la scienza fin dal tempo di Newton e che ora  ha raggiunto i suoi limiti nella capacità di affrontare i problemi del mondo moderno».

Raccontiamola, dunque, in breve questa storia.

Si dice che esso, il caos, sia apparso per la prima volta sulla scena a Boston, presso il «Massachusetts Institute of Technology», nell'inverno del 1961, sul computer di un meteorologo: Edward Lorenz. L'ignaro studioso si accorge che basta modificare di un decimillesimo il valore di uno solo dei tanti parametri che descrivono un sistema meteorologico relativamente semplice, perché il computer in breve tempo fornisca un'evoluzione delle condizioni del tempo del tutto diversa e inattesa.

Basta modificare leggermente le condizioni iniziali del sistema, perché la sua evoluzione diverga.

Le drammatiche differenze tra quei due sistemi meteorologici che partivano da condizioni iniziali quasi simili, apre la mente di Edward Lorenz e sancisce il successo di una metafora: basta dunque il battito d'ali di una farfalla in Amazzonia, pensa il meteorologo texano, per scatenare un temporale a Dallas?
E poiché nessuno può prevedere se e quando una farfalla batte le ali in Amazzonia, né soprattutto computare tutti i battiti d'ali delle farfalle, amazzoniche e non, nessuno, ne conclude Lorenz, può prevedere con assoluta certezza se di qui a qualche settimana ci sarà o meno un temporale su Dallas.
L'importanza della scoperta e della metafora di Lorenz non sta tanto nel fornire una valida (e comoda) giustificazione teorica ai servizi meteorologici, che ancora oggi si dicono incapaci di prevedere che tempo farà tra due o tre settimane a Roma o in California. All'inopinata scoperta dell'effetto farfalla si attribuisce un ruolo nella storia e nella sociologia della scienza ben più pregnante. Si dice che con essa abbia avuto virtualmente inizio lo sviluppo, fragoroso, di una nuova disciplina scientifica: la scienza del caos, appunto. E che quel battito d'ali sul computer di Lorenz abbia segnato una delle più grandi, se non la più grande frattura epistemologica nella fisica di questo secolo. Perché avrebbe sconfitto definitivamente il determinismo e la causalità rigorosa della meccanica classica, dimostrando sul campo che l'evoluzione dei sistemi dinamici non lineari e comunque dei sistemi divergenti, cioè di gran parte dei sistemi che operano nel mondo macroscopico, è imprevedibile.

In realtà entrambe queste affermazioni sono poco corrette. E impongono almeno due puntualizzazioni:

  1. La scoperta del caos operata negli anni '60 è in realtà una riscoperta.
  2. La riscoperta del caos non rappresenta una frattura epistemologica. Né ripropone in termini nuovi il problema del determinismo.

La riscoperta del caos

Non è stato certo Edward Lorenz a scoprire la dinamica non lineare di alcuni sistemi e le sue drammatiche conseguenze. Molto prima, tra il serio e il faceto, Blaise Pascal aveva fatto notare che: «Se il naso di Cleopatra fosse stato diverso, a cambiare sarebbe stata l'intera faccia del mondo». D'altra parte il senso comune conosce da sempre l'estrema sensibilità alle condizioni iniziali e, quindi l'instabilità, di alcuni dei sistemi naturali che ci circondano. Ivi inclusi i sistemi creati dall'uomo. Tutti hanno la percezione di come, a volte, basti un dettaglio piccolo e insignificante per modificare la storia di un intero popolo. Recita l'antica filastrocca:

Per colpa di un chiodo si è perduto lo zoccolo;
per colpa dello zoccolo si è perduto il cavallo;
per colpa del cavallo si è perduto il cavaliere;
per colpa del cavaliere si è perduta la battaglia;
per colpa della battaglia il re ha perduto il suo regno.

Forse è meno noto il fatto che l'esistenza dei sistemi instabili era ben conosciuta anche ai padri della meccanica classica. Addirittura, come ricorda Jacques Laskar, un astrofisico che ha molto studiato i comportamenti caotici nel sistema solare, la fisica newtoniana nasce con questa consapevolezza. Isaac Newton sa che le sue equazioni gli consentono di calcolare con grande precisione l'orbita di ogni singolo pianeta intorno al Sole. E di prevedere perfettamente dove, guidato dall'attrazione gravitazionale della grande stella, ciascun pianeta sarà tra alcuni secoli o tra alcuni millenni. Purché siano note, ovviamente, la sua posizione e la sua velocità attuale. Isaac Newton, però, sa anche che nel sistema solare non operano solo le interazioni gravitazionali tra il Sole e i singoli pianeti. Ma anche le interazioni gravitazionali tra i pianeti stessi. Sono, queste ultime, interazioni molto più piccole delle precedenti. Delle mere perturbazioni. Sufficienti, tuttavia, a compromettere non solo la predicibilità di lungo periodo della dinamica planetaria, ma persino la stessa stabilità del sistema solare. Tant'è che Dio, ne conclude Newton, deve personalmente intervenire, di tanto in tanto, per ripristinare l'ordine cosmico minato alla base dalle perturbazioni gravitazionali tra gli oggetti che lo costituiscono.
Newton evoca l'intervento di Dio perché non dispone degli strumenti di calcolo infinitesimale che gli consentano di tenere in conto gli effetti perturbativi della mutua attrazione gravitazionale tra i pianeti. E, quindi, cosciente della estrema sensibilità del sistema alle condizioni iniziali, per superare questo gap della fisica matematizzata, si rivolge al potere divino. Questa figura di un Dio che interviene storicamente nelle faccende del mondo ogni volta che l'uomo o la fisica non sanno evitarne il collasso, sarà chiamata Dio dei gap. Ci troviamo, quindi, di fronte al paradosso di una fisica, quella newtoniana, accusata di non avere una sensibilità (alle condizioni iniziali) che il suo fondatore ha dimostrato di possedere addirittura in eccesso.

Quella che viene oggi definita razionalità lineare sarà acquisita lentamente nel tempo, quando Eulero, Lagrange e, infine, Pierre Simon de Laplace doteranno la fisica degli strumenti per il calcolo delle perturbazioni. In particolare Laplace dimostra che, a causa delle mutue perturbazioni gravitazionali, i pianeti non si muovono su orbite ellittiche fisse e geometricamente perfette, come pensava Johannes Kepler. Ma su orbite se non erratiche, certo un po’ contorte e abbastanza mutevoli. Tuttavia queste orbite variabili possono essere predette con notevole precisione grazie a piccole approssimazioni che consentono di portare a termine il calcolo delle perturbazioni. Poiché le approssimazioni adottate sono di gran lunga inferiori alla precisione delle misure che potevano essere eseguite alla fine del '700, Pierre Simon de Laplace ne inferisce che sono sostanzialmente insignificanti. La legge di Newton, conclude, è in grado di descrivere tutti i movimenti dei pianeti. La stabilità del sistema solare è assicurata e non c'è bisogno di alcun intervento esterno per ripristinarla. A Napoleone che gli chiede quale ruolo abbia Dio nel suo universo, Laplace risponde: «Dio? Non ho bisogno di questa ipotesi».
Il grande successo della tecnica matematica che ha messo a punto, porta il marchese Pierre Simon de Laplace a maturare il suo noto pregiudizio metafisico a favore della visione determinista del mondo, sintetizzata in una delle pagine poeticamente più belle della letteratura scientifica di tutti i tempi:

Un'intelligenza  che, per un istante dato, potesse conoscere tutte le forze da cui la natura è animata, e la situazione rispettiva degli esseri che lo compongono e che inoltre fosse abbastanza grande da sottomettere questi dati all'analisi, abbraccerebbe nella stessa formula i movimenti dei più grandi corpi dell'universo e quelli dell'atomo più leggero: nulla le risulterebbe incerto, l'avvenire come il passato sarebbe presente ai suoi occhi.

Questo brano è diventato, giustamente, celebre come il manifesto del determinismo scientifico. Anche se pochi ricordano le frasi appena successive scritte da Laplace:

Lo spirito umano offre, nella perfezione che ha saputo dare all'astronomia, una debole parvenza di questa intelligenza.

E ancora:

L'astronomia fisica, la branca della scienza che rende il massimo onore alla mente umana, ci dà un'idea, ancorché imperfetta, di quale sarebbe questa intelligenza [...] La semplicità della legge che regola il moto dei corpi celesti e le relazioni tra le loro masse e distanze ci consentono di seguire i loro moti con l'analisi fino a un certo punto; e per poter determinare lo stato del sistema di questi grandi corpi nei secoli passati o in quelli futuri è sufficiente al matematico conoscere tramite l'osservazione la loro posizione e la loro velocità in un istante qualunque. L'uomo deve questo vantaggio alla potenza degli strumenti impiegati e al piccolo numero di relazioni che entrano nei suoi calcoli. Ma l'ignoranza delle diverse cause che concorrono alla formazione degli eventi come pure la loro complessità, insieme con l'imperfezione dell'analisi, ci impediscono di conseguire la stessa certezza rispetto alla grande maggioranza dei fenomeni. Vi sono quindi cose che per noi sono incerte, cose più o meno probabili, e noi cerchiamo di rimediare all'impossibilità di conoscerle determinando i loro diversi gradi  di verosimiglianza. Accade così che alla debolezza della mente umana si debba una delle più fini e ingegnose fra le teorie matematiche, la scienza del caso o della probabilità.

Il manifesto del determinismo scientifico contiene, dunque, l'onesto riconoscimento dell'impossibilità gnoseologica  che ha la scienza dell'uomo di prevedere, completamente, tutti gli eventi futuri. Sia a causa della loro intrinseca complessità che dell'imperfezione degli strumenti analitici. Il padre del determinismo scientifico è tra i primi, dunque, a invitare la debole mente umana a usare quella che oggi potremmo chiamare una razionalità probabilistica, piuttosto che una razionalità deterministica, per cercare di spiegare i fenomeni complessi o semplicemente caotici della vita quotidiana.
Se la razionalità probabilistica viene suggerita perfino da Laplace, già alla fine del '700, nell'analisi scientifica dei fenomeni complessi, non occorre andare oltre la fine dell'800 o l'inizio del '900 per un esplicito riconoscimento dell'esistenza di sistemi semplici divergenti a causa della loro estrema sensibilità alle condizioni iniziali.
Quasi un secolo dopo un altro matematico francese, Henri Poincaré, non solo dimostra la non integrabilità, ovvero l'impossibilità di ottenere una soluzione generale esatta, del cosiddetto «problema a tre corpi»; ma scopre che, anche in presenza di leggi naturali perfettamente note, vi sono sistemi la cui evoluzione è strutturalmente imprevedibile, perché piccoli errori nella conoscenza delle loro condizioni iniziali producono grandi errori nella conoscenza delle loro condizioni finali.

Poco dopo Jacques Hadamard si impegna nello studio delle geodetiche, le linee più brevi tra due punti di una certa configurazione geometrica, di alcune particolari superfici a curvatura infinita (le superfici a curvatura negativa). Che è un po' come tentare di seguire le traiettorie di due palle su un biliardo incurvato a sella di cavallo. Hadamard si accorge che ogni differenza, anche minima, nelle condizioni iniziali di due geodetiche che restano a distanza finita, possono produrre una variazione di grandezza arbitraria nell'andamento finale della curva. In altri termini su un biliardo appena appena imperfetto, come lo sono tutti i biliardi del mondo, nessun giocatore potrà mai essere sicuro di vincere. Perché dando il medesimo colpo a due palle che si trovano (quasi) nella medesima posizione ottiene in breve (o, almeno, relativamente in breve) traiettorie completamente diverse e, quindi, assolutamente imprevedibili. Spostato in ambito cosmico, la partita, sostiene Hadamard, rende di nuovo imprevedibile, e quindi instabile, l'evoluzione di lungo periodo dello stesso sistema solare.
Secondo il filosofo Karl Popper sarebbe stato questo colpo ad effetto sul biliardo di Hadamard a segnare il crollo definitivo, che lui evidentemente dà per avvenuto, del determinismo scientifico.
In realtà, ancorché ben affondato e suffragato da una rigorosa analisi matematica, il colpo di Hadamard resta all'interno di quella imprevedibilità gnoseologica di alcuni sistemi fisici che è stato lo stesso Laplace a indicare, e non in presenza di un indeterminismo ontologico che, secondo molti, solo la meccanica quantistica porterà alla luce.

Resta il fatto, dunque, che la scienza alla fine dell'800 ha già scoperto il comportamento caotico di sistemi dinamici estremamente sensibili alle condizioni iniziali. E che su queste temi in Unione Sovietica lavoreranno a lungo Andrei Kolgomorov e la sua scuola, prima che in Occidente i lavori di Mitchell Feigenbaum e David Ruelle affrontino i problemi non lineari delle turbolenze nei fluidi, che Benoit Mandelbrot introduca il concetto di frattale, che Edward Lorenz si imbatta nell'effetto farfalla e che i computer rendano più agevole lo studio matematico e favoriscano la esplosiva (ri)scoperta dei sistemi dinamici estremamente sensibili alle condizioni iniziali.
Aggiungiamo il fatto che la divergenza in un sistema dinamico non lineare estremamente sensibile alle condizioni iniziali non è necessariamente dicotomica; sole o temporale. Ci sono, infatti, degli “attrattori”, più o meno “strani” che possono rendere abbastanza stabile nel tempo l’evoluzione del sistema.

Caos e determinismo

Le teorie del caos hanno molti meriti. Che non mancheremo di ricordare. Tra questi meriti, tuttavia, non sembra ci sia quello di aver fornito un contributo rilevante all'evoluzione del dibattito sui fondamenti della fisica. In particolare, né la scoperta né la riscoperta del caos rappresentano un'evoluzione del problema noto come determinismo. Sebbene autorevoli filosofi, come Popper, e autorevoli scienziati, come Ilya Prigogine, abbiano sostenuto il contrario.

In realtà la confusione nasce dall'uso ambiguo che si fa della parola e del concetto di determinismo. Troppo spesso e troppo superficialmente intercambiati con la parola e col concetto di prevedibilità.
Il determinismo scientifico, nella sua accezione laplaciana, ha un significato ontologico. Esso attiene al comportamento della natura, non alla conoscenza che l'uomo ha della natura. In particolare il determinismo scientifico à la Laplace sostiene che esiste una correlazione univoca (ma non necessariamente lineare) tra causa ed effetto. Per cui, dato lo stato di un sistema ad un certo tempo, esiste una formula (una mappa, un'equazione differenziale) che consente in linea di principio, beninteso a un'intelligenza che conosca tutte le forze che agiscono sul sistema e la posizione di ogni suo elemento, di stabilire in modo univoco quale sarà lo stato del sistema in un tempo futuro lungo a piacere o quale era lo stato del sistema in un tempo passato lontano a piacere.

Il determinismo scientifico è stato più volte messo in discussione. E con successo.

Basta ricordare che già nel 1806 Siméon Denis Poisson si imbatte in soluzioni singolari, cioè in soluzioni delle equazioni differenziali utilizzate anche in meccanica classica, che si biforcano a partire da un medesimo stato iniziale. Le soluzioni singolari falsificano il teorema di esistenza e unicità delle soluzioni di un'equazione differenziale ordinaria. E Poisson, che è un fisico-matematico di gran classe, comprende che minano la base matematica della concezione deterministica della meccanica. Perché, pur definendo con precisione assoluta certe condizioni iniziali (posizione e velocità di una particella) un dato sistema di equazioni differenziali ordinarie (le equazioni di Newton) potrebbero ammettere, in casi particolari, due diverse soluzioni (determinazione non univoca del passato e del futuro a partire dal presente). Poisson, che aderisce al pregiudizio metafisico del determinismo scientifico, rifiuta di credere nelle conseguenze fisiche della sua scoperta matematica. Sostenendo che lo studio attento dell'evoluzione di un sistema reale può  evitare la biforcazione, escludendo l'una o l'altra delle soluzioni alternative. La fisica resta deterministica, sostiene Poisson, sebbene la matematica offra soluzioni non deterministiche. Poisson non è il solo, nel suo tempo, a rifiutare il pregiudizio metafisico indeterminista e ad aderire al pregiudizio metafisico determinista. Per cui il problema posto dalle sue soluzioni viene, di fatto, dimenticato.

Lungi da noi tentare un'analisi storica del dibattito sul determinismo. Ma vale la pena ricordare che sarà, nei primi decenni del Novecento, una nuova meccanica, la meccanica quantistica, ad affrontare (e forse a risolvere) in modo radicale il tema. In particolare il giovane Werner Heisenberg, col suo principio di indeterminazione, dimostrerà nel 1927 l'impossibilità di principio di seguire la «traiettoria dell'elettrone», non per la divergenza di una formula matematica, ma per l'impossibilità, di principio, di conoscerne con precisione assoluta lo stato iniziale. Come scrive Heisenberg: «Nella formulazione netta della legge di causalità: "se conosciamo il presente, possiamo calcolare il futuro", è falsa non la conclusione, ma la premessa. Noi non possiamo in linea di principio conoscere il presente in ogni elemento determinante». Heisenberg nega che l'indeterminazione dello stato dell'elettrone sia gnoseologica: è infruttuoso e insensato pensare a un mondo reale, inaccessibile all'uomo, ma perfettamente determinato in cui è valida la legge di causalità. L'indeterminazione del mondo che emerge dalla nuova fisica non è gnoseologica, ma ontologica. «Perciò [...] mediante la meccanica quantistica - conclude Heisenberg - viene stabilita definitivamente la non validità della legge di causalità». Neppure l'intelligenza evocata da Laplace potrebbe conoscere, contemporaneamente, la posizione e la velocità di una particella quantistica. E, quindi, prevederne il futuro.

Naturalmente non tutti accettano la posizione di Heisenberg. E non tutti accettano la fine della causalità rigorosa neppure nel mondo a livello quantistico. Non senza combattere almeno, come annuncia Albert Einstein. Tuttavia la meccanica dei quanti rappresenta un punto di svolta, una vera frattura epistemologica. È infatti nel principio di indeterminazione e nella sovrapposizione di tutti gli stati possibili in cui si troverebbe una particella quantistica quando non è sottoposta a misura, che la visione deterministica del mondo trova il punto della sua massima crisi.
Al contrario, come scrive il fisico John Bricmont: «L'esistenza dei sistemi dinamici caotici non influenza in nessun modo questa discussione». Non c'è alcun punto di svolta, alcuna frattura filosofica operata dalla riscoperta del caos. La dinamica caotica non risolve, perché non affronta, il problema (aperto) del determinismo a livello macroscopico. E il motivo è presto detto: perché a livello dei sistemi dinamici macroscopici che si comportano in modo caotico in conseguenza della estrema sensibilità alle condizioni iniziali, l'impossibilità di conoscere con assoluta precisione il presente è gnoseologica, non ontologica. Nessuno discute che un sistema dinamico macroscopico che si comporta in modo caotico sia, a differenza di un sistema quantistico, sempre in uno stato perfettamente definito. Sono i nostri limiti che ci impediscono di verificarlo.

Quello che, dunque, i sistemi dinamici caotici mettono in discussione non è il determinismo, ma la predicibilità del mondo. Il caos sancisce la nostra incapacità di fare previsioni esatte sulla evoluzione dell'universo macroscopico e delle sue singole parti, che sia valida o no la causalità rigorosa. Constatata questa nostra incapacità, scegliamo di analizzare il mondo con una razionalità probabilistica. Proprio come suggeriva Laplace.

 

Articoli correlati

Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Why science cannot prove the existence of God

The demonstration of God's existence on scientific and mathematical grounds is a topic that, after captivating thinkers like Anselm and Gödel, reappears in the recent book by Bolloré and Bonnassies. However, the book makes a completely inadequate use of science and falls into the logical error common to all arguments in support of so-called "intelligent design."

In the image: detail from *The Creation of Adam* by Michelangelo. Credits: Wikimedia Commons. License: public domain

The demonstration of God's existence on rational grounds is a subject tackled by intellectual giants, from Anselm of Canterbury to Gödel, including Thomas Aquinas, Descartes, Leibniz, and Kant. However, as is well known, these arguments are not conclusive. It is not surprising, then, that this old problem, evidently poorly posed, periodically resurfaces.