fbpx Alla ricerca della complessità | Scienza in rete

Alla ricerca della complessità

Primary tabs

Warren Weaver, 9 gennaio 1940.

Tempo di lettura: 15 mins

In un articolo, Science and Complexity, pubblicato nel 1948 sulla rivista American Scientist, il matematico Warren Weaver sosteneva che in natura esistono tre diverse classi di sistemi dinamici:

  1. i «sistemi semplici», caratterizzati dalla presenza di poche variabili e tradizionali oggetto di studio della fisica e delle discipline medico-biologiche fino all'800;
  2. i «sistemi a complessità disorganizzata», caratterizzati da un numero estremamente elevato di variabili, ciascuna tuttavia con un comportamento individuale casuale o sconosciuto. Questi sistemi, scriveva Weaver, possono essere trattati in termini di proprietà medie e di regolarità dell'insieme;
  3. i «sistemi a complessità organizzata», caratterizzati da un numero considerevole di variabili connesse in un tutto organico. Sono questi i sistemi che incontriamo in biologia, in medicina, in psicologia, in economia e nelle scienze politiche. I problemi posti dai «sistemi a complessità organizzata», sosteneva ancora Weaver, sono «troppo complicati per sottomettersi alle vecchie tecniche del diciannovesimo secolo che avevano un successo così evidente nei problemi di semplicità a due, a tre o a quattro variabili. Questi nuovi problemi, inoltre, non possono essere manipolati con le tecniche statistiche così efficaci nel descrivere il comportamento medio dei problemi di complessità disorganizzata».

Warren Weaver era una persona di prestigio. E, soprattutto, una persona geniale. Con una grande e riconosciuta capacità di interconnettere discipline diverse. D’altra parte per oltre vent’anni, dal 1932 al 1955, ha diretto la divisione scienze naturali della Rockefeller Foundation. E da quella posizione, sul finire degli anni ‘30 aveva dato una spinta formidabile e persino il nome a una scienza che stava muovendo i primi passi, ma che era destinata a diventare la scienza regina della seconda parte del Novecento, la biologia molecolare.

L’articolo su scienza e complessità che Warren Weaver pubblica sull’American Scientist non passò, dunque, inosservato. Anche perché Weaver lanciava un programma che era una previsione. Finora la scienza e, in particolare, la fisica si è interessata ai «sistemi semplici», perché non aveva a disposizione gli strumenti di calcolo e, quindi, gli strumenti concettuali per studiare i «sistemi complessi». Ma nei prossimi cinquant'anni la scienza sarà chiamata a risolvere i due problemi, diversi, posti dalla complessità disorganizzata e dalla complessità organizzata.
Warren Weaver aveva visto, ancora una volta, giusto. Nella seconda parte del XX secolo lo studio dei sistemi complessi in fisica, in chimica, in biologia, persino in economia, si è imposto davvero come uno dei nuovi e grandi poli di attrazione della ricerca scientifica. La complessità è diventato un tema dominante della scienza. E della filosofia della scienza.
Tuttavia non sempre gli studi dei sistemi complessi e la declinazione scientifica e filosofica del termine complessità hanno (almeno finora) seguito le lucide e più che mai attuali indicazioni di quel geniale matematico.
La ricerca scientifica della complessità comincia (o meglio ricomincia) tra la fine degli anni ‘70 e l’inizio degli anni ‘80 del Novecento. Sono anni in cui la capacità di calcolo dei computer a disposizione degli scienziati aumenta enormemente. E, come spesso succede, la quantità diventa qualità. I calcolatori consentono simulazioni realistiche dei sistemi naturali, anche dei più complicati, e inaugurano un nuovo modo di fare scienza. Accanto alla scienza teorica e alla scienza sperimentale – le “certe dimostrazioni” e le “sensate esperienze” di galileiana memoria – nasce, non meno matematizzata, la scienza simulante.
Questa novità tecnica, sociologica e, per molti versi, anche epistemologica emerge in un particolare periodo culturale.

Scienziati e complessità

In molti settori scientifici si va affermando o confermando una certa sensazione di insoddisfazione. Tra i fisici qualcuno si sente frustrato per le difficoltà che incontra la teoria a dare una visione unificata dei fondamenti della disciplina. Da oltre mezzo secolo si tenta, senza successo, di riconciliare la meccanica quantistica e la meccanica relativistica. Molti hanno la sensazione di trovarsi con in mano un fiammifero acceso in una grande cattedrale buia. Qualcosa, qui e là, si scorge. Un colonna, un quadro, una statua. Ma, della grande cattedrale della fisica, sfugge la visione completa e la gran parte dei suoi particolari. E, in attesa di un nuovo Einstein, da una sessantina d’anni nessuno riesce a trovare il modo di fare più luce.
Nel medesimo tempo molti biologi discutono sulla possibilità stessa di sviluppare una biologia teorica con fondamenti solidi. E cercano di specificare nel concreto quale sia il senso dell'autonomia che percepiscono e rivendicano per la propria disciplina (si pensi a Ernst Mayr).
Anche gli ecologi, di fronte all'emergere di grandi problemi globali, intensificano la ricerca delle relazioni ad ampio raggio dei componenti della biosfera e cercano i fondamenti della loro recente disciplina.
Infine le matematiche del caos hanno raggiunto una notevole robustezza e trovano applicazione nei campi più svariati. All’inizio degli anni ’60 il metereologo Edward Lorenz ha scoperto sul suo computer quella estrema sensibilità alle condizioni iniziali dei sistemi dinamici non lineari prevista, alcuni decenni prima, dai grandi matematici francesi Henri Poincaré e (soprattutto) Jacques Hadamard. La non linearità trovata, oltre che al computer, in molti fenomeni osservati in natura, tuttavia, riesce raramente a dar conto della loro complessità.

Così vecchie frustrazioni, nuove matematiche e potenti computer si coalizzano per dar origine a una nuova comunità scientifica. Una comunità interdisciplinare animata da uno spirito nuovo, costituita da fisici, informatici, chimici, biologi e persino economisti, il cui obiettivo immediato è studiare, appunto, la complessità del mondo e di molti suoi sistemi. E il cui obiettivo profondo è rivoluzionare la scienza. Abbattendo molti consolidati paradigmi.
Lo spirito nuovo o, secondo alcuni, nuovista si addensa in alcuni luoghi particolari. I più noti al grande pubblico sono Santa Fe, nel New Mexico, USA, dove su iniziativa del Nobel per la fisica Murray Gell-Mann nasce l’Istituto per lo studio dei sistemi complessi, e Bruxelles, in Belgio, dove c’è la scuola inaugurata dal Nobel per la chimica Ilya Prigogine. Ma vanno ricordati anche i centri che nascono in Italia. A Roma, per esempio, si dedicano allo studio della complessità sia fisici, come Giorgio Parisi e Luciano Pietronero, sia scienziati cognitivi, come Domenico Parisi. Sta di fatto che lo spirito coinvolge, sia in Europa che in America, molte e molte persone in ogni ambito del sapere interessato, in qualche modo, ai processi evolutivi dei sistemi dinamici non lineari. È uno spirito, per così dire, generale.

Cos’è, dunque, la complessità?

Ma di cosa, in realtà si occupano, queste persone che iniziano, non senza contraddizioni e reciproci ostracismi, a fare gruppo? Che cos’è questa complessità che tutti dicono di studiare e che tutti pongono a fondamento di un nuovo paradigma?     

La risposta forse più illuminante che possiamo sperare di dare a queste domande la forniscono quei due scienziati che si guardano in cagnesco, lì sul frontespizio degli atti di uno dei primi convegni sulla nuova scienza tenuto nella seconda metà degli anni ‘80.

«Complexity is what you don’t understand», sostiene il primo.
«You don’t understand complexity», ribatte, risentito, l’altro.
«Complessità è semplicemente tutto quello che tu non comprendi», spiega il primo scienziato della vignetta.
«No - sostiene di rimando l’altro - sei tu che non comprendi la complessità. La complessità è una proprietà intrinseca della materia organizzata in un certo modo».

Dopo tre decenni e più, il dialogo della vignetta rappresenta ancora molto bene lo stato del dibattito tra chi, con approccio riduzionistico, ritiene che non esistono sistemi complessi in linea di principio, ma solo sistemi più o meno complicati. E chi ritiene che, invece, risalendo la scala gerarchica di organizzazione della materia, emergano via via delle proprietà che non sono spiegabili come somma delle proprietà delle sue singole componenti.
Ma rappresenta, anche, lo stato non risolto di difficoltà in cui si trova quest’ultimo, il fautore di una ricerca autonoma e innovativa della complessità, nel dare un quadro scientifico di riferimento certo e rigoroso al proprio approccio filosofico.
La disputa, infatti, tra i protagonisti della vignetta potrebbe andare avanti per un bel po’, senza che l’assoluta “non comunicabilità” tra quei due idealtipi di scienziato-filosofo venga minimamente scalfita.

Il primo potrebbe, infatti, chiedere:
«Di grazia, in che modo deve essere organizzata la tua materia per avere proprietà complesse?»
L’altro potrebbe e, forse, dovrebbe rispondere con evidente, ancorché non intenzionale tautologia:
«Che razza di domanda, deve essere organizzata in modo complesso».

Insomma, chi si occupa di complessità ritiene di avere fra le mani qualcosa di molto solido e addirittura di dirompente. Una nuova scienza, capace non solo di spiegare molti fenomeni inaccessibili alla vecchia scienza, ma addirittura di spiegare fenomeni propri del mondo biologico e sociologico. Norbert Wiener, il padre fondatore di quella scienza chiamata cibernetica che ha anticipato i temi e le ricerche della moderna ricerca della complessità, utilizzava due metafore per rappresentare la transizione in atto. Fino all’Ottocento ha avuto successo la «scienza degli orologi», ovvero la scienza dei sistemi dinamici  lineari la cui evoluzione è prevedibile con certezza deterministica. Nel Novecento si va imponendo la «scienza delle nuvole», ovvero la scienza dei sistemi dinamici non lineari e, appunto, complessi la cui evoluzione non è prevedibile con certezza deterministica.  

È oggi opinione diffusa che sia questa della «scienza delle nuvole» la nuova chiave, razionale e unitaria, per comprendere i fenomeni complessi presenti in natura. Solo che molti incontrano una irritante difficoltà a trovarla questa chiava unitaria. Persino a definire con precisione cosa sia la complessità. Parafrasando Agostino che riflette sulla natura del tempo, uno studioso oggi potrebbe dire: «La complessità: se non me lo chiedi so cos’è. Ma se me lo chiedi non lo so più».

Così pare che Seth Lloyd, un associato dell’Istituto di Santa Fe, all’inizio degli anni ‘90 abbia potuto contare, senza pretesa di completezza, ben 31 diverse definizioni di complessità date dai suoi numerosi cultori. Il nugolo di definizioni pare si sia ulteriormente affollato negli anni successivi.

Tra gli studiosi della complessità, molti attribuiscono solo a difficoltà momentanee, tipiche peraltro di una fase turbinosa di transizione verso una nuova scienza e nuovo paradigma, il fatto che la disciplina nascente non riesca a mettere bene a fuoco un oggetto di studi che esiste ed esiste in modo univocamente determinato.

Tra i detrattori della complessità, all’opposto, molti sostengono che la confusione, sotto il cielo della nuova disciplina, è la prova che l’oggetto di studio, semplicemente, non esiste. E comunque è troppa, quella confusione, per poterci costruire qualcosa di scientificamente solido. In soldoni, la complessità è un’invenzione.

A molti, invece, pare che dietro quelle 31 e più diverse definizioni di complessità non si nasconda né il monolite duro di una nuova fisica, né la nebbia evanescente di una vecchia moda filosofica. La confusione nasce dal fatto che molti, oggi, non hanno la lucidità dimostrata da Warren Weaver nel 1948, e definiscono con il medesimo termine, complessità, situazioni e sistemi reali molto diversi tra loro. Forse dietro quelle 31 e più definizioni si nascondano solo la varietà intrinseca della natura e la difficoltà ad accettarla. Si nascondano non una, ma molte complessità. Tutte diverse, tutte reali, tutte strutturali, tutte irriducibili l’una alle altre. Tutte pronte a disarcionare chiunque tenti di cavalcarle con un’unica spiegazione e con un’unica teoria. Insomma, come il tempo che Agostino percepiva, ma non riusciva ad afferrare in un’unica definizione, anche la complessità ha molte facce. Così come esiste un tempo della fisica diverso e distinto dal tempo della biologia, a sua volta diverso e distinto dal tempo psicologico; così esiste una complessità diversa per ogni livello di organizzazione della materia che viene considerato.

La complessità di una cella di Bénard in un recipiente di acqua messo a scaldare, non è la medesima complessità di una cellula vivente, nè quest’ultima ha la medesima complessità della mente di un uomo o di una umana società.

Sta di fatto, tuttavia, che la ricerca della complessità infischiandosi (giustamente) delle difficoltà filosofiche, continua da almeno trent’anni e produce risultati. Produce nuova conoscenza. 

L’origine e lo sviluppo della ricerca sulla complessità, tuttavia, non sono  affatto un fenomeno unico, organico e puntuale, ma costituiscono un fenomeno  variegato distribuito a macchia di leopardo nello spazio e nel tempo. Come avrebbe dovuto suggerirci il fatto che ne esistono innumerevoli e talvolta contraddittorie definizioni, avremmo dovuto attenderci che esistono innumerevoli e talvolta contraddittori tentativi  di ricerca della complessità. C’è la via tedesca e la via franco-belga, la via americana e la via russa. E ci sono anche molte stradine italiane, per la verità. C’è, ancora, una via matematica e una via fisica, una via termodinamica e una via cibernetica, una via biologica e una via filosofica. Molte di queste strade si incrociano. Altre corrono, inesorabilmente, parallele.

I cento fiumi della complessità

Ma torniamo alle difficoltà del nostro progetto minimo. In primo luogo, una sommaria rivisitazione della storia della scienza ci dice che sia la ricerca sui sistemi complessi, sia la polemica sull’approccio giusto di ricerca non sono una novità del momento. Ci sono sempre state, anche se di volta in volta hanno assunto denominazioni diverse. I tentativi più approfonditi e le divaricazioni più forti si sono avute, in passato, in campo biologico. Basti ricordare le polemiche sul vitalismo e sull’olismo che si sviluppano sia nel secolo scorso che nel ‘900 per contrastare le opposte tendenze fisicaliste, riduzioniste e meccaniciste. Gli uni a dire che gli organismi viventi hanno caratteri assolutamente irriducibili. Gli altri a sostenere che, invece, sono mere macchine: semplice somma di un insieme magari numeroso di semplici componenti. Le polemiche sono furenti. Altissimo il livello di incomunicabilità. Ancor negli anni ‘30 del nostro secolo le diverse idee sulla natura complessa degli organismi viventi determina la separazione di fatto tra la biologia evolutiva e la biologia funzionale. La prima considera gli organismi viventi come unità indivisibili, con caratteristiche che emergono e acquistano senso solo a livello di totalità e non sono deducibili che in parte dallo studio dalle loro singole componenti. La seconda si dedica, invece, allo studio analitico, convinta che solo dalla conoscenza puntuale dell’insieme dei dettagli sarebbe emersa la spiegazione dell’organismo nel suo complesso.

La sintesi neodarwiniana, maturata negli anni ‘30 e conclusasi negli anni ‘50, ha certamente portato alla unificazione sostanziale delle due approcci alla biologia. Ma non ha affatto risolto la dicotomia tra l’approccio olista e l’approccio riduzionista. Molto prima che fosse riconosciuta l’esistenza di una scienza antiriduzionista della complessità, Francis Crick, l’inglese che ha scoperto la doppia elica del Dna, polemizza con il suo approccio filosofico e sostiene, in una sorta di riproposizione in chiave biologica del manifesto determinista di Laplace, che: «quando conosceremo in tutti i loro dettagli tutti i processi chimici che avvengono nella cellula nel corso dell’intero ciclo cellulare non ci sarà altro da sapere sulla cellula stessa, e il meccanismo del suo vivere sarà completamente decifrato». E questo mentre la grande maggioranza dei biologi ama ripetere (si veda ancora Mayr): «che la vita, come risultato della propria complessità strutturale e funzionale, non può essere risolta nei suoi costituenti chimici e spiegata nella sua interezza da leggi fisiche e chimiche che operano a livello molecolare».

Insomma, la novità che si riscontra in quella che oggi si chiama scienza della complessità non risiede tanto nei suoi concetti. Quanto nel tentativo di generalizzarli. E, talvolta, di matematizzarli. Tanto che oggi lo studio della complessità e la ricerca di principi comuni in grado di spiegare i comportamenti complessi non riguarda solo gli organismi viventi. Ma sono stati di volta in volta considerati esempi di complessità gli automi cellulari, la percolazione, i vetri di spin, il clima, l’intelligenza (artificiale e naturale), le economie, le società umane, oltre che, naturalmente, le cellule e tutta la molteplicità della vita.
Il secondo aspetto che bisogna considerare è che la odierna scienza della complessità è così variegata al suo interno da renderne pressoché impossibile una lettura unitaria. All’interno del mondo dei fautori della complessità, troviamo da un lato chi teorizza a ogni livello un’”evoluzione senza fondamenti” e una nuova scienza storica, senza leggi generali, per descriverla; e dall’altro lato chi teorizza la presenza, finora occulta, di una ferrea legge dell’evoluzione universale che, uguale e opposta al secondo principio della termodinamica, impone cammini di complessità crescente in ogni luogo e a tutti i livelli.

Così che in definitiva possiamo dire, non senza sforzo e non senza forzature, che gli studiosi odierni della complessità hanno in comune una generica, e non sempre coerente, filosofia antiriduzionista e antideterminista. E, forse, quattro concetti: autorganizzazione, non equilibrio, non linearità, emergenza, mutuati peraltro da scienze più antiche, come la cibernetica, la termodinamica dei processi irreversibili, il caos deterministico e declinati nel modo più vario. Con questo armamentario generico e generale, i fautori della complessità vanno a caccia di regolarità e principi ordinativi nelle vaste praterie che i sistemi complessi disegnano per l’universo. Talvolta riconoscendosi come cacciatori appartenenti a un’unica squadra. Talaltra semplicemente ignorandosi. Quasi mai affrontandosi in campo aperto.

La ricerca della complessità, iniziata tra gli anni ’70 e gli anni '80 del secolo scorso, si è sviluppata secondo cento fiumi e spesso mille rivoli diversi, autonomi, a tratti indipendenti. Ciascuno di questi fiumi e rivoli meriterebbe una trattazione a parte.

Ma chiediamoci in prima battuta se c’è un tratto unificante. Se c’é la possibilità di una ricerca comune e se c’è la possibilità di una comune teoria della complessità.

Chi scrive ha qualche dubbio. Pensa dal Big Bang a Wall Street, ovvero della dinamica dei sistemi fisici elementari alla dinamica dei sistemi sociali ed economici la sintesi sia impossibile.

Tuttavia si tratta di un evidente pregiudizio metafisico. Per cui chi scrive ritiene che valga comunque la pena cercarla questa teoria generale dei sistemi complessi. Magari partendo da una delle prime definizioni di complessità, elaborata dallo psicologo ed economista Herbert A. Simon nel 1962. Perché è una delle definizioni più condivise e, se ci è concesso, più condivisibili. Secondo Simon un sistema complesso è quello in cui «il tutto è maggiore della somma delle parti, non in senso ultimo, metafisico, ma nell'importante senso pragmatico che, date le proprietà delle parti e le leggi della loro interazione, non è semplice dedurre le proprietà del tutto».

La definizione è incompleta, perchè non fa la minima menzione al fatto, decisivo, che l’evoluzione della materia e la crescita locale di complessità, a ogni livello nel marginale mondo della materia barionica che non si trova nelle condizioni di plasma, seguono strade molto diverse. Tanto irriducibili a un principio unico da indurre a parlare non della complessità al singolare, ma delle complessità, al plurale. Herbert Simon è consapevole di questa incompletezza e, infatti, distingue tra la complessità dei sistemi fisici non viventi e la complessità degli organismi viventi, che definisce organizzata.

Malgrado le lacune, le definizioni di Weaver e di Simon costituiscono due buoni punti di partenza. Bisogna però aggiungere un ulteriore livello di complessità, quello dei sistemi sociali, costituiti da elementi dotati di una mente cosciente e (forse) di libero arbitrio.

Dopodiché le domande restano: esistono dei principi esplicativi non banali comuni a questi tre livelli di complessità? È possibile, sulla base di questi principi, prevedere l’evoluzione di ciascuno di questi sistemi? Quanto conta la storia in questa evoluzione? E quanto contano la mente, la coscienza e il libero arbitrio (se esiste) nell’evoluzione dei sistemi sociali? Quanto contano la mente, la coscienza e il libero arbitrio (se esiste) nell’evoluzione dei sistemi economici?

È quest’ultima la domanda cui tenteranno di dare una risposta i partecipanti all’incontro del 23 aprile sui «processi decisionali e le dinamiche dei sistemi socio-economici», dove un economista (Guido Tabellini), un neuroscienziato (Giacomo Rizzolatti) e un fisico (Giorgio Parisi) cercheranno di districare i rapporti tra comportamenti individuali e comportamenti collettivi nelle decisioni economiche. Cercheranno di districare i rapporti in quel particolare sistema complesso che è l’economia umana. 

 

Articoli correlati

Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Why science cannot prove the existence of God

The demonstration of God's existence on scientific and mathematical grounds is a topic that, after captivating thinkers like Anselm and Gödel, reappears in the recent book by Bolloré and Bonnassies. However, the book makes a completely inadequate use of science and falls into the logical error common to all arguments in support of so-called "intelligent design."

In the image: detail from *The Creation of Adam* by Michelangelo. Credits: Wikimedia Commons. License: public domain

The demonstration of God's existence on rational grounds is a subject tackled by intellectual giants, from Anselm of Canterbury to Gödel, including Thomas Aquinas, Descartes, Leibniz, and Kant. However, as is well known, these arguments are not conclusive. It is not surprising, then, that this old problem, evidently poorly posed, periodically resurfaces.