In un articolo, Science and Complexity, pubblicato nel 1948 sulla rivista American Scientist, il matematico Warren Weaver sosteneva che in natura esistono tre diverse classi di sistemi dinamici:
a) i «sistemi semplici», caratterizzati dalla presenza di poche variabili e tradizionali oggetto di studio della fisica e delle discipline medico-biologiche fino all'800;
b) i «sistemi a complessità disorganizzata», caratterizzati da un numero estremamente elevato di variabili, ciascuna tuttavia con un comportamento individuale casuale o sconosciuto. Questi sistemi, scriveva Weaver, possono essere trattati in termini di proprietà medie e di regolarità dell'insieme;
c) i «sistemi a complessità organizzata», caratterizzati da un numero considerevole di variabili connesse in un tutto organico. Sono questi i sistemi che incontriamo in biologia, in medicina, in psicologia, in economia e nelle scienze politiche. I problemi posti dai «sistemi a complessità organizzata», sosteneva ancora Weaver, sono «troppo complicati per sottomettersi alle vecchie tecniche del diciannovesimo secolo che avevano un successo così evidente nei problemi di semplicità a due, a tre o a quattro variabili. Questi nuovi problemi, inoltre, non possono essere manipolati con le tecniche statistiche così efficaci nel descrivere il comportamento medio dei problemi di complessità disorganizzata».
Warren Weaver era una persona di prestigio. E, soprattutto, una persona geniale. Con una grande e riconosciuta capacità di interconnettere discipline diverse. D’altra parte per oltre vent’anni, dal 1932 al 1955, ha diretto la divisione scienze naturali della Rockefeller Foundation. E da quella posizione, sul finire degli anni ‘30 aveva dato una spinta formidabile e persino il nome a una scienza che stava muovendo i primi passi, ma che era destinata a diventare la scienza regina della seconda parte del Novecento, la biologia molecolare.
L’articolo su scienza e complessità che Warren Weaver
pubblica sull’American Scientist non
passò, dunque, inosservato. Anche perché Weaver lanciava un programma che era
una previsione. Finora la scienza e, in particolare, la fisica si è interessata
ai «sistemi semplici», perché non aveva a disposizione gli strumenti di calcolo
e, quindi, gli strumenti concettuali per studiare i «sistemi complessi». Ma nei
prossimi cinquant'anni la scienza sarà chiamata a risolvere i due problemi,
diversi, posti dalla complessità disorganizzata e dalla complessità
organizzata.
Warren Weaver aveva visto, ancora una volta, giusto. Nella
seconda parte del XX secolo lo studio dei sistemi complessi in fisica, in
chimica, in biologia, persino in economia, si è imposto davvero come uno dei
nuovi e grandi poli di attrazione della ricerca scientifica. La complessità è
diventato un tema dominante della scienza. E della filosofia della scienza.
Tuttavia non sempre gli studi dei sistemi complessi e la
declinazione scientifica e filosofica del termine complessità hanno (almeno
finora) seguito le lucide e più che mai attuali indicazioni di quel geniale
matematico.
La ricerca scientifica della complessità comincia (o meglio
ricomincia) tra la fine degli anni ‘70 e l’inizio degli anni ‘80 del Novecento.
Sono anni in cui la capacità di calcolo dei computer a disposizione degli
scienziati aumenta enormemente. E, come spesso succede, la quantità diventa
qualità. I calcolatori consentono simulazioni realistiche dei sistemi naturali,
anche dei più complicati, e inaugurano un nuovo modo di fare scienza. Accanto
alla scienza teorica e alla scienza sperimentale – le “certe dimostrazioni” e
le “sensate esperienze” di galileiana memoria – nasce, non meno matematizzata,
la scienza simulante.
Questa novità tecnica, sociologica e, per
molti versi, anche epistemologica emerge in un particolare periodo culturale.
Scienziati e complessità
In
molti settori scientifici si va affermando o confermando una certa sensazione
di insoddisfazione. Tra i fisici qualcuno si sente frustrato per le difficoltà
che incontra la teoria a dare una visione unificata dei fondamenti della
disciplina. Da oltre mezzo secolo si tenta, senza successo, di riconciliare la
meccanica quantistica e la meccanica relativistica. Molti hanno la sensazione
di trovarsi con in mano un fiammifero acceso in una grande cattedrale buia.
Qualcosa, qui e là, si scorge. Un colonna, un quadro, una statua. Ma, della
grande cattedrale della fisica, sfugge la visione completa e la gran parte dei
suoi particolari. E, in attesa di un nuovo Einstein, da una sessantina d’anni
nessuno riesce a trovare il modo di fare più luce.
Nel medesimo tempo molti biologi
discutono sulla possibilità stessa di sviluppare una biologia teorica con fondamenti
solidi. E cercano di specificare nel concreto quale sia il senso dell'autonomia
che percepiscono e rivendicano per la propria disciplina (si pensi a Ernst
Mayr).
Anche
gli ecologi, di fronte all'emergere di grandi problemi globali, intensificano
la ricerca delle relazioni ad ampio raggio dei componenti della biosfera e
cercano i fondamenti della loro recente disciplina.
Infine le matematiche del caos hanno
raggiunto una notevole robustezza e trovano applicazione nei campi più
svariati. All’inizio degli anni ’60 il metereologo Edward Lorenz ha scoperto
sul suo computer quella estrema sensibilità alle condizioni iniziali dei
sistemi dinamici non lineari prevista, alcuni decenni prima, dai grandi
matematici francesi Henri Poincaré e (soprattutto) Jacques Hadamard. La non
linearità trovata, oltre che al computer, in molti fenomeni osservati in
natura, tuttavia, riesce raramente a dar conto della loro complessità.
Così
vecchie frustrazioni, nuove matematiche e potenti computer si coalizzano per dar
origine a una nuova comunità scientifica. Una comunità interdisciplinare
animata da uno spirito nuovo, costituita da fisici, informatici, chimici,
biologi e persino economisti, il cui obiettivo immediato è studiare, appunto,
la complessità del mondo e di molti
suoi sistemi. E il cui obiettivo profondo è rivoluzionare la scienza.
Abbattendo molti consolidati paradigmi.
Lo spirito nuovo o, secondo alcuni,
nuovista si addensa in alcuni luoghi particolari. I più noti al grande pubblico
sono Santa Fe, nel New Mexico, USA, dove su iniziativa del Nobel per la fisica
Murray Gell-Mann nasce l’Istituto per lo studio dei sistemi complessi, e
Bruxelles, in Belgio, dove c’è la scuola inaugurata dal Nobel per la chimica
Ilya Prigogine. Ma vanno ricordati anche i centri che nascono in Italia. A
Roma, per esempio, si dedicano allo studio della complessità sia fisici, come
Giorgio Parisi e Luciano Pietronero, sia scienziati cognitivi, come Domenico
Parisi. Sta di fatto che lo spirito coinvolge, sia in Europa che in America,
molte e molte persone in ogni ambito del sapere interessato, in qualche modo,
ai processi evolutivi dei sistemi dinamici non lineari. È uno spirito, per così
dire, generale.
Cos’è, dunque, la complessità?
Ma di cosa, in realtà si occupano, queste persone che iniziano, non senza contraddizioni e reciproci ostracismi, a fare gruppo? Che cos’è questa complessità che tutti dicono di studiare e che tutti pongono a fondamento di un nuovo paradigma?
La risposta forse più illuminante che possiamo sperare di dare a queste domande la forniscono quei due scienziati che si guardano in cagnesco, lì sul frontespizio degli atti di uno dei primi convegni sulla nuova scienza tenuto nella seconda metà degli anni ‘80.
«Complexity is what you don’t understand», sostiene il primo.
«You don’t understand complexity», ribatte, risentito, l’altro.
«Complessità è semplicemente tutto quello che tu non comprendi», spiega il primo scienziato della vignetta.
«No - sostiene di rimando l’altro - sei tu che non comprendi la complessità. La complessità è una proprietà intrinseca della materia organizzata in un certo modo».
Dopo
tre decenni e più, il dialogo della vignetta rappresenta ancora molto bene lo
stato del dibattito tra chi, con approccio riduzionistico, ritiene che non
esistono sistemi complessi in linea di principio, ma solo sistemi più o meno
complicati. E chi ritiene che, invece, risalendo la scala gerarchica di
organizzazione della materia, emergano via via delle proprietà che non sono
spiegabili come somma delle proprietà delle sue singole componenti.
Ma
rappresenta, anche, lo stato non risolto di difficoltà in cui si trova
quest’ultimo, il fautore di una ricerca autonoma e innovativa della complessità,
nel dare un quadro scientifico di riferimento certo e rigoroso al proprio
approccio filosofico.
La
disputa, infatti, tra i protagonisti della vignetta potrebbe andare avanti per
un bel po’, senza che l’assoluta “non comunicabilità” tra quei due idealtipi di
scienziato-filosofo venga minimamente scalfita.
Il primo potrebbe, infatti, chiedere:
«Di grazia, in che modo deve essere organizzata la tua materia per avere proprietà complesse?»
L’altro potrebbe e, forse, dovrebbe rispondere con evidente, ancorché non intenzionale tautologia:
«Che razza di domanda, deve essere organizzata in modo complesso».
Insomma,
chi si occupa di complessità ritiene
di avere fra le mani qualcosa di molto solido e addirittura di dirompente. Una nuova scienza, capace non solo di
spiegare molti fenomeni inaccessibili alla vecchia
scienza, ma addirittura di spiegare fenomeni propri del mondo biologico e
sociologico. Norbert Wiener, il padre fondatore di quella scienza chiamata
cibernetica che ha anticipato i temi e le ricerche della moderna ricerca della
complessità, utilizzava due metafore per rappresentare la transizione in atto.
Fino all’Ottocento ha avuto successo la «scienza degli orologi», ovvero la
scienza dei sistemi dinamici lineari la
cui evoluzione è prevedibile con certezza deterministica. Nel Novecento si va
imponendo la «scienza delle nuvole», ovvero la scienza dei sistemi dinamici non
lineari e, appunto, complessi la cui evoluzione non è prevedibile con certezza
deterministica.
È oggi opinione diffusa che sia questa
della «scienza delle nuvole» la nuova chiave, razionale e unitaria, per
comprendere i fenomeni complessi presenti in natura. Solo che molti incontrano
una irritante difficoltà a trovarla questa chiava unitaria. Persino a definire
con precisione cosa sia la complessità. Parafrasando Agostino che riflette
sulla natura del tempo, uno studioso oggi potrebbe dire: «La complessità: se
non me lo chiedi so cos’è. Ma se me lo chiedi non lo so più».
Così
pare che Seth Lloyd, un associato dell’Istituto di Santa Fe, all’inizio degli
anni ‘90 abbia potuto contare, senza pretesa di completezza, ben 31 diverse
definizioni di complessità date dai suoi numerosi cultori. Il nugolo di
definizioni pare si sia ulteriormente affollato negli anni successivi.
Tra
gli studiosi della complessità, molti
attribuiscono solo a difficoltà momentanee, tipiche peraltro di una fase
turbinosa di transizione verso una nuova scienza e nuovo paradigma, il fatto
che la disciplina nascente non riesca a mettere bene a fuoco un oggetto di
studi che esiste ed esiste in modo univocamente determinato.
Tra
i detrattori della complessità, all’opposto,
molti sostengono che la confusione, sotto il cielo della nuova disciplina, è la
prova che l’oggetto di studio, semplicemente, non esiste. E comunque è troppa,
quella confusione, per poterci costruire qualcosa di scientificamente solido.
In soldoni, la complessità è
un’invenzione.
A
molti, invece, pare che dietro quelle 31 e più diverse definizioni di complessità
non si nasconda né il monolite duro di una nuova fisica, né la nebbia
evanescente di una vecchia moda filosofica. La confusione nasce dal fatto che
molti, oggi, non hanno la lucidità dimostrata da Warren Weaver nel 1948, e
definiscono con il medesimo termine, complessità, situazioni e sistemi reali
molto diversi tra loro. Forse dietro quelle 31 e più definizioni si nascondano
solo la varietà intrinseca della natura e la difficoltà ad accettarla. Si
nascondano non una, ma molte complessità. Tutte diverse, tutte reali, tutte
strutturali, tutte irriducibili l’una alle altre. Tutte pronte a disarcionare
chiunque tenti di cavalcarle con un’unica spiegazione e con un’unica teoria.
Insomma, come il tempo che Agostino percepiva, ma non riusciva ad afferrare in
un’unica definizione, anche la complessità ha molte facce. Così come esiste un
tempo della fisica diverso e distinto dal tempo della biologia, a sua volta
diverso e distinto dal tempo psicologico; così esiste una complessità diversa
per ogni livello di organizzazione della materia che viene considerato.
La
complessità di una cella di Bénard in un recipiente di acqua messo a scaldare,
non è la medesima complessità di una
cellula vivente, nè quest’ultima ha la medesima complessità della mente di un
uomo o di una umana società.
Sta
di fatto, tuttavia, che la ricerca della complessità infischiandosi
(giustamente) delle difficoltà filosofiche, continua da almeno trent’anni e
produce risultati. Produce nuova conoscenza.
L’origine e
lo sviluppo della ricerca sulla complessità, tuttavia, non sono affatto un fenomeno unico, organico e puntuale,
ma costituiscono un fenomeno variegato distribuito
a macchia di leopardo nello spazio e nel tempo. Come avrebbe dovuto suggerirci
il fatto che ne esistono innumerevoli e talvolta contraddittorie definizioni,
avremmo dovuto attenderci che esistono innumerevoli e talvolta contraddittori
tentativi di ricerca della complessità.
C’è la via tedesca e la via franco-belga, la via americana e la via russa. E ci
sono anche molte stradine italiane, per la verità. C’è, ancora, una via
matematica e una via fisica, una via termodinamica e una via cibernetica, una
via biologica e una via filosofica. Molte di queste strade si incrociano. Altre
corrono, inesorabilmente, parallele.
I cento fiumi della complessità
Ma
torniamo alle difficoltà del nostro progetto minimo. In primo luogo, una
sommaria rivisitazione della storia della scienza ci dice che sia la ricerca
sui sistemi complessi, sia la polemica sull’approccio giusto di ricerca non
sono una novità del momento. Ci sono sempre state, anche se di volta in volta
hanno assunto denominazioni diverse. I tentativi più approfonditi e le
divaricazioni più forti si sono avute, in passato, in campo biologico. Basti
ricordare le polemiche sul vitalismo e sull’olismo che si sviluppano sia nel
secolo scorso che nel ‘900 per contrastare le opposte tendenze fisicaliste,
riduzioniste e meccaniciste. Gli uni a dire che gli organismi viventi hanno
caratteri assolutamente irriducibili. Gli altri a sostenere che, invece, sono
mere macchine: semplice somma di un insieme magari numeroso di semplici
componenti. Le polemiche sono furenti. Altissimo il livello di
incomunicabilità. Ancor negli anni ‘30 del nostro secolo le diverse idee sulla
natura complessa degli organismi viventi determina la separazione di fatto tra
la biologia evolutiva e la biologia funzionale. La prima considera gli
organismi viventi come unità indivisibili, con caratteristiche che emergono e
acquistano senso solo a livello di totalità e non sono deducibili che in parte
dallo studio dalle loro singole componenti. La seconda si dedica, invece, allo
studio analitico, convinta che solo dalla conoscenza puntuale dell’insieme dei
dettagli sarebbe emersa la spiegazione dell’organismo nel suo complesso.
La
sintesi neodarwiniana, maturata negli anni ‘30 e conclusasi negli anni ‘50, ha
certamente portato alla unificazione sostanziale delle due approcci alla biologia.
Ma non ha affatto risolto la dicotomia tra l’approccio olista e l’approccio riduzionista.
Molto prima che fosse riconosciuta l’esistenza di una scienza antiriduzionista
della complessità, Francis Crick,
l’inglese che ha scoperto la doppia elica del Dna, polemizza con il suo
approccio filosofico e sostiene, in una sorta di riproposizione in chiave
biologica del manifesto determinista di Laplace, che: «quando conosceremo in
tutti i loro dettagli tutti i processi chimici che avvengono nella cellula nel
corso dell’intero ciclo cellulare non ci sarà altro da sapere sulla cellula
stessa, e il meccanismo del suo vivere sarà completamente decifrato». E questo
mentre la grande maggioranza dei biologi ama ripetere (si veda ancora Mayr):
«che la vita, come risultato della propria complessità strutturale e
funzionale, non può essere risolta nei suoi costituenti chimici e spiegata
nella sua interezza da leggi fisiche e chimiche che operano a livello
molecolare».
Insomma, la
novità che si riscontra in quella che oggi si chiama scienza della complessità
non risiede tanto nei suoi concetti. Quanto nel tentativo di generalizzarli. E, talvolta, di
matematizzarli. Tanto che oggi lo studio della complessità e la ricerca di
principi comuni in grado di spiegare i comportamenti complessi non riguarda
solo gli organismi viventi. Ma sono stati di volta in volta considerati esempi
di complessità gli automi cellulari, la percolazione, i vetri di spin, il
clima, l’intelligenza (artificiale e naturale), le economie, le società umane,
oltre che, naturalmente, le cellule e tutta la molteplicità della vita.
Il
secondo aspetto che bisogna considerare è che la odierna scienza della
complessità è così variegata al suo interno da renderne pressoché impossibile
una lettura unitaria. All’interno del mondo dei fautori della complessità,
troviamo da un lato chi teorizza a ogni livello un’”evoluzione senza fondamenti”
e una nuova scienza storica, senza leggi generali, per descriverla; e
dall’altro lato chi teorizza la presenza, finora occulta, di una ferrea legge
dell’evoluzione universale che, uguale e opposta al secondo principio della
termodinamica, impone cammini di complessità crescente in ogni luogo e a tutti
i livelli.
Così che in definitiva possiamo dire, non senza sforzo e non senza forzature, che gli studiosi odierni della complessità hanno in comune una generica, e non sempre coerente, filosofia antiriduzionista e antideterminista. E, forse, quattro concetti: autorganizzazione, non equilibrio, non linearità, emergenza, mutuati peraltro da scienze più antiche, come la cibernetica, la termodinamica dei processi irreversibili, il caos deterministico e declinati nel modo più vario. Con questo armamentario generico e generale, i fautori della complessità vanno a caccia di regolarità e principi ordinativi nelle vaste praterie che i sistemi complessi disegnano per l’universo. Talvolta riconoscendosi come cacciatori appartenenti a un’unica squadra. Talaltra semplicemente ignorandosi. Quasi mai affrontandosi in campo aperto.
La ricerca della complessità, iniziata tra gli anni ’70 e gli anni '80 del secolo scorso, si è
sviluppata secondo cento fiumi e spesso mille rivoli diversi, autonomi, a tratti indipendenti. Ciascuno di
questi fiumi e rivoli meriterebbe una trattazione a parte.
Ma chiediamoci in prima battuta se c’è un tratto unificante.
Se c’é la possibilità di una ricerca comune e se c’è la possibilità di una
comune teoria della complessità.
Chi scrive ha qualche dubbio. Pensa dal Big Bang a Wall
Street, ovvero della dinamica dei sistemi fisici elementari alla dinamica dei
sistemi sociali ed economici la sintesi sia impossibile.
Tuttavia si tratta di un evidente pregiudizio metafisico.
Per cui chi scrive ritiene che valga comunque la pena cercarla questa teoria
generale dei sistemi complessi. Magari partendo da una delle prime definizioni di complessità, elaborata dallo
psicologo ed economista Herbert A. Simon nel 1962. Perché è una delle
definizioni più condivise e, se ci è concesso, più condivisibili. Secondo Simon
un sistema complesso è quello in cui «il tutto è maggiore della somma delle
parti, non in senso ultimo, metafisico, ma nell'importante senso pragmatico
che, date le proprietà delle parti e le leggi della loro interazione, non è
semplice dedurre le proprietà del tutto».
La
definizione è incompleta, perchè non fa la minima menzione al fatto, decisivo,
che l’evoluzione della
materia e la crescita locale di complessità, a ogni livello nel marginale mondo
della materia barionica che non si trova nelle condizioni di plasma, seguono
strade molto diverse. Tanto irriducibili a un principio unico da indurre a
parlare non della complessità al singolare, ma delle complessità, al plurale.
Herbert Simon è consapevole di questa incompletezza e, infatti, distingue tra
la complessità dei sistemi fisici non viventi e la complessità degli organismi
viventi, che definisce organizzata.
Malgrado le lacune, le definizioni di Weaver e di Simon costituiscono
due buoni punti di partenza. Bisogna però aggiungere un ulteriore livello di
complessità, quello dei sistemi sociali, costituiti da elementi dotati di una
mente cosciente e (forse) di libero arbitrio.
Dopodiché le domande restano: esistono dei principi
esplicativi non banali comuni a questi tre livelli di complessità? È possibile,
sulla base di questi principi, prevedere l’evoluzione di ciascuno di questi
sistemi? Quanto conta la storia in questa evoluzione? E quanto contano la
mente, la coscienza e il libero arbitrio (se esiste) nell’evoluzione dei
sistemi sociali? Quanto contano la
mente, la coscienza e il libero arbitrio (se esiste) nell’evoluzione dei
sistemi economici?
È quest’ultima la domanda cui tenteranno di dare una risposta i partecipanti all’incontro del 23 aprile sui «processi decisionali e le dinamiche dei sistemi socio-economici», dove un economista (Guido Tabellini), un neuroscienziato (Giacomo Rizzolatti) e un fisico (Giorgio Parisi) cercheranno di districare i rapporti tra comportamenti individuali e comportamenti collettivi nelle decisioni economiche. Cercheranno di districare i rapporti in quel particolare sistema complesso che è l’economia umana.