Salute

Il paradigma della complessità nelle scienze e in medicina


CATEGORIE: Salute

Di fronte alla complessità degli oggetti e dei fenomeni osservabili in natura, sta emergendo nel mondo scientifico la questione se tale complessità possa trovare una cornice interpretativa appropriata, che integri l'approccio riduzionistico prevalente. La novità di tale approccio concettuale e metodologico sta nel fatto che esso prende in considerazione lo studio delle leggi della complessità in quanto tale, non solo gli oggetti complessi nella loro specifica composizione, argomento delle singole discipline specialistiche. E' chiaro che uno dei primi settori in cui il problema è avvertito in modo particolarmente acuto è quello biomedico, perché sono proprio gli organismi viventi e le loro possibili modificazioni patologiche (malattie) a rappresentare il vertice della complessità in natura. Qui si espongono alcuni temi generali di tale problematica, accompagnati da brevi esemplificazioni che si riferiscono sia a fenomeni naturali che a modelli matematici. Maggiori dettagli e più elaborate formalizzazioni matematiche potranno essere trovati nella bibliografia citata in calce ed in un lavoro recentemente pubblicato dagli Autori, dal titolo "Omeostasi, Complessità e Caos. Un’Introduzione" (edito da Franco Angeli, Milano). Nella parte finale di questo scritto si farà cenno anche a due temi correlati al paradigma della complessità, come quelli della libertà e del dolore. Si potrà quindi constatare come l'emergere di tale nuovo paradigma abbia vaste e profonde implicazioni anche sul piano culturale ed epistemologico, interessi cioè il modo con cui l'uomo considera se stesso e si pone di fronte alla realtà.

Limiti del riduzionismo scientifico
Il termine complessità fa parte del vocabolario comune ed è di immediata comprensione, riferendosi a quegli oggetti che ci appaiono costituiti da molte e diverse componenti, oppure a quei fenomeni le cui dinamiche (variazioni nel tempo) sono difficili da comprendere e da prevedere. Dal punto di vista della scienza, lo studio di un oggetto o di un fenomeno complesso viene tradizionalmente affrontato con il metodo riduzionistico, detto anche cartesiano: scomporre l'oggetto o il sistema in sub-componenti più piccole o più semplici ed analizzarle una per volta. Così, ad esempio, lo studio del corpo umano è proceduto dal macroscopico al microscopico, cominciando con il sezionarlo in diversi organi, poi - con lo sviluppo di nuovi strumenti - procedendo dagli organi alle cellule ed infine dalle cellule alle molecole: il paradigma della biologia molecolare è oggi di gran lunga prevalente nel modo con cui si analizzano e si interpretano i fenomeni biologici ed anche le patologie. 
L'approccio riduzionistico, estremamente fecondo di nuove conoscenze, di risultati sperimentali, di tecnologie, non ha "risolto" la complessità, piuttosto l'ha documentata ad ogni livello dell'indagine. Qualche linea di pensiero nei secoli scorsi aveva prefigurato la possibilità per le scienze fisiche, chimiche e biologiche di poter pervenire ad una descrizione esatta della realtà: come sosteneva il matematico francese Laplace nel 1776, se si conosce lo stato di un sistema in un certo istante e le leggi che ne regolano le modificazioni, si sarebbe in grado di prevederne il comportamento futuro: "Se noi immaginassimo un'intelligenza che a un istante dato comprendesse tutte le relazioni fra le entità di questo universo, essa potrebbe conoscere le rispettive posizioni, i moti e le disposizioni generali di tutte quelle entità in qualunque istante del passato e del futuro" (da Essai philosophique sur les Probabilités di Pierre Simon de Laplace). 
Lo stesso sviluppo scientifico ha invece mostrato che quello di Laplace è un sogno irraggiungibile: l'aumento delle conoscenze scientifiche da una parte ha aperto nuovi ed inaspettati orizzonti di studio, dall'altra ha rivelato come esistono proprietà intrinseche ai sistemi fisici che limitano la possibilità di conoscerli completamente e di prevederne il comportamento. Tali limiti invalicabili alla conoscenza del mondo fisico potrebbero essere compendiati essenzialmente nei seguenti: a) il principio di indeterminazione di Heisenberg, per cui ogni miglioramento nella misura della posizione di una particella comporta una perdita di precisione nella determinazione del suo momento e viceversa; la meccanica quantistica dà una visione probabilistica dei fenomeni, a differenza della visione determinista della meccanica classica; b) la teoria dei sistemi dinamici, la cui scoperta centrale è la prevalenza dell'instabilità, ossia del fatto che piccoli cambiamenti delle condizioni iniziali possono determinare grandi amplificazioni degli effetti finali. Quest'ultimo fenomeno è noto come "sensibilità alle condizioni iniziali", che è in pratica la definizione scientifica del caos. 
Già nel 1903 il matematico Poincaré riconosceva questo fatto: "Se pure accadesse che le leggi naturali non avessero più alcun segreto per noi, anche in tal caso potremmo conoscere la situazione iniziale solo approssimativamente. Se questo ci permettesse di prevedere la situazione successiva con la stessa approssimazione, non ci occorrerebbe di più e dovremmo dire che il fenomeno è stato previsto, che è governato da leggi. Ma non sempre è così; può accadere che piccole differenze nelle
condizioni iniziali ne producano di grandissime nei fenomeni finali. Un piccolo errore nelle prime produce un errore enorme nei secondi" (da Science et méthode di Henri Poincaré). 
Qualcuno si è chiesto se può esistere un "programma", come il "software" di un calcolatore, che contenga un pacchetto di leggi fisse sufficienti a governare l'evoluzione cosmica. Si è parlato della "Teoria del tutto", "Theory of Everithing", che potrebbe rappresentare il trionfo della descrizione scientifica di tutta la storia universale. Una tale teoria presuppone però la computabilità, la completezza algoritmica dell'oggetto, la necessità a tutti i livelli delle leggi e degli eventi.
Ma c'è il teorema dell'incompletezza di Gödel. Esso stabilisce che in qualunque sistema di assiomi e regole formali abbastanza complesso vi saranno sempre dichiarazioni matematiche vere che non possono essere dimostrate all'interno del sistema. Quindi, afferma P. Davies, "la ricerca per un'unica teoria del tutto che eliminerebbe ogni contingenza, e dimostrerebbe che il mondo fisico dev'essere necessariamente così com'è, sembra condannata all'insuccesso. Nessun sistema razionale può essere
provato insieme coerente e completo. Sempre rimarrà qualche apertura, qualche elemento di mistero, qualcosa di inspiegato". Gödel ha provato che ogni sistema matematico è incompleto, cioè che vi saranno sempre domande che non trovano risposta in qualsiasi sistema logico; la teoria del caos prova che vi sono questioni fisiche cui non si può dare risposta.
Accertata l'infondatezza della pretesa riduzionistica e "scientistica", resta comunque la necessità di descrivere, capire e, possibilmente, regolare i fenomeni complessi e caotici. La scienza cerca sempre delle regolarità ed in questo campo si potrebbe quindi parlare di una ricerca delle "leggi del disordine", di una ricerca che si muove su quel frastagliato confine che sta fra l'ordine ed il caos.

Ordine e disordine
Una delle caratteristiche fondamentali ed universali dei sistemi complessi è rappresentata dal fatto che in essi si manifestano simultaneamente l'ordine ed il disordine, sia nella forma (o struttura), che nel comportamento (o dinamica nel tempo). Ciascuno ha la percezione immediata di cosa siano l'ordine e il disordine, essi ci si presentano all'esperienza immediata nel mondo circostante ed anche, certamente, dentro di noi. Osserviamo il costante susseguirsi del giorno e della notte, il moto dei pianeti, il regolare moto di un pendolo, le linee rettilinee proiettate verso l'alto di un grattacielo, la simmetria perfetta delle nostre mani o delle ali di una farfalla, e così via. D'altra parte, osserviamo molti altri fenomeni in cui prevale il disordine: basti pensare alle variazioni climatiche, ai terremoti, alle frane in montagna, al pensiero di un paranoico, all'andamento delle quotazioni della moneta sui mercati internazionali.
In realtà, pochi fenomeni sono totalmente ordinati o disordinati: la lunghezza del giorno e della notte varia con le stagioni, un pendolo prima o poi si ferma, persino il moto dei pianeti, se giudicato sul lungo periodo, non è così regolare come Galileo credeva in base alle sue, precise ma non assolutamente esatte, misurazioni. D'altra parte, anche i fenomeni apparentemente disordinati "nascondono" delle regolarità, avvengono secondo delle "regole di comportamento" che in parte sono definibili, almeno in termini di probabilità: un temporale scoppia molto più probabilmente di estate che di inverno, le onde del mare e le onde della sabbia del deserto hanno alcune regolarità, le forme delle nuvole, delle coste, delle montagne, presentano ripetizioni di forme a seconda del determinarsi di condizioni fisiche adeguate. Le perturbazioni dell'economia sono sì imprevedibili, ma alcune regole del mercato sono ben note e si applicano sempre. 
Nel campo della materia, un esempio di strutture molto ordinate sono i cristalli: una o poche specie molecolari, immobilizzate da regole fisse di interazione che lasciano poca libertà di scelta nel disporsi delle configurazioni. Tra i sistemi più disordinati si possono citare i gas ad alta temperatura: miliardi di particelle molecolari in rapido movimento, ciascuna molecola va dove gli urti casuali con le altre e le proprie vibrazioni interne la spingono. In termini tecnici, questo stato si chiama equilibrio termodinamico, ed in esso l'entropia (funzione che definisce la probabilità di un sistema di esistere in un certo modo) raggiunge il suo valore massimo. Chiamiamo questo stato disordine, perché le particelle non "ubbidiscono" a nessun "ordine", non presentano nessuna "organizzazione", nessuna "forma" che permetta di distinguere il sistema da un altro fatto dello stesso materiale, nessuna "coerenza" né nella disposizione, né nel moto. Quando il disordine, compatibilmente alla natura del sistema considerato e alla sua temperatura, ha raggiunto il suo massimo, nessun processo potrà verificarsi tale da poter riportare nel sistema qualche tipo di ordine, se esso è isolato dall'ambiente. 
I sistemi isolati, nei quali non è permesso alcuno scambio con l'ambiente, tendono in maniera irreversibile verso uno stato finale di equilibrio, in cui non vi sono più diversità, asimmetrie, modificazioni. Questo comportamento della materia è espresso dalla seconda legge della termodinamica (dS/dt > 0), per la quale la quale la variazione di entropia dS nel tempo dt è maggiore o uguale a zero, che è come dire che esiste un'inevitabile tendenza al disordine. 
Tra ordine perfetto e disordine totale, esiste un'infinita varietà di forme intermedie, in cui la fissità convive con la variabilità: è il dominio della complessità. Una delle principali caratteristiche dei sistemi viventi, che ne spiega in parte sia l'evoluzione che il permanere in uno stato di organizzazione, è il fatto che sono "sistemi aperti", cioè sono in continuo cambiamento ed interscambio con altri sistemi. 
Si consideri un sistema che presenta due stati A e A' tra loro teoricamente in equilibrio e reversibili. A e A' potrebbero rappresentare una variabile fisiologica o biochimica, oppure il numero di individui in una popolazione, o qualsivoglia altro parametro avente valori oscillanti da un minimo A ad un massimo A'. Il sistema è aperto, nel senso che riceve un input (x) di materia, energia, informazioni dall'ambiente (altri sistemi) e produce un output (x') in uscita, sempre di materia, energia ed informazioni. Lo stato di A e di A' in un determinato tempo sarà condizionato dal "vincolo" costituito dalla variazione di x e x' in quel tempo, oltre che, naturalmente, dai limiti fisici "intrinseci" al sistema stesso. Quindi un simile sistema difficilmente sarà stabile, ma subirà continui cambiamenti.
Nel sistema aperto la seconda legge della termodinamica subisce un correttivo: l'entropia dipende sì dallo stato interno del sistema, ma anche dall'interscambio di energia, informazione e materia con l'esterno. E' proprio grazie a tale interscambio che l'entropia può avere segno negativo: essere più l'entropia che si dissipa di quella che entra nel sistema. 
I sistemi aperti, come i sistemi viventi, scambiano materia energia e informazione. Vi è un flusso in entrata (ad esempio cibo, luce solare, ossigeno) ed un flusso in uscita (scorie, metaboliti, irradiazione termica, anidride carbonica). L'esistenza di questo flusso garantisce che il sistema, almeno per un certo periodo, possa organizzarsi, restare organizzato e sopravvivere. 
La vita si mantiene e si riproduce come un evento termodinamicamente lontano dall'equilibrio, grazie all'interscambio di energia e di materia che il sistema vivente instaura con l'ambiente. La vita è un'isola complessa di parziale ordine che si mantiene per un certo tempo a spese dell'aumento di entropia dell'ambiente.

Caratteristiche tipiche dei sistemi complessi
Abbiamo detto che né i cristalli (sistemi molto ordinati), né i gas (sistemi molto disordinati) si possono definire sistemi complessi; la loro struttura può essere descritta fisicamente e chimicamente in modo abbastanza semplice, cosicché la conoscenza delle leggi che la determina consente di prevederne il comportamento con sufficiente approssimazione. La complessità, invece, origina là dove le componenti di un sistema sono molteplici, diverse tra loro e, soprattutto, là dove tali componenti sono in mutua interazione. Tale interazione produce strutture spazio-temporali, forme e comportamenti caratteristici e nuovi rispetto a quelli prodotti dalle singole componenti. Ad esempio, una proteina è fatta di molti aminoacidi, ma alcune sue proprietà, come potrebbero essere quella enzimatica, o quella tossica, o quella anticorpale, dipendono dall'esistenza di un insieme ben organizzato; nessun aminoacido ha di per sé quelle proprietà, tanto è vero che gli stessi aminoacidi, disposti in diverse sequenze, hanno diverse funzioni. Così un pensiero della mente o una azione del corpo non sono contenuti dentro nessun singolo neurone, ma emergono dal comportamento collettivo di molti di essi.
L'interazione di componenti di un sistema fisico su una scala di osservazione porta ad un comportamento globale complesso su una scala più ampia che in generale non può essere previsto dalla conoscenza delle componenti individuali. Una delle maggiori acquisizioni della teoria dei sistemi dinamici è che tale imprevedibilità non è dovuta alla mancanza di informazioni sul sistema stesso, non può essere colmata dall'acquisizione di nuove informazioni, bensì è una proprietà intrinseca dei sistemi fisici, che si manifesta in modo più o meno evidente a seconda delle condizioni interne o esterne al sistema stesso. 
I sistemi complessi presentano facilmente, anche se non necessariamente, comportamenti caotici. Il caos, termine facilmente utilizzato in modo equivoco, per la scienza non coincide con la casualità; piuttosto, esso sta ad indicare il comportamento di un sistema fisico che appare casuale, ma non lo è, perché soggiace a leggi deterministiche. In altri termini, si potrebbe definire il caos come un comportamento di un sistema dinamico che dipende sensibilmente dalle condizioni iniziali, da meccanismi di amplificazione e di retroazione e da fenomeni di coerenza (moti collettivi).
L'irregolarità e l'imprevedibilità dei fenomeni caotici deriva sia dal fatto che essi sono determinati simultaneamente da molti fattori, sia dal fatto che la loro dinamica dipende in modo sensibilissimo dalle condizioni iniziali. Perciò, dato che le condizioni iniziali di qualsivoglia sistema non possono essere misurate con infinita esattezza, è inevitabile che l'evoluzione di un sistema caotico sia impredicibile.
Gli esseri viventi sono partecipi in sommo grado di questa complessità, proprio perché essi sono composti di moltissime parti, diverse tra loro, che instaurano relazioni basate su contatti diretti e indiretti (mediati da segnali a lunga distanza). Questo tipo di complessità di un sistema biologico, se analizzata in relazione alle sue componenti, è di tipo quantitativo, è detta complessità statica, perché si riferisce a proprietà che non cambiano nel tempo. Da questo punto di vista, la complessità del DNA è superiore a quella della plastica perché contiene più variabili nelle costituenti e nella loro disposizione in sequenze.
Si deve però considerare il fatto che un sistema biologico evolve nello spazio e nel tempo. Persino il codice genetico di un organismo non può dirsi completamente statico ma cambia, almeno in alcune parti, nel corso della vita. Vi è quindi un salto qualitativo nel tipo di complessità, salto qualitativo che è descritto dal termine complessità dinamica. Le reti costituite dalle relazioni tra i molteplici elementi di un sistema biologico sono in continua attività e in continuo rimodellamento, anche perché ogni sistema biologico, si qualsiasi scala lo si consideri (molecolare, cellulare, organica, neuropsicologica, di popolazione, ecc...) è aperto all'esterno, nel senso che instaura rapporti di interscambio di informazione, di materia e di energia con altri sistemi dello stesso grado o di diverso grado di complessità. 
I sistemi che controllano le variabili fisiologiche (peso, altezza, pressione del sangue, concentrazione dei metaboliti, bioritmi, ecc.) sono tipicamente dei sistemi dinamici. La cosiddetta omeostasi è la capacità dei sistemi viventi nel loro insieme o di loro sub-componenti di conservare costanti, o meglio variabili entro determinati limiti, dei parametri biochimici o delle funzioni in
modo che tali parametri e tali funzioni concorrano al buon funzionamento del sistema nel suo insieme. Per garantire la normale omeostasi sono necessari continui aggiustamenti delle velocità con cui avvengono determinate reazioni biochimiche e determinati processi di trasferimento di informazione, per cui i diversi parametri fisiologici sono in continuo "disequilibrio" e vanno soggetti a continue oscillazioni.
Nei sistemi complessi (ed in primis in quelli biologici) l'ordine ed il disordine convivono e "collaborano" al buon funzionamento del sistema stesso: in estrema sintesi, si potrebbe affermare che mentre l'ordine garantisce costanza dei parametri ed interscambio significativo di informazioni, il "disordine" garantisce l'accesso alla novità ed alla diversificazione.
Quell'aspetto della complessità che parrebbe porre un limite alla conoscenza scientifica, cioè la perdita di possibilità di previsione globale, ha un risvolto positivo: la natura può impiegare il caos in modo costruttivo. Attraverso l'amplificazione di piccole fluttuazioni, il caos può fornire ad un sistema naturale diverse possibilità di configurazione e di comportamento, quindi la flessibilità rispetto al mutare dell'ambiente. L'evoluzione biologica chiede variabilità ed il comportamento caotico dei sistemi fornisce una sorta di "strutturazione" a tale variabilità, in modo che essa può essere in qualche modo controllata e posta al servizio dell'evoluzione stessa. In sintesi, le caratteristiche tipiche della complessità sono le seguenti:
a) sensibilità alle condizioni iniziali e presenza di dinamiche non-lineari;
b) caos deterministico;
c) l'insieme ha proprietà superiori alle singole componenti;
d) formazione di reti interne al sistema e comunicazioni con l'esterno.
Alcuni temi-chiave della complessità possono essere affrontati e descritti utilizzando modelli matematici, di cui viene dato un esempio nella sezione successiva.

Ordine e caos in un modello a feed-back
Il modello che qui presentiamo consiste in un algoritmo, cioè in un elenco di istruzioni che specifica le operazioni da svolgere per risolvere un determinato problema: An+1 = An + An k (Amax-An)  dove An+1 è il valore del ciclo successivo n+1 che può essere calcolato in base a quello risultante dal ciclo precedente (An) sommato della crescita dovuta al ciclo stesso, che è uguale ad An moltiplicato per un parametro di crescita k e per un fattore dato dalla differenza tra il massimo consentito (Amax) e An.
I risultati forniti da questo algoritmo al variare del parametro k consentono di illustrare molti degli aspetti fondamentali della teoria del caos e del suo rapporto con l'omeostasi biologica. Un algoritmo simile fu descritto già verso la metà dell'ottocento dal matematico Verhulst per simulare la crescita delle popolazioni nel corso del tempo. 
L'algoritmo riproduce in modo essenziale lo schema di un sistema omeostatico: quest'ultimo, infatti, può essere descritto come un sistema dinamico a controllo retroattivo (feed-back): in esso il risultato ad un certo tempo tn condiziona il funzionamento del sistema al tempo successivo tn+1, e se la variabile considerata supera un massimo stabilito, un segnale porta a ridurre la velocità del cambiamento al tempo successivo. Il valore massimo di A tollerabile (Amax) è dato, nel modello più semplice qui considerato, come una costante.
Ponendo sull'asse delle ascisse il numero delle iterazioni (cicli successivi) e sull'asse delle ordinate il valore di A, si ottengono le soluzioni illustrate nella figura 2. Ponendo il valore di Ainiziale = 1.0 ed un parametro k di un determinato valore (ad esempio 0.1), si osserva che la funzione genera una sequenza di punti che, partendo da 1 raggiunge gradualmente il massimo (posto uguale a 5) rimanendo quindi stabile (Fig. 2A). Anche modificando di molto la partenza, (Ainiziale = 2), la funzione si auto-regola e tende comunque a raggiungere il valore stabilito come massimo. 
Aumentando il valore di k (circa 0.4), si osserva che la funzione va crescendo rapidamente verso il massimo, poi supera il valore di Amax, poi iterazioni successive portano a valori oscillanti in più ed in meno rispetto ad Amax (figura 2C). Le oscillazioni si generano perché se il parametro k è sufficientemente alto, il risultato della funzione fa sì che An possa superare il valore di 5 (Amax), quindi nell'iterazione successiva il valore (Amax-An) risulti negativo e di conseguenza An+1 risulti inferiore ad An. Pur in presenza di oscillazioni, la funzione è comunque stabile, anche modificando di molto le condizioni iniziali (figura 2D).
Aumentando ancora k, l'ampiezza delle oscillazioni aumenta rispetto al caso precedente. Superando un altro valore critico di k (approssimativamente 0.49), iniziano a manifestarsi suddivisioni tra periodi di maggiore ampiezza e periodi di minore ampiezza, finché, sopra il valore di 0.53 compare il caos nella sequenza dei picchi con ampiezze diverse: non si hanno più cicli ripetuti di oscillazioni periodiche, non si può ritrovare nessun ordine e nessuna predicibilità. 
Il grafico in figura 2E, ottenuto con un coefficiente k di 0.58, mostra che i punti corrispondenti al valore di A possono comparire in tutte le posizioni che vanno approssimativamente da 0 a 7. Tale fascia di posizioni nello spazio in cui si collocano i vari punti nei cicli susseguentisi si chiama, in termine tecnico, attrattore. Esistono vari tipi di attrattori: 
a) L'attrattore puntiforme, in cui il sistema si situa in un solo stato e vi rimane (Fig. 2A e 2B). Esempio fisico: un peso lasciato cadere da una certa altezza dopo alcuni rimbalzi si ferma e così rimane.
b) L'attrattore periodico, descrive un sistema che passa attraverso cicli o sequenze ripetitive (Fig. 2C e 2D). Esempio fisico: l'orbita di un pianeta attorno al sole.
c) L'attrattore strano, rappresentato da una regione nello spazio che descrive traiettorie che variano ad ogni ciclo (Fig. 2E e 2F). Esempio fisico: un pendolo doppio, in cui un secondo pendolo sia applicato al termine del braccio del primo pendolo. Le oscillazioni del secondo pendolo influiscono su quelle del primo, rendendo il sistema caotico. 
Tornando al grafico della figura 2, si vede che nelle condizioni di regime caotico, il risultato diventa molto sensibile alle variazioni delle condizioni iniziali: ad esempio, si vede che modificando anche di solo 1/100 la Ainiziale (da 1.00 a 1.01), l'evoluzione del tracciato della figura 2F cambia drasticamente rispetto all'evoluzione ottenuta in Fig. 2E: dopo alcune iterazioni i due tracciati non hanno alcun punto in comune. Una piccola variazione si amplifica rapidamente a tal punto che dopo alcune iterazioni si perde completamente la periodicità precedente. Ciononostante, una somiglianza fondamentale tra i due percorsi deve essere sottolineata: i valori rimangono "confinati" entro due estremi, un massimo ed un minimo in alto ed in basso. Quest'area potrebbe essere considerata il bacino d'attrazione della funzione descritta (fissati i parametri k e Amax).
Quanto più un sistema omeostatico è complesso, tanto più è complesso il suo controllo, che può essere effettuato da molti elementi disposti in sequenze ed in reti. Tali reti dinamiche (networks) connettono diversi elementi e gestiscono l'informazione con meccanismi di amplificazione o di inibizione multipli ed incrociati. Nell'organismo umano, esempi di tali reti sono quelle neurali, quelle del sistema immunitario, delle citochine (proteine con funzioni di segnale che si scambiano varie cellule), dei sistemi che controllano i recettori cellulari e la trasmissione del segnale dai recettori al nucleo, ecc. I sistemi a rete sono presenti a tutti i livelli, compreso quello che considera i fenomeni sociali e culturali. Inoltre, i vari livelli sono a loro volta collegati, in quanto un livello inferiore (ad esempio reti molecolari o cellulari) influenza il superiore (ad esempio il pensiero, o le
relazioni interumane) e viceversa.
Quando una rete è ben funzionante, ben "connessa" al suo interno, il comportamento dell'insieme regola il funzionamento delle singole variabili, ciascuna delle quali dà il suo contributo, direttamente od indirettamente, alla regolazione delle altre.
Per cercare di costruire modelli di tali complessi sistemi, è stato proposto il metodo delle reti Booleane (dal matematico G. Boole). Le reti booleane sono dei sistemi di variabili binarie, ciascuna con due possibili stati di attività (ON e OFF), accoppiate vicendevolmente in modo che l'attività di ciascun elemento è regolata dalla precedente o concomitante attività di altri elementi.
L'elaborazione al calcolatore di sistemi booleani con molti elementi mostra che il sistema passa da uno stato ad un altro in modo deterministico e quindi, poiché le combinazioni possibili sono molte, ma finite, per quanto complessa sia la rete, essa finirà prima o poi per ritrovarsi in uno stato già precedentemente formato, riprendendo quindi il ciclo di trasformazioni. I cicli di stati che le reti booleane percorrono nel tempo (attrattori dinamici) mostrano che ogni rete lasciata a sé stessa finisce prima o poi in uno di questi attrattori e vi rimane. 
Le reti con molti elementi possono essere più o meno ordinate. Variando opportunamente il numero degli elementi ed il numero delle loro connessioni si possono trovare empiricamente dei momenti di transizione tra ordine e disordine. Oltre alle reti booleane, esistono molti altri modi per rappresentare le reti e simularne, con l'ausilio del calcolatore, il comportamento.

Possibili applicazioni
Si potrebbe legittimamente chiedersi se questi o simili modelli non siano dei giochetti matematici, interessanti ma che non dicono nulla sul mondo reale. Ciò è parzialmente vero e si deve constatare che le ricadute pratiche della teoria del caos nelle varie discipline sono ancora molto scarse. E' chiaro che nessun modello matematico può descrivere esattamente la complessità del mondo naturale e che solo la verifica sperimentale può aumentare in modo attendibile le conoscenze. Non è però vero che i modelli descritti siano solo delle semplici astrazioni, in quanto comportamenti caotici di sistemi fisici reali sono stati descritti e documentati in modo inequivocabile, proprio facendo riferimento ai modelli matematici.
Ad esempio, recentemente è stata fornita un'elegante descrizione di un sistema caotico, rappresentato dalle oscillazioni di un'asta flessibile accoppiata ad un magnete che genera impulsi alle frequenze desiderate, che può essere regolato variando di poco le frequenze degli impulsi erogati dal magnete (Shinbrot e coll. 1993).
I modelli matematici delle reti booleane sono stati sviluppati progettando delle reti che simulino il genoma umano, ponendo ad esempio il numero N = 100.000 (cioè il numero dei geni) ed il coefficiente K = 10 (cioè il numero di ingressi, di controlli, che ogni gene subisce). Utilizzando simili metodi, è stato possibile calcolare approssimativamente quanto lungo dovrebbe essere il ciclo di una cellula, per passare attraverso tutti gli schemi di espressione dei suoi geni (cioè, in termini matematici, percorrere tutto l'attrattore per tornare al punto di partenza). I risultati ottenuti (tra 370 e 3700 minuti) approssimano i dati delle osservazioni sperimentali del ciclo mitotico (Kauffman 1991). 
Una buona parte delle applicazioni pratiche della teoria del caos sono state avanzate in cardiologia. E' stato scoperto che la frequenza cardiaca di un individuo sano varia nel tempo con periodicità intrinsecamente caotica: il battito cardiaco normale non è perfettamente regolare nei soggetti sani, ma presenta ampie variazioni che mostrano dinamiche caotiche, mentre soggetti con scompenso cardiaco congestizio hanno minore variabilità nella frequenza cardiaca. La variabilità nel ritmo diminuisce in corso di grave malattia coronarica, uso di digossina o cocaina ed anche semplicemente nell'invecchiamento. La morte cardiaca improvvisa è preceduta talvolta da periodi in cui si è evidenziata la scomparsa del caos normale e l'insorgere di una periodicità più regolare ma, proprio per questo, patologica. 
In psichiatria, si potrebbe considerare come esempio di perdita di caoticità l'insorgere di idee fisse o di ossessioni: mentre la psiche normale segue un attrattore "strano", ricco di variabilità pur con delle caratteristiche di stabilità, nell'ossessivo emergono comportamenti stereotipati, ripetitivi o fissi, difficili da modificare e curare. Anche la patologia psichica spesso origina e trova consolidamento dalla perdita di capacità di comunicare con i propri simili (perdita di complessità e di flessibilità). Varie malattie del sistema immunitario vengono oggi interpretate come un difetti di funzionamento del network immunitario. E' stato riportato che gli schemi di fluttuazione degli anticorpi naturali sono alterati nell'uomo e nel topo affetti da malattie autoimmunitarie: le fluttuazioni sono o totalmente ritmiche, o totalmente casuali (random), mentre nel normale le fluttuazioni hanno schemi caotici ma non totalmente casuali (cioè una situazione intermedia tra i due estremi). 
Un'applicazione dei modelli del caos riguarda anche l'epidemiolologia delle malattie infettive: l'insorgenza e la ricorrenza di epidemie, che come è ben noto hanno un andamento ciclico ma irregolare, ha dinamiche che sono state analizzate con la matematica del caos. Ad esempio, pare che le epidemie di varicella presentino una variabilità in cui si possono comunque evidenziare andamenti temporali ciclici con periodo di un anno, mentre le epidemie di rosolia mostrano un andamento tipicamente caotico, cioè più irregolare e più sensibile all'influenza di piccoli fattori climatici o ambientali.
In generale, si può pensare che l'introduzione di un "modo di pensare" che tiene conto della complessità e cerca di razionalizzarne il ruolo nei fenomeni tipici del vivente debba portare un beneficio all'esercizio della medicina "al letto del paziente". Infatti, uno dei rischi dell'alta tecnologizzazione e della specializzazione della professione medica è proprio la perdita della capacità di affrontare i problemi del paziente in modo unitario e complesso, tenendo conto delle molteplici variabili in gioco e delle loro interazioni. Se l'alta specializzazione è utile e determinante in alcuni casi (soprattutto in chirurgia), non è sufficiente in molte altre situazioni, quando lo squilibrio che ha portato il paziente ad ammalarsi è fatto da molte piccole e diverse cause concomitanti, che derivano dallo stile di vita, dall'alimentazione, dall'atteggiamento psicologico, dall'esposizione ad inquinanti ambientali, dall'età, ecc... In questi casi, che rappresentano la maggior parte delle patologie correnti, per raggiungere la massima efficacia l'approccio "scientifico" convenzionale deve affiancarsi all'approccio "olistico" e sistemico. La "scienza della complessità" si appresta a fornire supporto teorico e sperimentale adeguato a questo importante obbiettivo della
medicina. 

Incompletezza e libertà
Se la materia di cui è costituito il nostro organismo e in particolare il cervello obbedisse totalmente al determinismo causale come lo pensava Laplace, ogni evento neurale avrebbe una causa fisica proporzionata, a sua volta connessa ad altre cause analoghe precedenti, per cui difficilmente potrebbero ipotizzarsi eventi neurali (con correlati comportamentali) non determinati dalla catena della cause fisiche. Ogni vera libertà sarebbe esclusa. Ma si è detto che i sistemi naturali lontano dall'equilibrio presentano comportamenti dinamici "complessi", al limite tra ordine e caos. Questa classe di comportamenti dinamici è stata rappresentata per analogia come una transizione di fase tra le due classi fondamentali, fase "solida" (ordine, computabilità) e fase "fluida" (caos, incomputabilità), dei comportamenti dinamici in generale. E' intuitivo che in tale condizione-limite un sistema è dotato di un certo grado di ordine ma insieme ne è svincolato e possiede una certa creatività e libertà. L'importanza del caos nelle funzioni cerebrali è tale che alcuni autori si sono spinti a considerare questo fenomeno la base per la creatività intellettuale o addirittura il corrispondente fisiologico dell'esistenza di un libero volere (Crutchfield e coll. 1986; Freeman 1991).
Che il cervello degli organismi superiori rappresenti un esempio di estrema complessità strutturale e dinamica è fuori dubbio. L'assemblaggio di un sistema nervoso può richiedere miliardi di precise connessioni tra cellule nervose ma anche tra queste e cellule muscolari e di altri tessuti. Il cervello umano contiene oltre 1011 neuroni, molti dei quali hanno migliaia di connessioni con altri neuroni.
Ma non si tratta solo di un problema quantitativo: anche se l'organizzazione dei neuroni sembra essere così strettamente simile in tutte le aree neocorticali, esse compiono tuttavia molte funzioni completamente differenti. Questo è in parte spiegato dal fatto che le sinapsi si formano con una specificità capace di discriminare tra milioni di neuroni. A questa precisa discriminazione dei collegamenti neuronici contribuiscono le neurexine, proteine superficiali delle terminazioni nervose di cui esistono oltre mille isoforme includenti recettori capaci di operare il riconoscimento tra cellule.
Le oscillazioni della scariche della corteccia cerebrale sono probabilmente molto importanti per garantire il coordinamento di diversi gruppi di cellule e di centri nervosi. Tecniche di analisi non-lineare possono essere applicate all'elettroencefalogramma per costruire modelli di funzionamento della corteccia cerebrale. In questi modelli, i vari stati comportamentali (sonno, veglia, attenzione, ecc.) sono visti come un'attività corticale caotica nello spazio e nel tempo, soggetta però ad un controllo che ne aumenta la coerenza per collegamenti provenienti dal talamo od altre aree (ad esempio la corteccia visiva riceve informazioni dalle vie ottiche). E' stato sostenuto che le dinamiche caotiche possono fornire la possibilità di codificare un infinito numero di orbite periodiche instabili.
Si tratta quindi di un sistema incredibilmente complesso, nel quale l'approccio microscopico, attraverso lo studio delle proprietà di singoli neuroni, non permette di comprendere i fenomeni della percezione se non è accompagnato da osservazioni sull'attività globale e cooperativa, dipendente dal simultaneo coinvolgimento di milioni di unità. E qui è risultato evidente il comportamento tipicamente caotico, cioè la tendenza di vasti insiemi di neuroni a transizioni improvvise e simultanee, da un certo grado di attività complessa ad un altro, in risposta a stimoli anche molto piccoli. La rappresentazione nello "spazio delle fasi" di elettroencefalogrammi generati da modelli computerizzati, che riflettono l'attività complessiva del sistema olfattivo a riposo o durante percezioni, rivela che in entrambi i casi l'attività cerebrale è caotica, con una transizione ad immagini più ordinate, più approssimate a moti periodici, durante la percezione.
L'attività caotica dei neuroni cerebrali sembra derivare dalla mutua eccitazione di due o più aree, in assenza di una comune frequenza di oscillazione. Ne risulta una notevole sensibilità e instabilità del sistema, e la capacità di creare nuovi quadri d'attività in rapporto all'apprendimento. I sistemi caotici possono agire entro ampi spettri di condizioni per la loro flessibilità, e quindi i vantaggi funzionali di tali dinamiche sono importanti, non soltanto per il sistema nervoso ma anche per altri sistemi,
come le pulsazioni cardiache, che sono sotto il controllo del sistema nervoso.
A livello mentale - si suggerisce - il caos come amplificazione di fluttuazioni potrebbe essere il motore della creatività e come generatore di imprevedibilità potrebbe essere garanzia di libero arbitrio, pur in un mondo governato da leggi esatte.
"L'emergenza di stati mentali - sostiene K.Mainzer - è spiegata dall'evoluzione di parametri d'ordine (macroscopici) di insiemi di unità cerebrali che vengono causati da interazioni non-lineari (microscopiche) di cellule nervose in strategie di apprendimento lontano dall'equilibrio termico". La capacità del cervello di rispondere in modo flessibile alle sollecitazioni del mondo esterno e di generare nuovi tipi di attività, compreso il concepire idee nuove, è connessa alla tendenza di ampi gruppi di neuroni a passare bruscamente e simultaneamente da un quadro complesso di attività ad un altro in risposta al più piccolo degli stimoli. Questa capacità è una caratteristica primaria di molti sistemi caotici.
Secondo la scienza classica deterministica dei tempi di Laplace, ogni evento naturale dovrebbe avere la sua specifica causa dello stesso ordine di grandezza. Ciò significa che cause di entità relativamente trascurabile non potrebbero generare eventi notevoli. Ma recentemente sono state fornite molte dimostrazioni del fatto che sistemi caotici di vario tipo possono essere influenzati e addirittura "regolati" da minime perturbazioni dei parametri di controllo del sistema.
Quando si tratta di oscillazioni di variabili biologiche (oscillazioni molecolari accoppiate ad oscillazioni di un campo elettromagnetico) è notevole che campi elettromagnetici, di diversi ordini di grandezza più deboli del gradiente di potenziale trans-membrana, possono modulare azioni di ormoni, anticorpi e neurotrasmettitori a livello di recettori e di sistemi di trasduzione e che anche l'attività proliferativa cellulare è influenzata da campi elettromagnetici, anche di intensità molto debole (0.2-20 mT, 0.02-1.0 mV/cm). Molte di queste interazioni sono dipendenti dalla frequenza più che dall'intensità del campo, cioè compaiono solo in determinate "finestre" di frequenza, fatto che suggerisce l'esistenza di sistemi di regolazione non-lineari e lontani dall'equilibrio.
In conclusione si può fare l'ipotesi che eventi mentali attraverso piccole perturbazioni potrebbero interferire per es. sulla frequenza del campo elettromagnetico che può modulare azioni di neurotrasmettitori, e infine modificare dinamiche del sistema, attrattori e campi delle forme. Questa ipotesi non fa che estendere la prospettiva di azione degli eventi mentali quale ipotizzata già da altri che l'hanno paragonata a quella dei campi di probabilità della meccanica quantistica su eventi probabilistici sinaptici. L'influenza mentale sugli eventi sinaptici potrebbe infatti esponenzialmente amplificarsi attraverso la nota, estrema sensibilità delle dinamiche caotiche alle piccole perturbazioni. La presenza di caos deterministico è stata dimostrata su semplici sistemi neuronali "in vitro", e così pure la possibilità di controllare i sistemi caotici, cioè di rendere il loro
comportamento regolare o periodico; o viceversa di "anticontrollare" comportamenti periodici inducendo il caos.

Libertà e dolore
Libertà e dolore sono strettamente correlati. E' a tutti evidente che tanta parte della sofferenza umana viene dalla libera scelta degli uomini, dal cattivo uso della libertà. Questa sofferenza così provocata pone certamente dei problemi interpretativi, ma in qualche modo è spiegabile perché la sua causa sta nell'esistenza di esseri liberi, come tali capaci di scegliere fra diversi possibili
comportamenti. Se non si vuole annullare la libertà, si deve accettare che esista questo male, anche nell'estensione e nell'intensità che rappresenta uno scandalo come Auschwitz.
Ma vi è anche un'altra sorta di male, che non è così direttamente imputabile alla cattiveria umana, e che tuttavia provoca tanta ingiusta sofferenza, scandalo dunque ancora maggiore perché sembra implicare una cattiveria radicale della natura: chi ha visto gli occhi scavati e smarriti di un bambino leucemico ne ha riportato un'impressione, come quella che si può avere di fronte al dolore e alla morte prodotti dalle diverse calamità naturali.
Tradizionali interpretazioni del dolore e della morte hanno attribuito in definitiva anche questo tipo di male all'uso (e all'abuso: "peccato originale") della libertà da parte dell'uomo. Noi qui non affrontiamo questo tema, di competenza metafisica, ma vogliamo esporre alcune considerazioni sul rapporto tra complessità, libertà e dolore.
Se la materia di cui è costituito il nostro universo e in particolare il nostro organismo obbedisse totalmente al determinismo causale come lo pensava Laplace, difficilmente potrebbero accadere eventi quali quelli che noi definiamo imprevedibili sciagure, calamità, errori accidentali che comportano malattia, e dunque la presenza di dolore. Ciò vale infatti sia per quanto riguarda in
generale l'ambiente (la biosfera), sia per quanto si riferisce alla relativa instabilità dell'ordine biologico.
In questa sede pensiamo sia significativo un esempio concreto, ormai classico e del resto ampiamente conosciuto, che riguarda l'imprevedibilità meteorologica. E' dimostrabile (Ruelle, 1992) che violentissime alterazioni della stabilità atmosferica e, per es., una catastrofe aerea, possono essere provocate da una perturbazione tanto piccola quanto quella conseguente alla sospensione per un istante dell'attrazione gravitazionale esercitata sulle molecole dell'aria da un solo elettrone situato al limite dell'universo.
Si produrrà infatti un'infima deviazione delle traiettorie delle molecole dell'aria e ci si può chiedere dopo quante collisioni una molecola eviterà l'incontro con un'altra che avrebbe incontrato se non fosse stato sospeso l'effetto gravitazionale dell'elettrone lontano. Nel corso delle collisioni, la infima differenza iniziale si amplifica in modo esponenziale, per un fattore l/r (l = distanza percorsa; r = raggio delle molecole), e dopo n collisioni la traiettoria non ha più nulla a che vedere con quella che avrebbe seguito la particella non perturbata. Se la massa dell'elettrone è distante 1010 anni luce e le molecole in questione hanno le caratteristiche dell'ossigeno a pressione e temperatura normale, si è calcolato che n = 56; questo numero di collisioni si realizza in una frazione di secondo. Se c'è la normale turbolenza di un po' di vento, i particolari della turbolenza a piccola scala non saranno più esattamente gli stessi. Il mutamento dopo un certo tempo produrrà un cambiamento nella struttura della turbolenza a grande scala, che in termini di ore o giorni arriva alla scala di qualche chilometro e in una o due settimane si estende su scala planetaria. Un uragano violentissimo può scatenarsi in un punto nel quale vi sarebbe stato il sereno.
Questo esempio dimostra come nei sistemi complessi in generale, fisici o biologici, le condizioni che permettono il gioco delle dinamiche caotiche implicano l'estrema sensibilità alle piccoli perturbazioni. L'impredicibilità su larga scala è stata dimostrata per molti sistemi nei quali dinamiche caotiche amplificano piccole fluttuazioni fino a espressioni macroscopiche, risultando che attrattori "strani" rimuovono l'informazione iniziale rimpiazzandola con nuova informazione, per cui non vi è più alcuna connessione causale tra passato e futuro. Oggi i fisici parlano di "principio antropico" per interpretare l'universo. Secondo tale principio, perché fosse possibile la presenza di osservatori, quali noi siamo, questo universo doveva proprio essere per tanti aspetti così com'è: dovevano esserci pianeti termostatati, stelle capaci di radiazioni energetiche costanti per miliardi di anni, ecc. Spostando un poco il punto di vista, un'applicazione del principio antropico potrebbe essere la seguente: se gli osservatori, quali noi siamo, dovevano essere dei soggetti dotati di libertà, allora era necessario che la stoffa dell'universo non fosse strettamente condizionata da leggi deterministiche, risultando rigida come l'inferriata di una prigione; viceversa essa avrebbe dovuto garantire un certo ambito di aleatorietà dei processi, di non determinazione, uno spazio e un modo perché l'influenza della volontà libera potesse esplicarsi, perché gli eventi mentali potessero causare eventi neurali.
Ma una materia non completamente determinata nella successione degli eventi possibili, se può servire a supporto di soggetti con libertà d'azione, è però un orologio che può sbagliare il tempo, è un congegno passibile di errore, ed errore in biologia vuol dire spesso dolore. L'estensione del principio antropico ci consente dunque di dire: perché fosse possibile la presenza di osservatori liberi, quali noi siamo, questo universo doveva essere così com'è, doveva essere luogo di dolore.
Ogni sorta di male ha dunque una relazione causale con la libertà, o perché può essere provocato dalla libera volontà defettibile: il male di Caino; o perché la stessa esistenza della libertà, di soggetti liberi, in questo universo è permessa soltanto da quella incompletezza della algoritmicità dalla quale sono permesse anche le catastrofi, e che viene descritta oggi dalle teorie del caos. Le leggi che governano la natura non sono rigidamente deterministiche, ma lasciano ampi spazi all'indeterminazione, all'imprevedibilità, quindi all'incomprensibile sciagura. Solo una stoffa materiale di questo tipo può d'altra parte permettere l'esistenza di soggetti capaci di esercitare la libertà in questo universo.
Infine, ci si può chiedere se esiste una positività diretta del dolore, cioè se esso serve a qualcosa di per sé. In altre parole: al di là della sua inscindibile relazione con l'esistenza della libertà nell'universo, esiste una positività nel dolore? Esistono varie risposte a questa domanda, a seconda dei punti di vista.
Un certo approccio al senso del dolore ci viene fornito dalla medicina scientifica. Considerando la fisiopatologia degli organi e dei sistemi degli esseri viventi, si vede chiaramente che il dolore fisico è sempre associato a una situazione di disordine, localizzato o generalizzato, dell'omeostasi cellulare o tissutale. Esso rappresenta insieme sia un sintomo della malattia, cioè un campanello di allarme che, avvertito a livello centrale, induce a un comportamento protettivo, sia un meccanismo che di per sé mette in moto la risposta reattiva e riparativa a livello periferico. Gli stessi mediatori (istamina, serotonina, prostaglandine, neuropeptidi, ecc...) che causano dolore in quanto irritano le terminazioni sensitive dei nervi innescano la vasodilatazione che richiama sangue nell'area colpita e potenziano la funzione delle cellule delle difese biologiche (ad esempio i globuli bianchi). Quindi, da un punto di vista biologico e biomedico, se non esistesse il dolore l'organismo non sarebbe in grado, per mancanza di segnali e di meccanismi, di compensare e di rimediare alla lesione. Il dolore di una ferita richiama l'attenzione sulla causa che l'ha provocata, ad esempio una spina o una scheggia, inducendo a rimuoverla; il dolore di un'ischemia (rallentato flusso di sangue in un certo distretto) può salvare dall'infarto o dalla gangrena, inducendo al riposo; il dolore di un'infezione dentale può salvare dalla setticemia (diffusione dei batteri nel sangue e quindi in tutto l'organismo), promuovendo l'infiammazione e quindi la difesa anti-batterica. Il dolore quindi, da questo punto di vista, si presenta come un'esperienza che favorisce un rimodellamento di una serie di funzioni e di reazioni in modo più adatto alla sopravvivenza dell'organismo nel suo insieme.
Questo approccio alla problematica del dolore, soprattutto quello fisico, ne dà sicuramente una visione per certi aspetti positiva, che induce il medico (ed il paziente) a vedere il dolore non solo come un nemico da combattere ma come un momento, necessario, di passaggio verso uno stato di salute riconquistato. Tuttavia, tale discorso ha un preciso limite allorché si considera l'esistenza di mali incurabili e di dolori assolutamente sproporzionati alla causa scatenante. Inoltre, l'uomo prova
anche il dolore psicologico, morale e spirituale (il dolore per la perdita di qualcuno o qualcosa di caro, compresa la stessa vita, il dolore della coscienza del male in sé e nel mondo) e questo è il dolore più tipicamente umano. Per questo tipo di dolore una spiegazione fisiopatologica è chiaramente insufficiente e si deve necessariamente ritornare a qualche considerazione di altro
genere.
Nella prospettiva sopra delineata, che consente di vedere in qualche modo un ruolo positivo del dolore si può cogliere un positivo non nel dolore in quanto tale, ma solo in relazione a qualcosa d'altro e precisamente in relazione alle prospettive di guarigione dell’organismo nel suo insieme e la sua salute. Può questo concetto essere applicato anche al dolore apparentemente privo di finalismo fisiologico? Forse si, se ammettiamo che la "legge della complessità" valga anche per la vita psichica e la vita spirituale. In questo campo l'uomo ha dato molte risposte al problema del dolore, che è stato trattato da filosofi, poeti, mistici e ha costituito un punto forte di tutte le religioni.
In generale, è chiaro che il dolore non è totalmente negativo solo se chi lo prova riesce a trovarvi un senso. Ma è possibile un approccio razionale ed è possibile qualche generalizzazione, al di là delle esperienze soggettive dei singoli, che sono ciascuna unica e in un certo senso forse anche non comunicabili? Secondo la prospettiva della complessità, tale senso non può che risiedere nell'apertura del sistema-uomo a qualcosa d'altro o a qualcun altro-da-sé, apertura che faccia sperimentare un ri-assestamento del proprio io (interno) verso uno stato di maggiore armonia e di maggiore consapevolezza. In precedenza si è illustrato il concetto di sistema vivente come sistema aperto e dissipativo, nel senso che mantiene il proprio ordine interno per il continuo flusso di energia, materia e informazione che lo attraversa e per la continua dispersione di entropia nell'ambiente. L'"apertura" del sistema vivente, che si mantiene in uno stato di continuo disequilibrio e di continua cooperazione di molti sotto-sistemi, fa si che esso sia in grado di disperdere l'entropia che altrimenti - se fosse chiuso - lo porterebbe inevitabilmente, secondo le leggi della fisica, all'equilibrio termodinamico e alla dissoluzione. Quindi apertura, comunicazione,  instaurazione di legami, dissipazione dell'entropia di un sistema caotico equivalgono a vita ed evoluzione.
L'uomo è un sistema complesso, che potrebbe essere rappresentato come un insieme organizzato di molti piani sovrapposti, o di sfere concentriche: un livello fisico-molecolare, un livello cellulare-organico, un livello psichico-mentale, un livello spirituale e "ontologico". L'"apertura" del sistema-uomo in quanto uomo non può che essere in primo luogo verso l'altro uomo, la società degli uomini e il proprio padre-creatore (una volta ammessane l'esistenza). Se il dolore è funzionale a questo, possiamo prenderlo in considerazione come occasione di crescita dell'uomo in quanto uomo. Così come, all'opposto, se il piacere non è funzionale a questo sviluppo, può rivelarsi ultimamente anti-umano, perversione. Allora il dolore, che potrebbe non avere un senso su un determinato piano (ad esempio, sul piano cellulare e organico perché incurabile e "non-curante"), potrebbe assumere un senso se visto in un contesto diverso, che tiene conto dei rapporti dell'uomo - in quanto uomo - con i propri simili o con il creatore. Si entra qui in un campo in cui la scienza sa e dice poco, forse nulla, perché il dolore appare come un grande mistero, inscindibilmente legato al mistero dell'uomo. Tuttavia, il "modo di pensare" secondo il paradigma della complessità ci induce a sostenere che analogie esistano tra i diversi piani della realtà, dal microcosmo al macrocosmo, che le leggi della complessità siano applicabili alle molecole, alle cellule come alla vita psichica e relazionale. Perciò una prospettiva di apertura
all'altro-da-sé e quindi al trascendente non solo non è irrazionale ma è profondamente funzionale alla natura stessa dell'uomo e della sua evoluzione.
A questo proposito, ci pare interessante proporre a conclusione qualche pagina di alcuni pensatori che hanno colto questo punto (ovviamente non possiamo essere completi nello spazio qui disponibile).
E. Mounier, un filosofo che ha molto riflettuto sul mistero del dolore, provato acutamente per la lunga e incurabile malattia della figlioletta Françoise, scrive: "Non voglio coprire in maniera puerile la sofferenza. No, la sola autentica sventura è soffrire separatamente, come volgendoci le spalle, quando non si avverte più nel male comune quella fraternità crudele, quell'intimità sofferta che ha la capacità di togliergli la spina profonda. Qualunque sia la sfumatura della sofferenza in me o in te, noi ci siamo alimentati ad una verità più grande delle sfumature. Eterna, cioè presente, fedele, questa mattina come questa sera, anche se non le siamo fedeli, anche se non potessimo esserle fedeli in qualche parte di noi stessi, per distrazione, per imbecillità, per ebbrezza, o per sonnolenza.... Tutto ciò che appartiene all'ordine spirituale progredisce attraverso le morti e le successive resurrezioni, e non c'è più nulla che conti quando manca al cuore questo assoluto dell'amore" (a Paulette Mounier, Pasqua 1943).
V.E. Frankl: "Per poter intendere il dolore devo trascenderlo. In altre parole, io posso intendere il dolore, posso soffrire in modo significativo solo se soffro per amore di qualcosa o di qualcuno. Cosicché il dolore, se deve essere pieno di significato, non può essere fine a se stesso". Ed infine L. Pareyson: "L'eccesso di male crea un credito difficilissimo da saldare. Impossibile un pareggio affidato ai soli peccatori: la situazione rimane smisuratamente deficitaria. Un profondo sgomento suscita la necessità di ricorrere alla sofferenza degli innocenti, che a sua volta si rivela insufficiente. Un ricorso ulteriore s'impone, ancora più orribile e raccapricciante: quello alla sofferenza di Dio. Solo l'incommensurabilità divina rende possibile il pareggio"... "Il male e il dolore, che sono quanto c'è di più incomprensibile e inaccettabile nella realtà, stanno addirittura al centro dell'universo e abitano nel cuore della realtà".

BIBLIOGRAFIA
F.T. ARECCHI, I. ARECCHI, I simboli e la realtà, Jaca Book, Milano 1990. - U. BARTOCCI, Le origini dell'ordine. Su un libro di S.A. Kauffman, in "Biology Forum" 87, 1994, pp. 387-394. - P. BELLAVITE, G.C. ANDRIGHETTO, M. ZATTI, Omeostasi, complessità e caos. Un'introduzione. Franco Angeli, Milano 1995. - E. Bertola, U. Curi (a cura di), The Anthropic Principle. Cambridge Univ. Press, Cambridge 1993. - G. CASATI (a cura di), Il Caos. Le leggi del disordine. Le Scienze S.p.a., Milano 1991. - F. Cramer, Chaos and Order. The Complex Structure of Living Systems. VCH Verlagsgesellschaft, Weinheim (Ger.) 1993. - J.P. CRutchfield, J.D. Farmer, N.H. Packard, R.S. Shaw, Chaos. Scientific American 55, 1986, pp. 38-49. - P. Davies, The Mind of God. Simon & Schuster, London 1992. - A. DE GIOVANNI, Il dolore. La Scuola, Brescia 1988. - W.L. Ditto, L.M. Pecora, Padroneggiare il caos. Le Scienze 302, 1993, pp. 58-64. - J.C. Eccles, Do mental events cause neural events analogously to the probability fields of quantum mechanics? Proc. R. Soc. Lond. B 227, 1986, pp. 411-428. - W.J. Firth, Chaos - predicting the unpredictable. British Medical Journal 303, 1991, pp. 1565-1568. - W.J. Freeman, The Physiology of Perception. Scientific American 264/2, 1991, pp. 34-42. - M.W. Ho, Che cos'è la neghentropia di Schrodinger? Biology Forum 87, 1994, pp. 164-172. - S. GALVAN, Introduzione ai teoremi di incompletezza. Franco Angeli, Milano 1992. - H. Jurgens, H.O. Peitgen, D. Saupe, Il linguaggio dei frattali. Le Scienze 266, 1990, pp. 42-49. - F. Kaiser, Theory of non-linear excitations. In: Biological Coherence and Response to External Stimuli (H. Fröhlich ed.). Springer Verlag, Berlin 1988. - S.A. Kauffman, Anticaos ed evoluzione biologica. Le Scienze 278, 1991, pp. 82-91. - S.A. Kauffman, Origins of Order: Self-Organization and Selection in Evolution. Oxford University Press, Oxford 1993. - L.A. Lipsitz, A.L. Goldberger, Loss of complexity and aging: potential applications of
fractals and chaos in senescence. Journal American Medical Association 267, 1992, pp. 1806-1809. - K. MAINZER, Thinking in complexity. The complex dynamycs of matter, mind, and mankind, Springer-Verlag, Berlin Heidelberg 1994. - H. Margenau, Il miracolo dell'esistenza. Armando, Roma, 1987. - D.R. Matthews, Physiological implications of pulsatile hormone secretion. Annales N. Y. Academy of Sciences 618, 1991, pp. 28-37. - E. MOUNIER (a cura di Davide Rondoni), Lettere sul dolore. Biblioteca Universale Rizzoli, Milano 1995. - G. Nicolis, Y. Prigogine, La Complessità. Esplorazioni nei ????uovi Campi della Scienza. Einaudi, Torino 1991. - T.F. Nonnemacher, G.A. Losa, E.R. Weibel (a cura di), Fractals in Biology and Medicine. Birkhäuser Verlag, Basel 1994. - L. PAREYSON, Ontologia della libertà. Einaudi, Torino 1995. - D. Ruelle, Caso e Caos. Bollati Boringhieri, Torino 1992. - S.J. Schiff, K. Jerger, D.H. Duong, T. Chang, M.L. Spano, W.L. Ditto, Controlling chaos in the brain. Nature 370, 1994, pp. 615-620. - T. Shinbrot, C. Grebogi, E. Ott, J.A. Yorke, Using small perturbations to control chaos. Nature 363, 1993, pp. 411- 417. - J. E. Skinner, m. Molnar, T. Vybiral, M. Mitra, Application of Chaos Theory to Biology and Medicine. Integrative Phys. and Biol. Sci. 27, 1992, pp. 39-53. - J.C. Sommerer, E. Ott, A physical system with qualitatively uncertain dynamics. Nature 365, 1993, pp. 138-140. - T.C. Südhof, The synaptic vesicle cycle: a cascade of protein-protein interactions. Nature 375, 1995, pp. 645-653. - A. Vulpiani, Determinismo e Caos. La Nuova Italia Scientifica, Roma 1994. - J.N. Weiss, A. Garfinkel, M.L. Spano, W.L. Ditto, Chaos and chaos control in biology. J. Clin. Invest. 93, 1994, pp. 1355-1360. - M. Zatti, Anthropic biology. In: The Anthropic Principle (F. Bertola and U. Curi, eds.). Cambridge Univ. Press, Cambridge 1993, pp. 129-142. - M. Zatti, Il dolore (nel) creato. Dehoniane, Bologna 1994.

 

asd asd



Hai un account google? clicca su:





Commenta l'articolo Commenta l'articolo Commenti (0)  |  Condividi su Twitter Condividi su Facebook Stampa  Vota l'articolo
  x x x x x  | Votazioni (0)







Disclaimer

Le informazioni contenute in questo articolo sono puramente divulgative. Tutte le eventuali terapie, trattamenti o interventi energetici di qualsiasi natura che qui dovessero essere citati devono essere sottoposti al diretto giudizio di un medico. Niente di ciò che viene descritto in questo articolo deve essere utilizzato dal lettore o da chiunque altro a scopo diagnostico o terapeutico per qualsiasi malattia o condizione fisica. L'Autore e l'Editore non si assumono la responsabilità per eventuali effetti negativi causati dall'uso o dal cattivo uso delle informazioni qui contenute. Nel caso questo articolo fosse, a nostra insaputa, protetto da copyright, su segnalazione, provvederemo subito a rimuoverlo. Questo sito non è da considerarsi una testata giornalistica in quanto non viene aggiornato con una frequenza costante e prestabilita. Gli articoli prodotti da noi sono coperti da copyright e non possono essere copiati senza nostra autorizzazione