
28 Giu E’ possibile misurare la complessità?
Lo scopo di questo articolo è rispondere a queste due domande: è possibile misurare la complessità? Se sì, come?
Espresso in altre parole: la complessità è un insieme di caratteristiche che o c’è o non c’è, oppure ci possono essere organismi poco complessi e altri molto complessi? Questo ci serve per capire ad esempio se un moscerino ha lo stesso nostro livello di complessità. Oppure qual è la differenza di complessità di una folla di uomini e un uomo solo. Inoltre può essere utile nei modelli predittivi sui fenomeni emergenti.
La risposta alla prima domanda è ni.
Esistono infatti alcune difficoltà nella misura della complessità, e sono innanzitutto di tipo sperimentale.
Si potrebbe “misurare” la quantità di dati che possono spiegare un determinato fenomeno in modo soddisfacente. Ma questo ci dà una misura di quanto un sistema è complicato, non complesso. Un altro approccio potrebbe essere quello di misurare la complessità in base all’imprevedibilità. In questo caso un sistema è tanto più complesso quanto più imprevedibile. Anche qui però la discriminazione non sarebbe affidabile, perché l’imprevedibilità è propria anche dei sistemi completamente casuali.
Un altro modo è quello di identificare il numero di componenti del sistema. E’ intuitivo che più un sistema è grande e formato da moltissime componenti, più è probabile che sia complesso.
La misura della complessità va associata all’entità delle relazioni tra le sottocomponenti: più queste sono interconnesse, più il sistema sarà complesso.
A questo proposito, siccome il numero degli elementi del sistema non è sufficiente per quantificarne la complessità, può esserne valutata la varietà.
A queste difficoltà sperimentali si aggiungono quelle epistemologiche: la complessità è un concetto imprescindibile dall’osservatore. E’ l’osservatore col suo sistema a valutare l’osservato e a stabilirne – attraverso il suo dominio cognitivo – la complessità. Inoltre, la complessità dipende dagli aspetti del sistema che consideriamo; questo implica che per poter valutare un sistema è necessario sapere qual è il suo scopo o la sua funzione. Dobbiamo conoscere gli “outcome”, le misure fondamentali e incidenti che esprimono in modo efficace la risposta sistemica che vogliamo osservare.
C’è però un dato importante: la misura della complessità è correlata a quella dell’informazione.
E’ cruciale definire dal punto di vista filosofico questa entità. Come riporta l’enciclopedia filosofica di Stanford, oltre all’informazione di Shannon e alla complessità di Kolgomorov ci sono altri due tipi quantitativi di informazione:
– informazione di Fisher: è la quantità di informazioni che una variabile casuale osservabile X trasporta a un θ parametro ignoto, da cui dipende la probabilità di X. E’ regolata dalla funzione di verosimiglianza e viene usata soprattutto in statistica.
Detto in altre parole, si stima per θ il valore X per il quale la funzione di verosimiglianza è massima.
– informazione quantica: il qubit è l’equivalente statistico del bit. Nel mondo classico il bit è l’unità più piccola su cui avviene la computazione; nel mondo quantistico questa è rappresentata dal qubit. Il qubit segue le regole quantistiche, quindi è un rappresentato da un vettore ed è in stato di sovrapposizione, in cui gli stati 0 e 1 sono combinati.
Inoltre ci sono descrizioni qualitative dell’informazione, di cui mi occuperò in un altro momento.
Entriamo più nel dettaglio: Shiner, Davison e Landsberg (1999) hanno introdotto la misura della complessità Γαβ moltiplicando tra loro una misura di ordine e di disordine, elevandole a due esponenti da determinare caso per caso:
Γαβ = (S/Smax)α (1- S/Smax)β
S è l’entropia del sistema ed Smax è la sua entropia massima. L’entropia S può essere vista sia dal punto di vista “classico” di Boltzmann, e in questo caso S è l’equilibrio termodinamico del sistema, sia nel senso di Shannon, dal punto di vista della teoria dell’informazione.
Chi pensa di aver trovato una soluzione purtroppo rimarrà deluso, perché questo di fatto è un sistema per valutare prima il disordine della complessità.
L’approccio interessante è quello informativo: un sistema oggetto di misurazioni è una sorgente di dati, di informazione. La sua complessità può quindi essere messa in relazione con la quantità minima di informazione capace di descrivere completamente il sistema, cioè con la sua descrizione più breve possibile. Viene utilizzato il modello prodotto dall’osservatore come specchio per misurare la complessità dell’osservato.
Il paradosso è che i processi casuali, e non quelli strutturati algoritmicamente, sono i più lunghi da descrivere dal punto di vista dinamico, perché non sono regolari e quindi non permettono di essere descritti tramite una regola.
Anche se i metodi visti finora ci forniscono solo risposte parziali, la speranza può rimanere aperta.
C’è un modo per unire l’organizzazione, l’entropia e l’organizzazione, e questo è stato effettuato da Shannon con la sua teoria dell’informazione.
Secondo Shannon la quantità dell’informazione contenuta in un sistema è una misura del suo grado di organizzazione, e quindi è collegata anche alla sua entropia. Con la sua teoria dell’informazione, Shannon stabilisce due presupposti o teoremi:
• il primo indica che in media, il numero di bit necessari a rappresentare il risultato di un evento stocastico (processo dipendente da una variabile casuale) è pari alla sua entropia. Sotto questo numero di bit non è possibile comprimere dati.
• Il secondo teorema enuncia che il massimo tasso di informazione trasferibile in modo affidabile su un canale affetto da rumore è sempre inferiore a una certa soglia, che prende il nome di “capacità di canale“. Questa potrà essere solo avvicinata tramite metodi opportuni.
La teoria dell’informazione è nata nell’ambito informatico e matematico, ma si può applicare a sistemi adattivi, all’intelligenza artificiale, all’apprendimento automatico, ai sistemi complessi, alla cibernetica, tra gli altri.
Il problema fondamentale è quello di introdurre una grandezza con unità di misura per misurare un’unità di informazione. Il valore scelto è il bit, che esprime la minore “semplicità” di informazione. Ora bisogna quantificare quant’è l’informazione H(n) trasmessa da una sorgente che manda n messaggi. Per trovare questa funzione, si divide l’informazione in sottocategorie n1, n2, nn, e ad ogni categoria si attribuisce il numero di possibilità che rappresenta.
Ad esempio, se vogliamo calcolare l’informazione prodotta da un dado con quattro numeri, dobbiamo capire che l’informazione è il messaggio che ci dà il dado: un numero tra uno e quattro. Quindi diciamo sono quattro bit.
Questa informazione può essere divisa in diverse sottocategorie, ad esempio “pari o dispari?”. Questa è la categoria n1. n1 ha due possibilità (o pari o dispari) e quindi n1=2.
L’altra categoria è: il numero o pari o dispari è il primo o il secondo all’interno di quella sequenza?
(quindi è l’1 o il 3? E’ il 2 o il 4?) e anche qui ci sono due possibilità, n2=2.
n = n1 × n2 = 2 × 2 = 4
Pare funzionare!
Però è anche chiaro che l’informazione deve essere la somma delle due sottocategorie, ovvero un’unione dei due sottoinsiemi. Quindi la funzione H(n) deve essere:
H(n1 × n2) = H(n1) + H(n2)
La funzione che soddisfa questa proprietà è il logaritmo, quindi
H(n) = log2n
Se n = 2, in modo da prendere l’informazione minima della “scelta” binaria, viene
H(2) = log22=1
Ovvero 1 bit! Che infatti vuol essere la nostra misura più piccola dell’informazione.
C’è un altro problema: se i messaggi non sono equiprobabili, la loro probabilità singolare deve avere un peso nel calcolo dell’informazione totale. In questo caso, se ogni messaggio n ha una probabilità pi, la quantità d’informazione di un messaggio è data dalla seguente espressione:
H = Σ pi log2 (1/pi) = – Σ pi log2 pi
Più il messaggio sarà improbabile, tanto più sarà l’informazione che dà al ricevitore, per il solo fatto di essere stato ricevuto.
Questo indipendentemente dal suo messaggio. La probabilità del messaggio di essere ricevuto è inversamente proporzionale all’informazione misurata.
Con questa equazione Shannon ha definito l’entropia dell’informazione: essa è proporzionale all’incertezza sul valore di n.
Questa formula è ottima per i sistemi statici. Kolgomorov e Sinai hanno applicato e modificato questa legge ai sistemi dinamici. Infatti, in un sistema deterministico un fenomeno da descrivere – come può essere una traiettoria di un oggetto – può essere espresso tramite un insieme di valori di posizione durante intervalli regolari di tempo x(ti) che formerà una successione si. In un sistema caotico, anche se ogni traiettoria ha un valore iniziale x(t0), possono originare molte traiettorie differenti a causa della divergenza crescente delle traiettorie instabili. Proviamo a considerare una parola che deve essere compresa da un sistema caotico. Questa sarà formata da una sequenza WjN di celle di lunghezza N.
WjN = s(j), s(j+1),…, s(j + N – 1)
Si può considerare che la probabilità di ottenere una parola piuttosto che un’altra analizzando le frequenze con cui si manifestano certe sequenze di WjN.
Quindi, sostituendo nell’equazione di Shannon,
H = – Σ p(WjN ) log2 p(WjN )
NB: la serie è la serie di W che va da j a N, così: WjN
Inoltre, in un sistema caotico l’informazione viene degradata a causa dell’instabilità della traiettoria evolutiva. Più il sistema è instabile, più le divergenze si ampliano a partire da una divergenza iniziale, e quindi più l’informazione si perde.
L’entropia di Kolgomorov-Sinai è l’estremo superiore dell’insieme che contiene le velocità di consumo dell’informazione H, calcolata per ogni possibile partizione nello spazio delle fasi (nei sistemi dinamici lo spazio delle fasi è lo spazio i cui punti rappresentano tutti e i soli possibili stati del sistema).K = sup H
Essa quantifica quanto un sistema è caotico, e fornisce la velocità di perdita di memoria. Più un sistema è caotico, più l’informazione verrà persa velocemente.
A questo punto abbiamo tre casi:
1) K = 0 per un sistema deterministico ordinato
2) K è finito per un sistema caotico, in cui l’informazione si consuma gradualmente.
3) K per un sistema disordinato. In questo caso non esiste nessuna regola deterministica.
Ancora una volta, rimane un’incompletezza di fondo: questa misura non consente di valutare correttamente l’insieme di relazioni sottostanti tra tutte le componenti sistemiche, ovvero la struttura delle rete, che è essa stessa fonte di informazione.
Quindi, per ciò che riguarda la quantificazione della complessità del sistema, abbiamo ancora strumenti solo parziali, essendo questa misurazione potenzialmente complessiva e riguardante ogni caratteristica del sistema.
E’ impossibile quantificare esattamente il sistema se non lo si è compreso nella sua unità e in tutte le sue sottocomponenti, ma non siamo ancora arrivati a questo punto, e non sappiamo se in futuro lo raggiungeremo.
Ancora una volta, vediamo che nel costruire i modelli di cui necessitiamo, dobbiamo per forza considerare il nostro ruolo di osservatori, e le limitazioni che ne conseguono.
Se vuoi saperne di più, trovi gli approfondimenti sul libro Medicina Coerente – Modelli sistemici per una medicina più efficace, umana, individualizzata. Scopri di che si tratta.
No Comments