L’insidia della complessità è quella di farsi passare per ‘complicazione’ e quindi affrontabile con la forza bruta del calcolo (informatica)... (Scopri di più su:
http://www.benecomune.net/articolo.php?notizia=2005)
Alessandro Giuliani Nel 2005 uscì un articolo che fece molto scalpore, il titolo era già un proclama
‘Why most Published Research Findings are false’ né più né meno: ‘Perché la maggior parte dei risultati scientifici pubblicati sono falsi’.
Il furioso dibattito che seguì alla pubblicazione ebbe termine con il riconoscimento dell'effettiva mancanza di ripetibilità della ricerca (soprattutto in biomedicina).
Grandi agenzie di finanziamento come l’NIH (National Institutes of Health, l’agenzia di ricerca biomedica americana) inserirono standard molto severi sulla congruità statistica dei risultati e
Nature (insieme a
Science la rivista scientifica più prestigiosa) ha recentemente pubblicato
un intero numero sul problema della mancanza di ripetibilità dei risultati della ricerca di base in biomedicina.
La prestigiosa rivista
PLoS Biology ha inaugurato in queste settimane una sezione denominata
Meta-Research tutta dedicata all’analisi della verosimiglianza dei risultati scientifici che in molti campi è drammaticamente bassa.
Quello che traballa è niente meno che il fondamento della conoscenza scientifica: le galileiane ‘sensate esperienze’ che sembrano smarrire la loro qualità precipua: quella di poter essere riprodotte da altri sperimentatori in maniera indipendente.
Come si è arrivati a questa crisi conoscitiva?
Le cause sono molteplici, qui ci fermiamo alle due principali. La prima è di tipo puramente tecnico-statistico: accettare come ‘significativa’ una risultanza sperimentale secondo il metodo classico di ‘accettare qualcosa come rilevante se la probabilità che il risultato sia dovuto al puro effetto del caso è minore di 1 su 20’ va benissimo in un contesto di test di ipotesi in cui si valuta una (o al massimo due-tre) misura alla volta. Se invece (come spesso capita) si ‘va a vedere’ a posteriori il risultato di centinaia di prove simultanee di ha la quasi certezza di incappare in un ‘falso positivo’.
I lettori interessati possono leggere il godibilissimo (e non tecnico)
articolo di Young e Karr.
La seconda è di tipo più contenutistico. Gran parte dei problemi scientifici oggi sul tappeto sono del tipo a ‘complessità organizzata’ per cui c’è bisogno di un ripensamento epistemologico del nostro modo di identificare il livello ‘veramente interessante’ di analisi che non si situa più né al livello degli atomismi fondamentali (approccio bottom-up) e neanche a quello delle leggi generali (approccio top-down) ma ad un livello intermedio che massimizza le correlazioni fra i differenti livelli di spiegazione, il lettore interessato può leggere un
articolo da me realizzato insieme a Simonetta Filippi e Marta Bertolaso.
Questo tipo di approccio è ancora tutto da scoprire e ci spinge a ripartire dalle fondamenta.
Non che non esistano tentativi (anche molto interessanti e promettenti) per intraprendere la nuova via (l’odierno interesse per le reti complesse ne è un esempio), il problema è più che altro di tipo ‘extra-scientifico’ e politico, e ha a che vedere con il ruolo sproporzionato della scienza nel fondare il pensiero dominante.
La considerazione della scienza come l’unico sapere fondato, provoca come conseguenza il suo stabilirsi come ‘segno privilegiato’ dello stato generale del mondo. L’idea dominante è quella di uno sviluppo scientifico (e conseguentemente umano) lineare, senza battute d’arresto e cambi di direzione: è l’idea di progresso per cui oggi capiamo di più di ieri e meno di domani. Questo atteggiamento è talmente importante (tanto da essere una sorta di religione secolare del mondo) che annebbia la ragione a tal punto che pochi si pongono domande molto semplici come quella di che senso abbia considerare come indice di benessere economico di una nazione l’aumento del PIL, ben sapendo che, in una situazione di risorse limitate non solo non è ragionevole immaginare una crescita indefinita ma non è neanche auspicabile. L’elenco delle follie legate alla ‘impensabilità’ della presenza di un limite sarebbe lunghissimo e lasciamo al lettore (se ha sufficiente senso dell’umorismo da non deprimersi) di provare a stilarlo.
La scelta ragionevole sarebbe quella di ammettere che siamo arrivati ad un punto in cui dobbiamo ripartire con la scienza di base, che darà i suoi frutti applicativi tra decenni, ma questa è una bestemmia per la religione scientista. Sicuramente un (ristretto) gruppo di scienziati avrà modo di dedicarsi a fondare una ‘scienza della complessità organizzata’ ma la scienza ‘sotto i riflettori’, i grandi progetti internazionali, quella scienza insomma che paga gli stipendi a gran parte della mano d’opera scientifica dovrà continuare a ostentare la sicurezza in un progresso lineare e illimitato.
La soluzione dominante è allora quella di affidarsi completamente all’informatica e al catalogo dell’esistente, nella convinzione che la conoscenza totale sia già presente ma non utilizzabile, in quanto dispersa in mille rivoli: abbiamo bisogno di fare ordine e come per magia si costruirà un quadro coerente attraverso la potente tecnologia informatica. Anche se il mezzo (la tecnologia informatica) è nuovo, questo tipo di soluzione è antica e tipica dei momenti di crisi conoscitiva, nella seconda metà del Cinquecento fiorì una vera e propria mania delle ‘catalogazioni totali e definitive’ che avevano nomi come ‘Universae Naturae Theatrum’, un libro del 1596 del francese Jean Bodin che nel sottotitolo spiegava come nel volume fosse compreso l’elenco completo delle ‘cause efficienti’ di tutti i fenomeni naturali.
Forse il sorriso per l’ingenuità degli antichi dovrebbe lasciare il posto alla preoccupazione. Se andiamo a scorrere i temi dominanti della ricerca finanziata dall’Unione Europea per la biomedicina nell’ambito del grande e onnicomprensivo
progetto Horizon 2020, ci accorgiamo della dominanza di temi come lo sviluppo di modelli puramente informatici che ricostruiscono la conoscenza globale dei fenomeni sulla base di una mera ‘catalogazione intelligente’ del già noto. E negli
Stati Uniti la prospettiva non cambia.
L’aspetto paradossale è che questi supposti ‘sistemi intelligenti’ saranno nutriti dagli stessi risultati che si riconoscono essere in partenza fallaci.
L’insidia della complessità è quella di farsi passare per ‘complicazione’ e quindi affrontabile con la forza bruta del calcolo (informatica). Laddove complessità è solo un richiamo urgente a una nuova forma di semplicità che non richiede un impossibile ‘controllo totale’ dei dettagli ma la scelta di nuovi punti di vista. Ma questo è mestiere di persone pensanti e creative, non di macchine, e questo appare come un problema.