di Pietro Greco
6 SETTEMBRE 2016
Un errore sistematico durato 20 anni che mette in dubbio la validità delle conclusioni raggiunte con 40.000 lavori scientifici su come funziona il cervello umano visto attraverso la fMRI, la risonanza magnetica nucleare. Se Anders Eklund, dell’università svedese di Linköping, e i suoi due colleghi, Hans Knutsson e Thomas Nichols, autori di recente di un articolo pubblicato sui Proceedings of the National Academy of Science (PNAS) degli Stati Uniti, hanno ragione, allora bisognerà riscrivere tre lustri di studi sul cervello “visto in azione”.
La tecnica della fMRI (functional Magnetic Resonance Imaging) consente di “vedere” il cervello umano in azione, misurando la differenza nei flussi di sangue. Se, per esempio, io muovo una mano, una maggiore quantità di sangue affluisce nelle zone del cervello coinvolte nell’azione. La messa a punto di questa tecnica, venti anni fa, ha rivoluzionato gli studi di neurofisiologia, perché prima, in buona sostanza, il cervello umano poteva essere studiato solo dopo la morte del suo proprietario e in fase non attiva.
Ecco perché, da quando è stata messa a punto, l’fMRI ha trovato un’ampia applicazione nei laboratori di neurofisiologia di tutto il mondo. Determinando, appunto, la pubblicazione, in media, di quasi 2.000 articoli l’anno che – è il caso di dirlo – ci hanno dato una nuova immagine del cervello. In realtà, la fMRI non è certo un telescopio galileiano che, puntato verso il cervello, veda davvero il sangue mentre affluire. Il sangue lo vede indirettamente, applicando un’analisi statistica alla ricerca di cluster di neuroni attivi in piccole parti del cervello. Ciò che scopre lo trasforma, poi, in immagine. Gli algoritmi principali usati nei primi venti anni di fMRI sono tre: SPM, FSL e AFNI. E, sulla carta, assicurano una precisione del 95%. In pratica significa che solo in 5 casi su 100 rilevano un “falso positivo”, ovvero afflusso di sangue anche lì dove non c’è.
Il fatto è che la reale efficacia di questi tre algoritmi non è mai stata verificata su un gruppo statisticamente significativo di persone reali. Anche perché ogni singola analisi costa molto e mettere insieme un campione reale statisticamente significativo è particolarmente oneroso. La validazione della tecnica è così avvenuta sulla base di dati simulati al computer.
Dopo una serie di indizi sospetti, Ekland e i suoi due collaboratori hanno deciso che era venuto il momento di testarli, quei tre algoritmi, sul cervello di persone reali. Hanno così selezionato un campione di 500 volontari (499, per la precisione), tutti sani, li hanno divisi in piccoli gruppi di 20, hanno detto loro di non fare assolutamente niente (in modo da essere sicuri che molte zone specifiche del cervello fossero spente), li hanno confrontati ottenendo 3 milioni di combinazioni random e hanno trovato che i falsi positivi non sono 5, ma 70 su cento. Più di due volte su tre, dunque, la fMRI rileva un’attività cerebrale lì dove non c’è. Segnalando, magari, che si è attivata una parte del cervello responsabile del movimento degli arti, mentre la persona è perfettamente ferma.
L’errore è tale che, se confermato, porterebbe al sostanziale discredito della gran parte dei lavori di neuroscienze basati sulla fMRI. Raramente nella storia della ricerca scientifica un errore sistematico di tipo metodologico è stato commesso da così tante persone – anzi da così tanti gruppi di ricerca sparsi per il mondo – in così tanto tempo. Le conseguenze sono (sarebbero) davvero molte. Migliaia di ore di lavoro gettate al vento. E un’intera disciplina costretta a iniziare daccapo (in realtà, l’errore di metodo è stato corretto proprio mentre Ekland e colleghi portavano avanti il loro studio e, dal 2015, non viene più commesso).
Tuttavia i clamorosi risultati di Anders Eklund, Hans Knutsson e Thomas Nichols ci dicono (ci suggeriscono, in attesa che a loro volta vengano validati) molto di più. In primo luogo, che aveva ragione, tutto sommato, il buon senso dei nostri avi quando esprimeva, in un proverbio, il concetto che il risparmio eccessivo non si traduce mai in guadagno. Nella scienza non è possibile, in nome della carenza di risorse, fare salti metodologici. Il rischio di errori è altissimo. In secondo luogo, ci dicono, quei risultati, che la grande novità epistemologica degli ultimi decenni, la simulazione al computer, può essere un’utile strumento, ma non uno strumento assoluto. Detto in altri termini, la “scienza simulante” non sostituisce le galileiane “sensate esperienze”. E sono queste ultime a dover avere ancora l’ultima parola.
Tuttavia la vicenda – che si è consumata proprio mentre al CERN hanno rilevato che la sospetta presenza del “cugino grasso” del “bosone di Higgs” nei dati raccolti per alcuni mesi, in maniera indipendente, da due gruppi di ricerca con l’acceleratore LHC era solo una fluttuazione statistica e non un dato reale – dimostra, ancora una volta, che la comunità scientifica conserva buoni anticorpi. Riesce ancora ad autocorreggersi. Un errore importante, prodotto in buona come in cattiva fede, può ingannare a lungo, ma non per sempre.
Nessun commento:
Posta un commento
Nota. Solo i membri di questo blog possono postare un commento.