Grazie a un mix di modelli computerizzati e all’uso della risonanza magnetica funzionale in futuro si potrebbe, il condizionale è d’obbligo, visualizzare i pensieri nella mente di un paziente in coma o guardare un proprio sogno su YouTube. A sostenerlo sono gli scienziati della University of California – Berkeley, che ritengono di essere molto vicini a realizzare questi scenari futuristici, dopo essere riusciti a decodificare e ricostruire le esperienze visive dinamiche, in questo caso si trattava di trailer cinematografici, di alcuni volontari. Per il momento la tecnologia messa a punto nei laboratori californiani è in grado di riprodurre soltanto ciò che è stato visto ma in linea teorica spiana la strada a riprodurre i “film” che abbiamo nella mente e che nessun’altro può vedere, come per esempio i sogni e i ricordi.
“Questo è un grande passo avanti verso la ricostruzione delle nostre immagini mentali” ha detto il professor Jack Gallant, neuroscienziato della UC Berkeley e coautore dello studio pubblicato sulla rivista online Current Biology “Noi stiamo aprendo una finestra sui film della nostra mente”. Le applicazioni pratiche di questa tecnologia potrebbero portare a una migliore comprensione di ciò che accade nella mente delle persone che non possono comunicare verbalmente, come le vittime di ictus, pazienti in coma e persone con malattie neurodegenerative. Potrebbe inoltre rappresentare le basi per l’interfaccia cervello-macchina e consentire alle persone affette da paralisi cerebrale o paralisi di usare un computer semplicemente con l’uso del cervello. Tuttavia i ricercatori sottolineano che saranno necessari decenni prima che la tecnologia messa a punto nei laboratori californiani consenta agli utenti di leggere i pensieri e le intenzioni altrui. Gallant e e i suoi colleghi ricercatori hanno iniziato registrando l’attività cerebrale nella corteccia visiva mentre un volontario osservava delle fotografie in bianco e nero. Quindi hanno costruito un modello computerizzato che ha permesso loro di prevedere con precisione quale immagine stava guardando. Procedendo nella sperimentazione, i ricercatori sostengono di essere riusciti a fare molto di più, vale a dire decodificare i segnali cerebrali generati da figure in movimento. “La nostra esperienza visiva naturale è paragonabile al guardare un film – ha detto Shinji Nishimoto, a capo dello studio – “Affinché questa tecnologia possa venire applicata, dobbiamo capire come il cervello elabora queste esperienze visive dinamiche.” Nishimoto e due altri membri del team di ricerca si sono prestati come volontari per l’esperimento (la procedura richiede di rimanere all’interno dello scanner MRI per diverse ore alla volta). I tre hanno guardato due insiemi distinti di trailer di film di Hollywood, mentre grazie alla risonanza magnetica funzionale veniva misurato il flusso sanguigno attraverso la corteccia visiva, la parte del cervello che elabora le informazioni visive. Sul computer il cervello era suddiviso in piccoli cubetti tridimensionali conosciuti come pixel volumetrici, o “voxel”. “Abbiamo costruito un modello per ogni voxel che descrive come le informazioni di forma e movimento del film vengano mappate dall’attività cerebrale” ha aggiunto Nishimoto. L’attività cerebrale registrata mentre i volontari osservavano la prima serie di clip è stato inserita in un software che ha imparato, secondo dopo secondo, ad associare i modelli visivi del film con la corrispondente attività cerebrale. L’attività cerebrale evocata dalla seconda serie di video è stato utilizzata per testare l’algoritmo di ricostruzione del film. Questo è stato fatto inserendo 18 milioni di secondi di video selezionati casualmente da YouTube nel software in modo da consentire la previsone dell’attività cerebrale che ogni filmato avrebbe molto probabilmente evocato in ogni soggetto. Infine, le 100 clip che il programma ha giudicato fossero le più simili a quelle che i volontari avevano probabilmente visto sono state assemblate per produrre una ricostruzione sfocata ma continua del film originale. “Ricostruire il film usando scansioni cerebrali è stato impegnativo poiché i segnali del flusso sanguigno misurati utilizzando la risonanza magnetica funzionale cambiano molto più lentamente rispetto ai segnali neurali che codificano le informazioni dinamiche nei film – sottolinea Nishimoto – Per questo motivo, la maggior parte dei precedenti tentativi per decodificare l’attività cerebrale si erano concentrati su immagini statiche. Abbiamo affrontato questo problema attraverso lo sviluppo di un modello in due fasi che descrive separatamente i sottostanti segnali neurologici e sanguigni”.