Poter dar voce ai propri pensieri. Un nuovo dispositivo, sviluppato dai neuroscienziati della Columbia University, è riuscito a sviluppare una nuova tecnologia che trasferisce in linguaggio verbale i segnali prodotti dal cervello mentre pensa. Questo potrebbe rivelarsi uno strumento molto utile per coloro che non possono parlare. I risultati dello studio sono stati pubblicati sul Scientific Reports.
Non è la prima volta che neuroscienziati rivolgono l’attenzione a sistemi per tradurre i pensieri in parole (anche scritte su schermo). Oggi algoritmi basati su sistemi di intelligenza artificiale hanno consentito di raggiungere questo obiettivo. In questo caso, però, i ricercatori hanno decodificato i segnali cerebrali associati alle parole, sia ascoltate che pensate, per tradurli in parole pronunciate ad alta voce.
Si tratta della stessa tecnologia di base utilizzata da Siri o Alexa, spiega Nima Mesgarani, che ha coordinato lo studio.
L’idea alla base è che ci sia un decoder, o meglio un vocoder, che trasferisce un pensiero in una parola. In generale, un vocoder, un termine che nasce dalla fusione dei vocaboli inglesi voice e decoder, è un dispositivo elettronico o un programma (uno strumento utilizzato nel settore delle telecomunicazioni) capace di codificare un segnale sonoro sulla base di parametri impostati attraverso un modello matematico.
I ricercatori hanno realizzato proprio questo strumento, insegnando al vocoder a “interpretare i pensieri”. Ricerche precedenti hanno mostrato che mentre le persone parlano, o anche immaginano di parlare e mentre ascoltano, nel cervello si attivano specifici percorsi cerebrali, riconoscibili se studia l’attività del cervello. Quest’attivazione corrisponde al segnale del cervello che gli autori intendevano decodificare.
Gli autori sono partiti da queste conoscenze per trovare un metodo per tradurre questi segnali in parole. Inizialmente avevano provato ad utilizzare modelli computazionali basati sull’analisi degli spettrogrammi, che sono rappresentazioni grafiche, visive, di frequenze sonore. Questi grafici sono simili a immagini che riproducono l’intensità del suono sulla base del tempo e della frequenza. Tuttavia, questo approccio è fallito perché non è riuscito a produrre espressioni orali comprensibili.
Così gli autori hanno scelto una tecnologia diversa, basata appunto sull’uso del vocoder, insegnando al sistema a interpretare le rappresentazioni cerebrali. In questo caso, è stato chiesto a pazienti con epilessia, già operati, di ascoltare frasi pronunciate a voce alta da persone diverse, mentre i ricercatori analizzavano i percorsi cerebrali attivati. “Questi pattern neurali hanno addestrato il vocoder”, spiega Mesgarani.
Successivamente, i pazienti ascoltavano voci che pronunciavano le cifre da 0 a 9, mentre i ricercatori hanno registrato i segnali cerebrali, che venivano sottoposti all’attenzione del vocoder. Il vocoder interpretava i segnali e produceva suoni, che sono stati poi analizzati e ripuliti da un sistema di intelligenza artificiale. In particolare, gli autori hanno utilizzato una rete neurale artificiale, ovvero un modello computazionale costituito da neuroni artificiali ispirato ad una rete biologica. Dopo questa operazione, i ricercatori hanno ottenuto una voce robotica che recitava la sequenza di numeri.
“Abbiamo osservato che le persone riuscivano a capire e ripetere i suoni il 75% delle volte”, sottolinea Mesgarani, “un risultato che è ben al di là di qualsiasi previsione precedente”. La sensibilità del vocoder, unita alla potenza della rete neurale ha riprodotto i suoni originariamente ascoltati dai pazienti con una precisione sorprendente.
Il prossimo passo, spiegano gli autori, sarà quello di provare a tradurre i pensieri collegati a parole e frasi più complesse e testare lo strumento sui segnali cerebrali prodotti da persone non solo mentre ascoltano ma anche mentre parlano o pensano di parlare. L’obiettivo ultimo è quello di poter sviluppare un dispositivo che i pazienti possano indossare ed utilizzare per parlare attraverso i pensieri.