I ricercatori dell’Università di Stanford hanno fatto un significativo passo avanti nello sviluppo delle interfacce cervello-computer (BCI). Con la creazione di una tecnologia che consente di decifrare il linguaggio parlato a una velocità fino a 62 parole al minuto, infatti, il team ha migliorato il precedente record di quasi 3 volte e mezza.
Uno sviluppo che avvicina ancora un po’ questi sistemi ai ritmi di una conversazione naturale, e a una conversione vocale praticamente istantanea.
Parole, parole, parole
Il co-fondatore di Neuralink insieme a Elon Musk, Max Hodak, ha definito la ricerca di Stanford “un cambiamento significativo nell’utilità degli impianti cervello-computer”. Ma in cosa consiste esattamente?
Il nodo di tutto il lavoro, dettagliato in un paper che vi linko qui, è la possibilità di “tradurre” i segnali cerebrali in discorsi coerenti usando un algoritmo di apprendimento automatico. E farlo analizzando l’attività cerebrale in una regione relativamente piccola della corteccia.
L’obiettivo? Aiutare le persone che non possono più parlare a causa di malattie come la SLA a recuperare la voce. Un vero e proprio salto di qualità: un’interfaccia vocale di questo tipo potrebbe accelerare significativamente la decodifica dei segnali cerebrali.
I test
In un esperimento, il team ha registrato (da due piccole aree del cervello) l’attività neurale di un paziente affetto da SLA che può muovere la bocca ma ha difficoltà a formare parole.
Usando un decodificatore di rete neurale ricorrente in grado di prevedere il testo, i ricercatori hanno poi trasformato questi segnali in parole. Parole che vanno a un ritmo mai visto prima.
E’ stato scoperto che l’analisi dei movimenti del volto e delle attività neurali ad essi associate è abbastanza forte da poter supportare un sistema di interfacciamento cervello-computer nonostante la paralisi e la limitata estensione della corteccia cerebrale.
Le sfide da affrontare
Al momento il sistema è veloce, ma resta ancora imperfetto: il tasso di errore del decodificatore della rete neurale ricorrente (RNN) utilizzato dai ricercatori è ancora del 20%.
I ricercatori lo sanno bene: “la nostra dimostrazione,” scrivono, “è una prova che la decodifica dei tentativi di movimenti del parlato dalle registrazioni intracorticali è un approccio promettente, anche se non è ancora un sistema completo e clinicamente praticabile”.
Per migliorare il tasso di errore e ottimizzare l’algoritmo, gli studi punteranno ora a sondare più aree del cervello.
Immaginate tecnologie del genere abbinate a intelligenze artificiali. Algoritmi in grado di clonare perfettamente una voce, come quello recentemente presentato da Microsoft cui bastano appena 3 secondi di audio.
In futuro, nessuno rimarrà muto.