Quando siamo tra la folla e proviamo a parlare a qualcuno il nostro cervello fa il possibile (e non è neanche male) per seguire il timbro di voce del nostro interlocutore: non è facile, a volte si deve gridare un po’, ma alla fine spesso si riesce.
Il discorso cambia per i milioni di persone con problemi che le costringono ad utilizzare protesi uditive: per quanto avanzati, questi dispositivi non hanno la capacità di focalizzarsi su un suono specifico e si può venire travolti dal rumore, cosa che rende quasi impossibile una conversazione in luoghi affollati per chi è affetto da ipoacusia.
Per affrontare il problema un team di ricercatori alla Columbia University ha sviluppato un nuovo dispositivo che identifica, seleziona ed isola solo la voce che si desidera ascoltare. Lo studio è partito da una valutazione iniziale: le onde cerebrali di chi ascolta tendono a “sincronizzarsi” con quelle di chi parla.
Per questo i ricercatori hanno sviluppato un modello di AI in grado di codificare e separare molte voci presenti in un ambiente, di confrontare il pattern vocale ricavato con le onde cerebrali dell’ascoltatore ed amplificare solo quello che corrisponde di più.
“Il risultato è un algoritmo in grado di separare le voci senza necessità di alcun training,” spiega il dottor Nima Mesgarani, autore dello studio pubblicato dalla rivista Science Advances.
Se non vi è chiaro, date un’occhiata alla dimostrazione di questa tecnologia: è impressionante la sua capacità di isolare voci.
Qui c’è invece una piccola animazione della Columbia University che illustra il meccanismo di funzionamento.
Ecco lo studio: Speaker-independent auditory attention decoding without access to clean speech sources.