I capodogli sono tra gli animali viventi più rumorosi del pianeta. Producono scricchiolii, colpi e ticchettii per comunicare con altri cetacei che si trovano a pochi metri o a centinaia di chilometri di distanza.
Questa sinfonia di suoni dei capodogli è abbastanza sofisticata da qualificarsi come un linguaggio a tutti gli effetti. Ma gli umani capiranno mai cosa stanno dicendo queste balene?
La risposta è: forse
Prima di decifrare il linguaggio delle balene i ricercatori devono raccogliere e analizzare un numero senza precedenti di comunicazioni tra capodogli, questo è poco ma sicuro.
Con un cervello sei volte più grande del nostro, i capodogli (Physeter macrocephalus) sono balene dalla struttura sociale complessa, che trascorrono gran parte del loro tempo a socializzare e scambiarsi messaggi. Sequenze di messaggi che possono essere brevi (come 10 secondi) o durare più di mezz’ora. In effetti, “La complessità e la durata delle vocalizzazioni delle balene suggeriscono che sono almeno in teoria capaci di esibire una grammatica complessa” rispetto ad altri animali non umani.
È quanto si legge in un paper sulle balene dell’aprile 2021 pubblicato su arXiv.org.
Cosa dice questo studio?
Questo documento, da un progetto interdisciplinare noto come CETI (Cetacean Translation Initiative), delinea un piano per decodificare le vocalizzazioni dei capodogli, prima raccogliendo registrazioni di queste balene, e poi utilizzando il machine learning per cercare di decodificare le sequenze che usano per comunicare. Il CETI ha scelto di studiare i capodogli rispetto ad altre balene perché i loro clic hanno una struttura simile a un codice Morse, che l’intelligenza artificiale (AI) potrebbe analizzare più facilmente.
Rompere il ghiacchio
Quel poco che sappiamo sui capodogli lo abbiamo appreso abbastanza di recente. È stato solo negli anni ’50 che abbiamo notato che queste balene emettevano suoni. E per 20 anni non abbiamo capito che usavano questi suoni per comunicare.
Con un duplice scopo, peraltro. I capodogli possono immergersi a profondità di 4.000 piedi (1.200 metri). È tre volte più in profondità dei sottomarini nucleari. Laggiù è buio pesto: pertanto, queste balene si sono evolute per cercare calamari e altro cibo utilizzando questi suoni anche per localizzarsi, come un sonar. Questo stesso tipo di suono viene utilizzato anche nelle loro vocalizzazioni sociali, sebbene in quel caso i clic di comunicazione siano più fitti, secondo il documento CETI.
Anche capire questo è stato difficile
I capodogli sono stati a lungo molto difficili da studiare per gli esseri umani. Ora abbiamo gli strumenti per essere in grado di guardare più in profondità, come mai prima d’ora grazie a intelligenza artificiale, robotica e droni.
David Gruber, biologo marino e leader del progetto CETI.
Pratyusha Sharma, ricercatore di data science per CETI e dottorando presso il Computer Science and Artificial Intelligence Laboratory del MIT, confida molto sui recenti sviluppi dell’intelligenza artificiale e dei modelli linguistici, come GPT-3, che utilizza il deep learning per costruire testi umani o storie. Gli scienziati sperano che questi stessi metodi possano essere applicati alle vocalizzazioni dei capodogli per costruire il loro linguaggio. C’è un solo problema: questi metodi hanno un appetito vorace per i dati.
Abbiamo 100.000 registrazioni, ma ce ne servono 4 miliardi!
Il progetto CETI ha attualmente registrazioni di circa 100.000 clic di balene, raccolte faticosamente da biologi marini nel corso di molti anni, ma gli algoritmi di apprendimento automatico potrebbero aver bisogno di circa 4 miliardi di questi clic. Per colmare questa lacuna, CETI sta creando numerosi canali automatizzati per la raccolta delle registrazioni dei capodogli. Tra i metodi, microfoni subacquei posizionati in acque frequentate dalle balene, e microfoni che possono essere lasciati cadere da droni volanti. Persino pesci robotici che possono seguire e ascoltare le balene senza dare nell’occhio.
Ma anche con tutti questi dati, saremo in grado di decifrarli?
Molti degli algoritmi di apprendimento automatico hanno trovato l’audio più difficile da analizzare rispetto al testo. Ad esempio, potrebbe essere difficile analizzare dove inizia e finisce una parola. Come ha spiegato Sharma, “Supponiamo che ci sia la parola “ombrello”. È “om” la parola? O è “brello”? O è “ombrello”?” Le barriere tra le parole pronunciate sono più ambigue e meno regolari e gli schemi possono quindi richiedere molti più dati per essere scoperti.
Non è l’unica difficoltà che CETI dovrà affrontare.
“Che qualcuno provenga, diciamo, dal Giappone o dagli Stati Uniti o da qualsiasi altra parte, i mondi di cui parliamo sono molto simili; parliamo di persone, parliamo delle loro azioni”, ha detto Sharma. “Ma i mondi in cui vivono queste balene sono molto diversi, giusto? E i comportamenti sono molto diversi”.
Inoltre, da uno studio durato 6 anni e pubblicato nel 2016 sulla rivista Royal Society Open Science, è noto che i capodogli hanno perfino dei dialetti.
Se vi sembrano difficoltà enormi, pensate andare sulla Luna. Queste difficoltà sono proprio quello che rende il progetto così ambizioso e meritevole. Ciò che una balena dice a un’altra è oggi oscuro come le acque in cui nuotano, ma è un mistero che rende CETI molto, molto intrigante.