Marianne Reddan ha passato gli ultimi 10 anni scrutando volti umani per trovare traccia di due emozioni distinte, ma molto vicine. Sorpresa e Paura. E dopo così tanto tempo ha imparato a malapena a distinguerle.
Per questo la Reddan, con un post dottorato alla Stanford University, ha capito che qualcosa cambierà. Lo ha capito quando ha saputo che EmoNet un sistema basato sul machine learning ha imparato a distinguere le due emozioni.
Il sistema, chiamato “EmoNet,” non si limita solo a guardare le espressioni facciali per dare un senso alle emozioni. Osserva anche il contesto generale per determinare il sentimento generale, come farebbe una persona in carne e ossa.
Per realizzare questa ricerca (pubblicata sulla rivista Science Advances) e questa rete neurale “allenata” con grandi moli di dati, i ricercatori della University of Colorado Boulder e della Duke University hanno impiegato un anno di sviluppo.
Dagli oggetti alle emozioni
Reddan e colleghi hanno utilizzato AlexNet. È un modello di deep learning (creato con le dinamiche della corteccia visiva) che addestra il computer a riconoscere gli oggetti. Lo hanno riprogrammato per passare in rassegna le emozioni anziché gli oggetti.
Philip Kragel, ricercatore all’Istituto di Scienze Cognitive della University of Colorado ha fornito alla rete neurale 25000 immagini e ha fatto in modo che le suddividesse in 20 categorie di emozioni.
La nutrita lista includeva emozioni come ansia o noia, ed anche altre esperienze emotive meno consuete, come “compiacimento estetico” o “dolore empatico”.
Nella seconda fase le emozioni categorizzate sono state confrontate con quelle umane. 8 volontari collegati as una risonanza magnetica funzionale hanno osservato 112 immagini. La loro attività cerebrale è stata misurata in parallelo dalla rete neurale, per associarla alle immagini (e alle emozioni) già in suo possesso.
Costruire una rete neurale che riproduca il cervello umano è una sfida scientifica che dura da anni. Eppure anche le macchine più avanzate arrancano davanti alla gamma delle esperienze umane. “Le emozioni sono una parte enorme delle nostre vite quotidiane,” dice Kragel. “Se le reti neurali non le decifreranno a dovere avranno sempre una conoscenza limitata di come funziona il cervello”.
Kragel è stato sorpreso da quanto bene lavori EmoNet, ma non vuol dire che il sistema sia già perfetto. Le due categorie mappate con maggior accuratezza sono “desiderio sessuale” e “avidità/brama”, ma a volte non funziona bene con emozioni espresse in modo dinamico. La sorpresa, ad esempio, che può evolvere rapidamente in gioia o rabbia a seconda delle situazioni. EmoNet ha grosse difficoltà anche a trovare differenze e sfumature tra emozioni come adorazione, divertimento e gioia, per via delle loro intime correlazioni.
Ci sono rischi?
Hannah Davis, docente di musica generativa all’Università di New York, crede che insegnare le emozioni ad un computer non sia pericoloso. “Sarebbe pericoloso,” dice, “se iniziassimo a distinguere le emozioni con lo stesso schematismo e la stessa scarsità di sfumature”.
Come darle torto? Codificare un’emozione a partire da una foto non vuol dire capirla o provare empatia. E già oggi con i social possiamo avere la percezione che le persone abbiano ristretto le loro emozioni al numero di emoticon che possono trovare.
“Il modello è in grado di sentire emozioni? Decisamente no. Sta solo leggendo in alcune categorie, non certo nella complessità dell’esperienza umana. Potrebbe provare emozioni in futuro? Questo non posso escluderlo. Forse.”