Questo post fa parte di “Periscopio”, la newsletter Linkedin che ogni settimana approfondisce temi di Futuro Prossimo, e viene pubblicata in anticipo sulla piattaforma LinkedIn. Se vuoi iscriverti e leggerla in anteprima, trovi tutto qui.
Sabato scorso il Washington Post ha riportato le dichiarazioni di un ingegnere Google sospeso il 6 giugno per aver violato gli accordi di riservatezza dell’azienda di Palo Alto. In sostanza l’ingegnere, Blake Lemoine, ha diffuso chat “private” tra lui e un chatbot di intelligenza artificiale che dimostrerebbero una cosa piuttosto temuta da molti esperti: questa AI sarebbe diventata senziente.
Si tratta di dichiarazioni forti da parte di un esperto di settore, non di un tizio qualsiasi. E sono rese dopo centinaia di interazioni con un sistema di intelligenza artificiale all’avanguardia e inedito chiamato LaMDA. Ma è vero? Questa AI è diventata davvero senziente?
Di cosa parliamo
LaMDA sta per “Language Model for Dialog Applications”. È uno di quei sistemi di AI che può rispondere a richieste scritte una volta addestrato su grandi volumi di dati.
Sono sistemi diventati sempre più bravi a rispondere alle domande scrivendo in modo che sono sempre più somiglianti a quelli umani. Proprio lo scorso maggio la stessa Google ha presentato LaMDA sul suo blog ufficiale definendola “capace di scrivere su un numero infinito di argomenti”.
Si, ma è senziente?
Dopo le affermazioni dell’ingegnere, Google ha provato a gettare acqua sul fuoco smentendo l’intervista apparsa sul Washington Post. “Il nostro team,” ha scritto ieri Big G, “ha esaminato le preoccupazioni di Blake e lo ha informato che le prove non supportano le sue affermazioni”. Le hanno fatto eco diversi esperti di intelligenza artificiale: alcuni hanno bocciato sonoramente questa tesi, altri l’hanno usata come esempio della nostra propensione ad assegnare alle macchine degli attributi umani.
Un po’ come quando litighiamo con il mouse, per intenderci.
Non è una boutade, però. Non si può liquidare così una cosa del genere. E non per i timori di gente come Ilya Sutskever (“le AI stanno diventando senzienti”), Yuval Harari (“Le AI potranno hackerare le persone”), o Mo Gawdat (“i ricercatori AI giocano a creare Dio”).
La convinzione che l’IA di Google possa essere senziente è importantissima, perchè mette in evidenza sia le nostre paure che le nostre aspettative sulle potenzialità di questa tecnologia.
Per ora, però, è una convinzione sbagliata
Lo sviluppo e l’uso di programmi informatici avanzati e addestrati su enormi quantità di dati genera molte preoccupazioni etiche. In alcuni casi, però, il progresso viene giudicato in base a ciò che potrebbe accadere piuttosto che a ciò che è attualmente fattibile.
La conclusione al momento, a sentire quasi tutti i maggiori esperti informatici del mondo, appare una sola: no, l’AI di Google non è affatto vicina ad essere senziente. È solo più brava a sembrarlo, abbinando modelli di linguaggio a cose simili che trova in un magazzino pressoché infinito di frasi.
Dovete immaginarla come una versione super potente del software di completamento automatico che abbiamo su uno smartphone. Ok: super super super potente. Nessuno, però, dovrebbe confondere questo con l’essere senziente.
Proprio gli sviluppatori di AI, tuttavia, stanno suonando la carica di questi tempi, allarmando le persone. Le loro dichiarazioni, dettate in parte dallo shock di vedere per primi le potenzialità di questa tecnologia e in parte anche per promuoverle, hanno una grande risonanza sui media.
L’AI di Google non è senziente
La scorsa settimana Blaise Aguera y Arcas, vicepresidente di Google Research, ha scritto in un articolo per l’Economist che quando ha iniziato a utilizzare LaMDA l’anno scorso, si sentiva sempre più come se stesse parlando con qualcosa di intelligente. È comprensibile stupore, perfino sottile paura.
Al momento, però, LaMDA è stata sottoposta a 11 diversi processi di rievisione sui principi di intelligenza artificiale. È stata sottoposta anche a molti test sulla sua capacità di elaborare affermazioni basate sui fatti. Niente. Non è senziente.
Questo non toglie nulla alla necessità di sviluppare intelligenza artificiale seguendo un’etica ed una morale. Qualcuno, per la verità, dice di aver sviluppato un’AI direttamente DOTATA di una morale, ma questo è un altro conto.
Il principale dovere dei ricercatori, se hanno a cuore davvero il progresso di questa tecnologia, è non antropomorfizzare le sue manifestazioni. Soprattutto, non allarmare eccessivamente l’opinione pubblica, semmai restando vigile per poter “tirare il freno” appena ci saranno effettive prove di una scintilla di autocoscienza.
SE ci saranno mai. Voi che dite?