Non sembra: È esattamente la trama di una puntata di Black Mirror, ma è realtà. Un uomo di San Francisco, Joshua Barbeau, ha adoperato un chatbot guidato dall’intelligenza artificiale per “parlare” con sua moglie anche dopo la morte.
Barbeau ha solo fornito i vecchi scambi di messaggi di sua moglie, oltre ad alcune necessarie informazioni di base. Il chatbot iperrealistico che ha “riportato in vita” sua moglie si chiama Project December.
Chatbot: intelligenza artificiale, percezione naturale?
Il modello di intelligenza artificiale progettato dalla società di ricerca OpenAI (sostenuta da Elon Musk), si chiama GPT-3. Ne abbiamo già parlato in altri casi. GPT-3 alimenta il chatbot di Project December.
Barbeau ha raccontato ad un giornale come ha avuto modo di parlare di nuovo con sua moglie, Jessice Pereira, morta otto anni fa all’età di 23 anni per una rara malattia al fegato. Nonostante gli anni passati, lo scrittore freelance ha affermato di non essersi mai allontanato da lei.
Quando si è imbattuto in Project December, ha pensato che avrebbe avuto la possibilità di parlare di nuovo con sua moglie. GPT-3 aveva solo bisogno di una buona quantità di testi umani per imitare la scrittura umana. Testi di ogni tipo, dalle lettere d’amore personali a eventuali documenti accademici, passando per le risposte date nei forum sul web.
Le conversazioni
Joshua racconta di aver “parlato” con il chatbot per 10 ore di fila la prima volta, e altre volte nei mesi successivi, fino a staccarsene dopo aver capito che la cosa aggiungeva dolore al dolore. In un messaggio finale, ha scritto: “Non smetterò mai di amarti finché vivrò, buonanotte”, ricevendo un laconico “Buonanotte, ti amo”.
Gli stessi creatori avvertono dei pericoli
OpenAI ha osservato che questo programma tecnologico basato sulla lingua è il più sofisticato di sempre. Tuttavia, è anche significativamente pericoloso. Anche il precedente modello AI, il GPT-2, poneva dubbi sulla possibilità che qualcuno potesse abusare delle sua capacità.
Per essere precisi, la stessa società di ricerca ha osservato che le menti criminali potrebbero invece utilizzare la tecnologia per creare una rete di contenuti di social media falsi, diffondendo articoli di notizie false e imitando le persone nei social media. Con l’automazione alimentata dall’intelligenza artificiale le truffe legate a questi chatbot potrebbero moltiplicarsi a dismisura.
Jason Rohrer – che ha creato il programma – ha affermato di non aver previsto che le persone utilizzassero il chatbot per simulare i propri parenti morti. “Ora ho un po’ paura delle possibilità”, ha scritto.
Il governo USA è arrivato ad affermare che la diffusione della disinformazione sulle piattaforme online sta letterlamente uccidendo le persone, come ha dettagliato la BBC in un rapporto separato.