L’intelligenza artificiale (checché ne dicano) non ha ancora fagocitato il genere umano, né ha preso coscienza. Però sta via via prendendo il timone delle nostre giornate, e delle nostre regole.
Gli assistenti virtuali ci origliano nelle nostre stesse case. Gli algoritmi decidono il nostro orizzonte informativo, il personale da assumere e tra un po’ anche il criminale da condannare. I confini etici del loro impiego? Sempre più sottili e confusi. Pericolosamente confusi.
Il caso Project December
Sembra una puntata di Black Mirror, la serie capolavoro di Charlie Brooker che indaga sui “guasti” della tecnologia, e sugli scenari distopici che potrebbero generare. Non una puntata qualunque: una in particolare, trasmessa nel 2013. Per gli amanti della serie, si chiamava “Torna da me”, “Be Right back”. Eppure, non è una finzione, è realtà.
Qualche mese fa (ve ne ho parlato qui) un uomo di 33 anni chiamato Joshua Barbeau ha usato un servizio chiamato Project December per creare un robot conversazionale (un chatbot) in grado di simulare conversazioni con la sua defunta fidanzata Jessica.
Attraverso questo chatbot, Barbeau ha scambiato affettuosi messaggi di testo con una “Jessica” artificiale. All’epoca dell’articolo, forse con la complicità del caldo agostano, non mi sono sufficientemente interrogato sul piano etico.
Oggi mi chiedo, non esistendo ancora una norma a regolare questi casi: è eticamente ammissibile o riprovevole sviluppare un ‘deadbot’, il robot conversazionale di una persona defunta?
Deadbot: Giusto o sbagliato
Facciamo prima un passo indietro. Project December è stato creato da Jason Rohrer, uno sviluppatore di videogame, usando GPT-3, un modello di linguaggio per la generazione di testo realizzato da OpenAI. E violando proprio le linee guida di Open AI, che vietano esplicitamente l’uso di GPT-3 per scopi sessuali, amorosi, autolesionistici o di bullismo.
Per Rohrer, invece, OpenAI è moralista e persone come Barbeau sono “adulte e consenzienti”: Project December continua a operare ma senza usare GPT-3, in piena polemica con l’azienda.
Torniamo al dilemma: Giusto o sbagliato? Barbeau ed altri che potrebbero aver usato questo servizio stanno comportandosi eticamente?
(Forse) non basta la volontà di chi resta…
Jessica era una persona reale: è sufficiente la volontà del suo fidanzato per creare un robot che la imita? Anche quando muoiono, le persone non sono semplici cose con cui gli altri possono fare tutto ciò che vogliono.
Esistono reati specifici, come il vilipendio di cadavere, che ci fanno capire quanto la società consideri sbagliato profanare o non rispettare la memoria dei defunti. Abbiamo obblighi morali nei loro confronti, perché quando qualcuno muore non tutto di lui cessa di esistere. Sentimenti, ricordi, esempi rimangono, ed è giusto proteggerli.
Ancora: lo sviluppo di un deadbot che replichi la personalità di qualcuno richiede grandi quantità di informazioni personali. Dati dei social network compresi, che hanno dimostrato di rivelare tratti altamente sensibili.
Se non è etico usare i dati dei vivi senza il loro consenso, perché dovrebbe essere etico farlo con i morti? Per questo sarebbe servito anche il consenso della persona “imitata”, cioè di Jessica. Ma sarebbe bastato?
…né la volontà di chi muore
I limiti del consenso sono sempre una questione controversa. Per fare un esempio: tempo fa salì agli onori (si fa per dire) della cronaca il caso del “cannibale di Rotenburg”. Un tizio condannato all’ergastolo, potete immaginare il perché, nonostante la sua vittima avesse acconsentito a farsi mangiare.
La condanna fu motivata dal fatto che non è etico acconsentire a cose che possono essere dannose per noi stessi, fisicamente (vendere i propri organi vitali) o astrattamente (alienare i propri diritti).
Anche se i morti non possono essere danneggiati o offesi allo stesso modo dei vivi, non significa che siano invulnerabili alle cattive azioni, né che queste azioni siano etiche.
I morti possono subire danni al loro onore, reputazione o dignità (ad esempio, campagne diffamatorie postume) e la mancanza di rispetto verso i morti danneggia anche i loro familiari.
In sintesi, neanche il consenso di una persona ad essere “mangiata” (metaforicamente) e “risputata” sotto forma di robot conversazionale potrebbe bastare.
E allora come andrà?
Abbiamo capito che né la volontà di chi vuole parlare con un defunto “ricostruito”, né quella di chi vuole essere “imitato” dopo la morte potrebbero non essere sufficienti. Ci sono modi etici per fare una cosa del genere? Nel caso, chi sarebbe responsabile degli esiti di un deadbot, specialmente nel caso di effetti dannosi?
Immaginate il deadbot di Jessica che “impara” autonomamente a comportarsi in un modo che sminuisce la memoria della defunta, o che danneggia la salute mentale del suo fidanzato.
Deadbot: di chi sarebbe colpa?
Per gli esperti di intelligenza artificiale la responsabilità ricade su coloro che sono coinvolti nella progettazione e nello sviluppo del sistema, e in secondo luogo tra tutti gli agenti che interagiscono con loro. In questo caso i soggetti coinvolti sarebbero OpenAI, Jason Rohrer e Joshua Barbeau. Il primo, OpenAI, ha esplicitamente proibito di utilizzare il proprio sistema per questi scopi: ci vedo poche colpe. Il secondo, Jason Rohrer, ha progettato il deadbot, lo ha fatto violando le linee guida di OpenAI, e ne ha tratto profitto. Il grosso della responsabilità sarebbe suo. Il terzo, Joshua Barbeau, è da ritenersi corresponsabile per eventuali derive del deadbot. In ogni caso, non sarebbe facilissimo stabilirlo di volta in volta.
In sintesi: il deadbot sarebbe etico? Solo a determinate condizioni
Se tutti i soggetti coinvolti (persona ”imitata” dal deadbot, persona che sviluppa il deadbot e persona che interagisce col deadbot) hanno dato il consenso esplicito, hanno dettagliato (e ristretto) il più possibile gli usi consentiti e si assumono la responsabilità di eventuali esiti negativi, si può fare.
Sono tre condizioni pesanti, che rendono rigido il processo di creazione di questi sistemi, ma offrono garanzie serie
E confermano quanto sia importante l’etica nel campo dell’apprendimento automatico: serve sviluppare ora delle regole, perchè questa tecnologia si imporrà in modo maledettamente veloce, rischiando di stravolgere i nostri valori e la nostra società.