L’esplosione dell’intelligenza artificiale e della classica divisione in “sette”, tra gli esaltati e i catastrofisti (un po’ di equilibrio mai) hanno riacceso il dibattito sull’etica dell’AI. Un tema vivo da decenni, per la verità. Fin dal concepimento della parola “robot” ci si interroga su come limitaree macchine perché non distruggano l’umanità. Do you remember? Leggi di Asimov e via ad andare.
L’opera di Isaac Asimov e le sue leggi
Sono l’esempio più famoso di riflessione su come limitare la tecnologia. Le leggi della robotica di Isaac Asimov, che in opere come il racconto “Runaround” o “Io, Robot”, vengono incorporate in tutte le intelligenze artificiali come misura di sicurezza.
Qualcuno si è illuso che in qualche modo avrebbero funzionato nella realtà, o ispirato soluzioni simili. Non è così, e ve la faccio breve: le leggi di Asimov non sono reali, e non esiste un modo per implementarle nella realtà. Sono già carta straccia, come vi mostra anche Midjourney.
Ve le ricordate? Facciamo un ripasso?
Le leggi di Asimov sono quattro:
Prima legge: un robot non può recare danno a un essere umano o, per inazione, permettere che un essere umano subisca danni.
Seconda legge: un robot deve obbedire agli ordini impartiti dagli esseri umani, a meno che tali ordini contravvengano alla Prima Legge.
Terza legge: un robot deve proteggere la propria esistenza, purché tale protezione non contravvenga alla Prima o alla Seconda legge.
I più appassionati lettori di Asimov sanno poi che esiste una quarta legge, introdotta nel 1985 con il romanzo “i robot e l’impero“. Si chiama Legge Zero e recita così:
Un robot non può nuocere all’umanità o, per inazione, permettere che l’umanità subisca danni.
Isaac Asimov
Ora dimenticatele.
Pur iniziando a scrivere e ragionare negli anni ’40 del secolo scorso, Isaac Asimov non capì semplicemente che sarebbe stato necessario programmare le AI con leggi specifiche per impedire loro di nuocere. Realizzò anche che queste leggi avrebbero fallito.
La Prima per problemi etici troppo complessi per avere una semplice risposta sì o no. La Seconda per la sua stessa natura non etica: richiede ad esseri diventati senzienti di rimanere schiavi. La Terza perché comporta una stratificazione sociale permanente, con una vasta quantità di potenziale sfruttamento. E la legge Zero? Viene meno da sé, con tutte le altre.
In sintesi: le leggi di Asimov rappresentano un interessante punto di partenza per riflettere sull’etica dell’intelligenza artificiale, ma il mondo reale richiede soluzioni più concrete e adattabili.
Quali?
Gli esperti stanno lavorando per garantire che l’intelligenza artificiale sia sicura ed etica, esplorando in diverse direzioni. Le 4 principali:
Trasparenza e spiegabilità: Gli algoritmi dovrebbero essere trasparenti e spiegabili, in modo che gli utenti possano comprendere come e perché l’AI prende determinate decisioni.
Valori umani e bias: I sistemi di AI dovrebbero essere progettati per rispettare i valori umani fondamentali e ridurre i bias indesiderati. Ciò include la formazione su set di dati diversificati e l’analisi degli effetti delle decisioni prese dall’AI su vari gruppi di persone.
Sicurezza e affidabilità: Questa si spiega da sé. Va evitato il rischio di malfunzionamenti o attacchi informatici.
Controllo e responsabilità: È importante stabilire chi sia responsabile delle azioni compiute dall’intelligenza artificiale, per attribuire conseguenze in caso di problemi.
A queste “nuove leggi di Asimov” (che non sono di Asimov) vanno aggiunti regolamenti e standard etici globali: per questo serve cooperazione internazionale sullo sviluppo delle intelligenze artificiali, e non settarismo.
Geoffrey Hinton, uno dei “papà” dell’AI, ha definito l’intelligenza artificiale come “la nuova bomba atomica”. Non concordo, e non sono il solo. Potrebbe diventarlo, però, e sarebbe colpa nostra, non dell’intelligenza artificiale. Specie se la concepiamo noi per primi come una “clava” contro altri.
E non mi fare il muso, dai.
Leggi di Asimov, addio. Nuove leggi, fate presto
I primi veicoli autonomi, anzi: semi-autonomi hanno già il “potere” di uccidere persone inavvertitamente. Le armi come i droni killer possono, di fatto, uccidere addirittura agendo autonomamente. Parliamoci chiaro: attualmente l’AI non è in grado di comprendere le leggi, figuriamoci seguirle.
L’emulazione del comportamento umano non è ancora stata ben studiata, e lo sviluppo del comportamento razionale si è concentrato su aree limitate e ben definite. Due lacune gravissime, perché permetterebbero ad un’AI senziente (cosa che al momento, sottolineo, non esiste e a dispetto di quanto dicono i suoi pigmalioni non sappiamo se esisterà) di disinterpretare qualunque indicazione. E finire, in due semplici parole, fuori controllo.
Per questo, non so quanto tempo abbiamo. Un anno, dieci, l’eternità. So che, come fu per le leggi di Asimov serve che qualcuno risolva il problema di come prevenire i danni dell’IA agli esseri umani, e lo faccia adesso.
Skynet è solo finzione, ma nella finzione non ci ha dato scampo. E si sa: la fantascienza non prevede il futuro, ma spesso lo ispira.
Gianluca Riccio, direttore creativo di Melancia adv, copywriter e giornalista. Fa parte di Italian Institute for the Future, World Future Society e H+. Dal 2006 dirige Futuroprossimo.it , la risorsa italiana di Futurologia. È partner di Forwardto - Studi e competenze per scenari futuri.
Per fornire le migliori esperienze, noi e i nostri partner utilizziamo tecnologie come i cookie per memorizzare e/o accedere alle informazioni del dispositivo. Il consenso a queste tecnologie permetterà a noi e ai nostri partner di elaborare dati personali come il comportamento durante la navigazione o gli ID univoci su questo sito e di mostrare annunci (non) personalizzati. Non acconsentire o ritirare il consenso può influire negativamente su alcune caratteristiche e funzioni.
Clicca qui sotto per acconsentire a quanto sopra o per fare scelte dettagliate. Le tue scelte saranno applicate solamente a questo sito. È possibile modificare le impostazioni in qualsiasi momento, compreso il ritiro del consenso, utilizzando i pulsanti della Cookie Policy o cliccando sul pulsante di gestione del consenso nella parte inferiore dello schermo.
Funzionale
Sempre attivo
L'archiviazione tecnica o l'accesso sono strettamente necessari al fine legittimo di consentire l'uso di un servizio specifico esplicitamente richiesto dall'abbonato o dall'utente, o al solo scopo di effettuare la trasmissione di una comunicazione su una rete di comunicazione elettronica.
Preferenze
L'archiviazione tecnica o l'accesso sono necessari per lo scopo legittimo di memorizzare le preferenze che non sono richieste dall'abbonato o dall'utente.
Statistiche
L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici.L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici anonimi. Senza un mandato di comparizione, una conformità volontaria da parte del vostro Fornitore di Servizi Internet, o ulteriori registrazioni da parte di terzi, le informazioni memorizzate o recuperate per questo scopo da sole non possono di solito essere utilizzate per l'identificazione.
Marketing
L'archiviazione tecnica o l'accesso sono necessari per creare profili di utenti per inviare pubblicità, o per tracciare l'utente su un sito web o su diversi siti web per scopi di marketing simili.
Per fornire le migliori esperienze, utilizziamo tecnologie come i cookie per memorizzare e/o accedere alle informazioni del dispositivo. Il consenso a queste tecnologie ci permetterà di elaborare dati come il comportamento di navigazione o ID unici su questo sito. Non acconsentire o ritirare il consenso può influire negativamente su alcune caratteristiche e funzioni.
Funzionale
Sempre attivo
L'archiviazione tecnica o l'accesso sono strettamente necessari al fine legittimo di consentire l'uso di un servizio specifico esplicitamente richiesto dall'abbonato o dall'utente, o al solo scopo di effettuare la trasmissione di una comunicazione su una rete di comunicazione elettronica.
Preferenze
L'archiviazione tecnica o l'accesso sono necessari per lo scopo legittimo di memorizzare le preferenze che non sono richieste dall'abbonato o dall'utente.
Statistiche
L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici.L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici anonimi. Senza un mandato di comparizione, una conformità volontaria da parte del vostro Fornitore di Servizi Internet, o ulteriori registrazioni da parte di terzi, le informazioni memorizzate o recuperate per questo scopo da sole non possono di solito essere utilizzate per l'identificazione.
Marketing
L'archiviazione tecnica o l'accesso sono necessari per creare profili di utenti per inviare pubblicità, o per tracciare l'utente su un sito web o su diversi siti web per scopi di marketing simili.