L’esplosione dell’intelligenza artificiale e della classica divisione in “sette”, tra gli esaltati e i catastrofisti (un po’ di equilibrio mai) hanno riacceso il dibattito sull’etica dell’AI. Un tema vivo da decenni, per la verità. Fin dal concepimento della parola “robot” ci si interroga su come limitaree macchine perché non distruggano l’umanità. Do you remember? Leggi di Asimov e via ad andare.
L’opera di Isaac Asimov e le sue leggi
Sono l’esempio più famoso di riflessione su come limitare la tecnologia. Le leggi della robotica di Isaac Asimov, che in opere come il racconto “Runaround” o “Io, Robot”, vengono incorporate in tutte le intelligenze artificiali come misura di sicurezza.
Qualcuno si è illuso che in qualche modo avrebbero funzionato nella realtà, o ispirato soluzioni simili. Non è così, e ve la faccio breve: le leggi di Asimov non sono reali, e non esiste un modo per implementarle nella realtà. Sono già carta straccia, come vi mostra anche Midjourney.
Ve le ricordate? Facciamo un ripasso?
Le leggi di Asimov sono quattro:
- Prima legge: un robot non può recare danno a un essere umano o, per inazione, permettere che un essere umano subisca danni.
- Seconda legge: un robot deve obbedire agli ordini impartiti dagli esseri umani, a meno che tali ordini contravvengano alla Prima Legge.
- Terza legge: un robot deve proteggere la propria esistenza, purché tale protezione non contravvenga alla Prima o alla Seconda legge.
I più appassionati lettori di Asimov sanno poi che esiste una quarta legge, introdotta nel 1985 con il romanzo “i robot e l’impero“. Si chiama Legge Zero e recita così:
Un robot non può nuocere all’umanità o, per inazione, permettere che l’umanità subisca danni.
Isaac Asimov
Ora dimenticatele.
Pur iniziando a scrivere e ragionare negli anni ’40 del secolo scorso, Isaac Asimov non capì semplicemente che sarebbe stato necessario programmare le AI con leggi specifiche per impedire loro di nuocere. Realizzò anche che queste leggi avrebbero fallito.
La Prima per problemi etici troppo complessi per avere una semplice risposta sì o no. La Seconda per la sua stessa natura non etica: richiede ad esseri diventati senzienti di rimanere schiavi. La Terza perché comporta una stratificazione sociale permanente, con una vasta quantità di potenziale sfruttamento. E la legge Zero? Viene meno da sé, con tutte le altre.
In sintesi: le leggi di Asimov rappresentano un interessante punto di partenza per riflettere sull’etica dell’intelligenza artificiale, ma il mondo reale richiede soluzioni più concrete e adattabili.
Quali?
Gli esperti stanno lavorando per garantire che l’intelligenza artificiale sia sicura ed etica, esplorando in diverse direzioni. Le 4 principali:
- Trasparenza e spiegabilità: Gli algoritmi dovrebbero essere trasparenti e spiegabili, in modo che gli utenti possano comprendere come e perché l’AI prende determinate decisioni.
- Valori umani e bias: I sistemi di AI dovrebbero essere progettati per rispettare i valori umani fondamentali e ridurre i bias indesiderati. Ciò include la formazione su set di dati diversificati e l’analisi degli effetti delle decisioni prese dall’AI su vari gruppi di persone.
- Sicurezza e affidabilità: Questa si spiega da sé. Va evitato il rischio di malfunzionamenti o attacchi informatici.
- Controllo e responsabilità: È importante stabilire chi sia responsabile delle azioni compiute dall’intelligenza artificiale, per attribuire conseguenze in caso di problemi.
A queste “nuove leggi di Asimov” (che non sono di Asimov) vanno aggiunti regolamenti e standard etici globali: per questo serve cooperazione internazionale sullo sviluppo delle intelligenze artificiali, e non settarismo.
Geoffrey Hinton, uno dei “papà” dell’AI, ha definito l’intelligenza artificiale come “la nuova bomba atomica”. Non concordo, e non sono il solo. Potrebbe diventarlo, però, e sarebbe colpa nostra, non dell’intelligenza artificiale. Specie se la concepiamo noi per primi come una “clava” contro altri.
Leggi di Asimov, addio. Nuove leggi, fate presto
I primi veicoli autonomi, anzi: semi-autonomi hanno già il “potere” di uccidere persone inavvertitamente. Le armi come i droni killer possono, di fatto, uccidere addirittura agendo autonomamente. Parliamoci chiaro: attualmente l’AI non è in grado di comprendere le leggi, figuriamoci seguirle.
L’emulazione del comportamento umano non è ancora stata ben studiata, e lo sviluppo del comportamento razionale si è concentrato su aree limitate e ben definite. Due lacune gravissime, perché permetterebbero ad un’AI senziente (cosa che al momento, sottolineo, non esiste e a dispetto di quanto dicono i suoi pigmalioni non sappiamo se esisterà) di disinterpretare qualunque indicazione. E finire, in due semplici parole, fuori controllo.
Per questo, non so quanto tempo abbiamo. Un anno, dieci, l’eternità. So che, come fu per le leggi di Asimov serve che qualcuno risolva il problema di come prevenire i danni dell’IA agli esseri umani, e lo faccia adesso.
Skynet è solo finzione, ma nella finzione non ci ha dato scampo. E si sa: la fantascienza non prevede il futuro, ma spesso lo ispira.