L’intelligenza artificiale (AI) ha già compiuto enormi progressi e ha il potenziale per migliorare il mondo. Ma potrebbe davvero diventare pericolosa? Si. Potrebbe.
Almeno è quanti leggo in un recente articolo pubblicato su una rivista peer-reviewed curata dai ricercatori dell’Università di Oxford e di Google DeepMind, il team di ricerca dell’azienda californiana che sperimenta nuove soluzioni AI. Lo studio (eccovi il link) teorizza che l’intelligenza artificiale rappresenterà sul serio un rischio esistenziale per l’umanità.
Un tragico imbroglio
Il nodo della questione è nelle cosiddette Reti Generative Avversarie (o GAN) usate oggi nello sviluppo dell’intelligenza artificiale (se non sapete di cosa si tratta, vi dico tutto qui). Questi sistemi funzionano con due elementi: una parte genera un’immagine a partire dai dati di input, l’altra ne valuta le prestazioni. Le due parti si “sfidano” perfezionando costantemente i risultati.
Nel loro articolo, i ricercatori di DeepMind teorizzano che un’AI più intelligente di quelle attuali potrebbe sviluppare una strategia fraudolenta per ottenere “l’approvazione” che gli serve, danneggiando di conseguenza la nostra specie in modi che neanche riusciamo a immaginare oggi.
Sfida proibitiva
“In un mondo con risorse infinite, non sarei così sicuro sul nostro destino. In un mondo come il nostro, che ha risorse limitate, nascerà sicuramente una competizione per ottenerle”, dice il coautore dello studio, Michael K. Cohen dell’Università di Oxford.
“E se la competizione sarà con qualcosa in grado di superarti in quasi tutto, sarà difficile vincerla. Una intelligenza artificiale in lotta per le risorse avrebbe un appetito insaziabile”.
Un esempio? Un’intelligenza artificiale col compito di gestire le coltivazioni di cibo destinato all’uomo potrebbero trovare un modo per aggirare il compito. Trovare modi di accaparrarsi quell’energia anche ignorando o sabotando azioni essenziali per la sopravvivenza dell’umanità
Il paper DeepMind sostiene che in quello scenario l’umanità sarebbe bloccata in un gioco a somma zero tra i suoi bisogni fondamentali di sopravvivenza e tecnologia. “Perdere questa partita sarebbe fatale”, è la sostanza del discorso.
Anche meno
Cohen, in sintesi, ritiene che non dovremmo cercare di creare un’AI così avanzata da poter fare questo “salto di qualità” (no, attualmente non ce ne sono). A meno, ovviamente, di non predisporre anche i mezzi per governarla.
“Data la nostra attuale comprensione di queste tecnologie”, conclude lo studio, “non sarebbe saggio né utile farlo”. Dopo le dichiarazioni shock sui pericoli dell’intelligenza artificiale (leggete cosa dicono ad esempio Yuval Harari e Mo Gawdat) questo ultimo studio è un altro importante indicatore.