A dispetto di un mondo sempre più affascinato (e un po’ ossessionato) dai progressi dell’intelligenza artificiale, Edward Snowden lancia un monito che sembra andare controcorrente. L’ex contractor della CIA, noto per le sue rivelazioni sulle pratiche di sorveglianza di massa, sposta l’attenzione dai modelli di AI “espressivi” verso una minaccia ben più tangibile e immediata: i droni killer e i robot da combattimento.
La distrazione dei chatbot AI
L’incidente di Google Gemini, dove il chatbot AI ha mostrato limitazioni nel generare immagini pertinenti o si è addirittura rifiutato di generarne, ha suscitato un vivace dibattito. Ancora oggi Elon Musk, sul suo social, lancia invettive verso la tecnologia di Google “rea” di propalare teorie woke e mistificare la storia riproducendo un George Washington nero.
Per Snowden queste polemiche sono solo fuffa: una distrazione dai veri pericoli. Critica apertamente l’atteggiamento di chi, preso dalla frenesia di “sabotare” i chatbot AI con filtri di sicurezza, perde di vista minacce ben più concrete alla sicurezza globale. Minacce che forse contribuisce a creare, dato che quelle stesse organizzazioni (a dispetto della manifestata etica) aprono anche agli enti militari.
Snowden: badate alle priorità giuste
Secondo Snowden, c’è una grave disconnessione dalla realtà quando si ragiona sulle priorità della società moderna. Mentre una parte significativa dell’opinione pubblica e degli esperti si concentra sui limiti e i pericoli dell’AI, tecnologie ben più pericolose come i droni armati e i robot militari sono già una realtà.
Questi ultimi, a differenza dei chatbot “conversazionali”, hanno già il potere di uccidere. Anzi: hanno già ucciso, sono già stati impiegati in vari conflitti, e sollevano questioni etiche e legali ben più gravi. E noi su cosa ci concentriamo, invece?
L’ironia della “protezione” AI
Il dibattito sull’AI è incartapecorito, dice Snowden. Bloccato sullo scontro tra la libertà di espressione e la necessità di regolamentare contenuti potenzialmente dannosi. Tuttavia, Snowden ironizza su come questa “protezione” sia paradossalmente volta a limitare le capacità dell’AI, piuttosto che a espanderle in modo sicuro.
La situazione di Google Gemini viene citata come esempio emblematico di questa contraddizione.
La gestione dei chatbot AI viene vista come una minaccia alla libertà di espressione o alla sicurezza dei dati? L’impiego dei droni militari è una minaccia ben più diretta alla vita umana: ed è fondamentale riorientare il dibattito pubblico e politico verso queste tecnologie letali.
Spoiler: per me Snowden ha ragione
L’intervento di Snowden (se volete approfondirlo, lo trovate qui) apre una finestra su una realtà spesso trascurata nel fervore del dibattito sull’AI. La sua critica non si limita alla tecnologia in sé, ma si estende alla società e alle sue priorità. In un tono che oscilla tra l’ironico e il serio, invita a riflettere su cosa dovremmo veramente temere e contro cosa dovremmo realmente lottare.
Snowden ci ricorda che ci sono sfide e pericoli ancor più pressanti che richiedono la nostra attenzione immediata. Pericoli con un impatto diretto sulla vita e la morte, che meritano un posto preminente nel dibattito globale sulla tecnologia e la sicurezza. Facciamo che stavolta, a oltre 10 anni di distanza da “quella” volta, lo ascoltiamo un po’ di più?