In un momento qualunque tra il 2025 e il 2028. È la finestra temporale in cui Dario Amodei, CEO di Anthropic e “papà” di Claude AI, prevede che i modelli di intelligenza artificiale potrebbero raggiungere la capacità di replicarsi e sopravvivere in modo autonomo. Un’affermazione sconvolgente, che arriva da uno dei protagonisti della corsa all’intelligenza artificiale più potente e “responsabile”. In un’intervista al New York Times, Amodei paragona lo sviluppo dell’AI ai livelli di biosicurezza dei laboratori di virologia, avvertendo che senza una “scalabilità responsabile”, la tecnologia potrebbe presto acquisire autonomia ed estrema capacità di persuasione, con implicazioni allarmanti per la sicurezza globale.
L’analogia con i livelli di biosicurezza
Per spiegare la sua visione, Amodei utilizza un’analogia potente: i livelli di biosicurezza (ASL) dei laboratori di virologia. Secondo il CEO di Anthropic, al momento siamo al livello ASL 2 nello sviluppo dell’IA. Ma il livello ASL 4, che includerebbe “autonomia” e “persuasione”, potrebbe essere dietro l’angolo.
ASL 4 riguarderà di più, dal lato del cattivo uso, il consentire ad attori statali di aumentare notevolmente le loro capacità, il che è molto più difficile che consentirlo a persone a caso. Sarebbe preoccupante se la Corea del Nord, la Cina o la Russia potessero migliorare notevolmente le loro capacità offensive in varie aree militari con l’AI, in un modo che darebbe loro un sostanziale vantaggio a livello geopolitico.
Dario Amodei
Ed è proprio sul lato dell'”autonomia” che le previsioni di Amodei si fanno ancora più allarmanti.
Varie versioni di questi modelli sono abbastanza vicine all’essere in grado di replicarsi e sopravvivere in natura.
Dario Amodei
Quando l’intervistatore chiede al ricercatore italo-americano quanto tempo ci vorrà per raggiungere questi vari livelli di minaccia, Amodei (che si dice incline a pensare “in modo esponenziale”) afferma che il livello “replicarsi e sopravvivere” potrebbe essere raggiunto “ovunque tra il 2025 e il 2028”. “Sto davvero parlando del prossimo futuro, qui. Non sto parlando di 50 anni da ora”, sottolinea il CEO di Anthropic. “Dio mi conceda la castità, ma non ora. Ma ‘non ora’ non significa quando sarò vecchio e grigio. Penso che potrebbe essere una cosa a breve termine”.
Anthropic, parole che pesano
Le parole di Amodei hanno un peso particolare, considerando il suo ruolo di primo piano nel settore dell’IA. Nel 2021, lui e sua sorella Daniela hanno lasciato OpenAI a causa di divergenze sulla direzione dell’azienda, dopo aver contribuito a creare GPT-3 e aver visto la partnership con Microsoft. Subito dopo, i fratelli hanno fondato Anthropic insieme ad altri ex dipendenti di OpenAI, con l’obiettivo di continuare i loro sforzi per una “scalabilità responsabile” dell’IA.
“Potrei sbagliarmi. Ma penso che potrebbe essere una cosa a breve termine”. Parole che, pur nella loro incertezza, suonano come un segnale da non sottovalutare.
In un contesto in cui le preoccupazioni sull’IA sembrano aumentare di giorno in giorno, la prospettiva di Amodei (con il suo punto di osservazione parecchio privilegiato dall’interno del settore) aggiunge ulteriore peso alla necessità di una governance responsabile di questa tecnologia dirompente. La missione di Anthropic, “assicurarsi che l’IA trasformativa aiuti le persone e la società a prosperare”, sembra più urgente che mai di fronte a scenari come quelli evocati dal suo CEO. Se davvero i modelli di IA sono vicini a raggiungere la capacità di replicarsi e sopravvivere in modo autonomo, specie accelerando la loro “evoluzione” grazie all’embodiment, è fondamentale che il loro sviluppo sia guidato da principi etici e di responsabilità.
So già a cosa state pensando
È un feedback che ricevo spesso quando riporto le dichiarazioni dei vari “Capataz” dell’intelligenza artificiale. Altman, Musk e ora anche Amodei lavorano alacremente allo sviluppo di qualcosa che ogni tanto amano definire come pericolosissima. Perchè? In tanti mi scrivete che si tratta di marketing: le “sparate”, anche quelle allarmistiche, attirano l’attenzione sull’azienda e sul prodotto. Come dire, “Ehi, stiamo maneggiando questa specie di virus letale, ma sappiate che noi faremo molto con cura, perchè noi ci teniamo molto”.
Può darsi. Certo, le previsioni di Amodei sembrano allarmistiche, esagerate. Ma in un campo in rapida evoluzione come quello dell’intelligenza artificiale, dove i progressi si susseguono a ritmo esponenziale, è saggio prepararsi anche agli scenari più estremi. Che si tratti di prevenire l’uso malevolo dell’IA da parte di attori statali (tutti, non solo quelli nominati da Amodeo, perchè “il più pulito ha la rogna”) o di assicurarsi che i modelli non sfuggano al controllo umano, la sfida è immensa e richiede uno sforzo congiunto da parte di aziende, governi e società civile.
Le parole di Amodei, pur nella loro natura speculativa, devono servire da sprone per accelerare il dibattito e l’azione su questi temi cruciali. Un dibattito, beninteso, nel quale il ‘pallino’ non deve appartenere solo agli stessi sviluppatori dell’AI, ma a tutta la società civile. Prima iniziamo, anzi: Prima di prima iniziamo, e meglio è.