Potremmo non aver ancora raggiunto l’intelligenza artificiale generale (AGI), ma secondo uno dei principali esperti nel campo teorico, potrebbe arrivare prima di quanto pensiamo. Secondo l’informatico ed esperto Ben Goertzel, sebbene sia improbabile che l’IA di livello umano o superumano venga costruita prima del 2029 o 2030 c’è la possibilità che possa accadere già nel 2027.
Una prospettiva tanto affascinante quanto inquietante, che solleva interrogativi profondi sul futuro dell’umanità di fronte all’ascesa delle macchine intelligenti.
L’incertezza dell’intelligenza artificiale generale
Goertzel, fondatore di SingularityNET, è ben consapevole delle incognite che circondano lo sviluppo dell’AGI. “Nessuno ha ancora creato un’intelligenza artificiale generale di livello umano; nessuno ha una solida conoscenza di quando ci arriveremo”, ha detto al pubblico della più recente conferenza cui ha preso parte, a Panama.
Eppure, nonostante queste incertezze, Goertzel ritiene plausibile che l’AGI di livello umano possa essere raggiunta entro il 2027, e comunque non più tardi del 2032. Una previsione che, se si avverasse, avrebbe implicazioni profonde per il nostro futuro.
Dalla AGI alla superintelligenza
La vera sfida, secondo Goertzel, inizia una volta raggiunta l’AGI. “La mia opinione è che una volta arrivati all’AGI di livello umano, in pochi anni si potrebbe ottenere un’AGI radicalmente superumana, a meno che l’AGI non minacci di frenare il proprio sviluppo per il proprio conservatorismo”, ha aggiunto.
L’idea è che un’IA in grado di fare introspezione nella propria “mente” potrebbe fare ingegneria e scienza a un livello umano o superumano, creando intelligenze sempre più avanzate in un processo di auto-miglioramento ricorsivo.
È il concetto di “esplosione di intelligenza”, spesso associato alla singolarità tecnologica.
Le previsioni degli esperti
Goertzel non è il solo, e non è il primo a prevedere l’avvento dell’intelligenza artificiale generale nelle sue previsioni. Previsioni che, peraltro, stanno via via convergendo. Geoffrey Hinton, noto come il “padrino dell’IA” ed ex dipendente di Google, ha dichiarato nel maggio dello scorso anno di prevedere, “senza molte certezze”, che l’AGI sia a una distanza tra i 5 e i 20 anni da oggi. La sua previsione precedente parlava di 30-50 anni.
Shane Legg, co-fondatore di Google DeepMind, ha reiterato la sua previsione di oltre un decennio fa che c’è il 50% di probabilità che gli umani inventino l’AGI entro il 2028. Paul Pallaghy, infine, arriva a dare per certa l’intelligenza artificiale generale per il 2028, con la possibilità che venga raggiunta addirittura nel 2026.
Previsioni che, pur con le dovute cautele, indicano un crescente consenso tra gli esperti sulla prossimità di questo traguardo.
I progressi dei modelli linguistici
Fino a pochi anni fa, l’AGI come descritta da Goertzel e dai suoi colleghi sembrava un sogno irrealizzabile. Ma con i progressi dei grandi modelli linguistici (LLM) realizzati da OpenAI da quando ha lanciato ChatGPT alla fine del 2022, quella possibilità sembra sempre più vicina. Goertzel è rapido a sottolineare che gli LLM da soli non porteranno all’AGI, ma è innegabile che rappresentino un passo significativo in quella direzione. La capacità di questi sistemi di comprendere e generare linguaggio naturale in modo sempre più sofisticato è un presupposto fondamentale per l’emergere di un’intelligenza di livello umano.
I limiti e i rischi dell’IA
Naturalmente, ci sono molte riserve su ciò che Goertzel sta predicando. Anche un’IA superumana, secondo gli standard umani, non avrebbe una “mente” come la nostra. Dall’altro lato ci sono i timori esistenziali legati all’emergere di un’intelligenza radicalmente superiore alla nostra, in grado di superarci in ogni campo.
Come possiamo garantire che una tale entità abbia un senso morale allineato con i valori umani e agisca per il nostro bene?
AGI, verso un futuro incerto
Nonostante queste riserve, la teoria di Goertzel è affascinante e non può essere del tutto screditata, soprattutto alla luce dei rapidi progressi dell’IA negli ultimi anni. Che l’AGI arrivi nel 2027, nel 2030 o oltre, sembra sempre più probabile che l’umanità si troverà prima o poi a confrontarsi con intelligenze artificiali di livello umano o superiore.
Di fronte a questa prospettiva, è essenziale che riflettiamo profondamente sulle implicazioni dell’AGI e della superintelligenza. Quali sono i potenziali benefici e rischi? Come possiamo indirizzare lo sviluppo di queste tecnologie verso esiti positivi per l’umanità? E come cambierà la nostra stessa concezione di ciò che significa essere umani in un mondo in cui non siamo più l’apice dell’intelligenza?
Non ci sono risposte facili a queste domande, ma è imperativo che iniziamo a porcele e a cercare soluzioni. L’avvento dell’AGI e della superintelligenza potrebbe essere il più grande test che l’umanità abbia mai affrontato. Speriamo di superarlo tutti insieme, come società.