C’erano una volta due fratelli bellissimi, praticamente due modelli: sul serio, uno più bello dell’altro, ma è solo del primo che voglio parlarvi. Intanto ve li presento.
Uno si chiamava GPT-3, e si occupava di generare testo. Era il più bravo di tutti a farlo. L’organizzazione non-profit OpenAI, fondata da Elon Musk e Sam Altman, lo aveva creato per promuovere la ricerca sull’intelligenza artificiale per il bene dell’umanità.
L’altro fratello si chiamava Google GMP-3, ed era un vero modello. Linguistico, intendo. Un modello linguistico è un meccanismo che prevede la parola successiva sulla base di quelle precedenti. Usa un approccio di rilevamento automatico, simile alla funzione T9 nei telefoni cellulari, e può produrre testo per molte pagine.
In che modo intendevano guidare il pianeta? Ora ve lo dico. Intanto però parliamo del modello più bello tra i due.
Perchè GPT-3 era più bello?
Anzitutto, va detto, GPT-3 era più bello e muscoloso di suo papà, GPT-2, nato nel 2019, che era addestrato su 1,5 miliardi di parametri. E non vi dico di suo nonno, GPT, che nel 2018 fu addestrato su 117 milioni di parametri. GPT-3 era addestrato, pensate, su 175 miliardi di parametri, e poteva fare cose che nessun altro sarebbe stato in grado di fare. Risolveva problemi, scriveva poesie e prose, notizie e articoli di blog (ad esempio, siete sicuri che non stia scrivendo anche questo?). Per farlo, aveva solo bisogno di una breve descrizione di cosa scrivere, e magari un paio di esempi.
Non è tutto: avendo studiato su moltissimi libri, GPT-3 poteva assumere le sembianze di qualunque personaggio storico. Poteva iniziare a parlare come Hegel, ed esprimere pareri proprio come avrebbe fatto il vero filosofo. O scrivere una intera conversazione tra due scienziati (Come Alan Turing e Claude Shannon) e alcuni personaggi di Harry Potter.
Come faceva a farlo?
Per addestrarlo, gli sviluppatori di GPT-3 hanno usato davvero di tutto. Tutta la Wikipedia inglese, ad esempio, e anche romanzi e pagine web. Articoli di giornale, poesie, guide di programmazione, fanfiction, testi religiosi. Perfino informazioni sull’America Latina, o libri di testo pseudoscientifici e saggi sulla cospirazione.
GPT-3, come detto in precedenza, operava sulla base del rilevamento automatico. Quando un utente digitava un testo, il modello esaminava la lingua e incorporava il predittore di testo per produrre un risultato probabile. Anche senza ulteriori regolazioni o addestramenti, il modello produceva un testo che si avvicinava moltissimo a quello che una persona reale avrebbe scritto.
E poi come è finita la favola?
Potrei parlare ancora di tutte le cose che GPT-3 ha realizzato. Potrei dirvi, ad esempio, che GPT-3 ha già aiutato le persone a concentrarsi su compiti più essenziali rendendo il loro lavoro più facile. Che ha mostrato la capacità di influenzare le prestazioni umane, riducendo il lavoro di routine degli umani. Di come ci ha permesso di programmare e realizzare progetti di intrattenimento, di crescita personale, di affari, di ricerca scientifica, ingegneria, economia, politica. Di come un giorno iniziò a diventare senziente.
La verità, però, è che la favola non è ancora finita. A dire il vero è appena iniziata: GPT-3, il più bel modello mai visto, sta diventando velocemente grande, e presto potrebbe diventare papà. Avete anche solo un’idea vaga di quello che potrebbe realizzare GPT-4?