Microsoft sta per lanciare GPT-4, l’aggiornamento dell’AI che potrebbe rendere ChatGPT in grado di creare video a partire da semplici messaggi di testo. Andreas Braun, CTO di Microsoft Germania, ha annunciato la notizia durante l’evento “AI in Focus – Digital Kickoff”. GPT-4 sarà “multimodale” e permetterà all’intelligenza di tradurre il testo in altre tipologie di media. Braun ha spiegato che il nuovo aggiornamento offrirà “possibilità completamente diverse, ad esempio i video”. Mi aspetto francamente anche immagini e suoni: probabilmente anche musica.
Non il primo, ma il migliore
Tra gli esperimenti nel campo dell’AI finiti sotto i riflettori ci sono già ben due sistemi in grado di produrre video a partire da istruzioni di testo. Si tratta di Make-A-Video, AI di proprietà di Facebook Meta (ne abbiamo parlato qui), e Dreamix, sviluppato da Google (ne abbiamo parlato qui). A quanto pare, però, la prossima versione di ChatGPT alimentata da GPT-4 potrà fare di più.
Microsoft ha fornito un esempio di utilizzo: lo scenario è quello di un call center. Nel modello illustrato da Braun, l’intelligenza artificiale converte automaticamente le conversazioni telefoniche in testo, risparmiando tempo e fatica ai dipendenti. Si tratta di un semplice assaggio: le caratteristiche di GPT-4 sono tutte da scoprire e valutare, e lo faremo molto presto. Quando? A partire già dalla prossima settimana, fa sapere il colosso di Redmond.
GPT-4, un’altra pagina da voltare
Per quanto i recenti sviluppi ci stiano abituando a raccogliere le novità piuttosto rapidamente, le cose si fanno sempre più veloci. GPT-4 è appena sull’uscio, e già si prefigurano gli sviluppi ulteriori di questa tecnologia. L’intelligenza artificiale comprenderà il linguaggio naturale con un livello di complessità e raffinatezza ancora maggiore. Saprà elaborare e interpretare informazioni in modo sempre più preciso e contestuale, adattandosi rapidamente e rispondendo a situazioni “dinamiche”.
Soprattutto, imparerà più rapidamente: la capacità di “esternare” attraverso un complesso multimodale aggiungerà altri “sensi” all’AI. All’orizzonte c’è l’integrazione di questi sistemi con altre tecnologie avanzate come la visione artificiale, o la robotica. Non avremo robot “senzienti”, ma saranno (e questo è sicuro) enormemente più avanzati di tutti quelli che abbiamo visto in giro da quando la robotica ha iniziato a sfornare tentativi.
Che dire: non vedo l’ora di “mettere sotto i denti” anche GPT-4. E voi?