Non ci siamo ancora ripresi dall’avvento di DALL-E2, Midjourney e compagni che Meta ha annunciato Make-A-Video, uno strumento che genera brevi video clip da descrizioni di testo. È il prossimo passo per il mondo dei contenuti generati dall’intelligenza artificiale.
È la prima volta che uno strumento di conversione da testo a video si avvicina così tanto al lancio finale. “La ricerca sull’intelligenza artificiale sta spingendo in avanti l’espressione creativa fornendo alle persone strumenti per creare nuovi contenuti in modo rapido e semplice”, si legge nel comunicato stampa di presentazione.
Make-A-Video è in grado di dare vita alla creatività con poche parole o righe di testo e di creare filmati distintivi ricchi di colori, personaggi e ambientazioni. Il sistema può anche trasformare fotografie o video esistenti in nuovi filmati simili.
Gran bel colpo, David
“È molto più difficile generare video rispetto alle foto,” dice il CEO di Meta Mark Zuckerberg in un post su Facebook. Ma va, non pensavo. “Oltre a generare correttamente ogni pixel, il sistema deve anche prevedere come cambieranno nel tempo. Make-A-Video risolve questo problema aggiungendo uno strato di apprendimento non supervisionato che consente al sistema di comprendere il movimento nel mondo fisico e applicarlo alla tradizionale generazione da testo a immagine”.
Il sito web di Make-A-Video presenta alcuni video di esempio realizzati dall’intelligenza artificiale, come “un cane che indossa un costume da supereroe con un mantello rosso che vola nel cielo” e “un orsacchiotto che dipinge”. È l’ennesima dimostrazione del progresso incredibilmente rapido di questi sistemi. Solo due? Tre anni fa? Queste cose erano praticamente fantascienza.
Make-A-Video, meraviglia (e ovviamente pericoli)
Poiché ci affideremo sempre più all’AI per generare arte, sarà sempre più importante che le aziende adottino politiche di trasparenza su questi algoritmi. Leggendo il paper della ricerca alla base di Make-A-Video, si evince che questa intelligenza artificiale è stata “addestrata” usando un sottoinsieme di un set di dati chiamato LAOIN, che comprende anche immagini poco pulite. Quali? Esecuzioni dell’ISIS, nudi non consensuali e così via. Meta assicura di aver setacciato bene questi dati, scartando in automatico immagini di nudo e altre false.
Sarà. Intanto la battaglia sull’etica prosegue.
L’introduzione del text-to-video come strumento per artisti e creatori complica anche la questione (già parecchio spinosa) sulla legittimità dell’arte generata dall’AI. Ad agosto, lo saprete, un tizio chiamato Jason Allen ha vinto un concorso artistico usando un’immagine creata da Midjourney, suscitando un vespaio di polemiche.
Anche le società che raccolgono immagini per uso commerciale (come Shutterstock o Getty Images) hanno chiuso la porta a questi contenuti. Nessuna questione etica, in questo caso. Solo legale. Chi è il proprietario delle immagini usate dagli algoritmi per allenarsi? Trasformare quelle immagini in cose nuove è o no una violazione del diritto d’autore? Le leggi non si sono ancora adeguate.
Nel frattempo lo tsunami continua: queste tecnologie stanno letteralmente travolgendo il pubblico, con la stessa velocità che mostrano nell’imparare a perfezionarsi. L’annuncio di ieri su Make-A-Video segue di appena un giorno il rilascio al pubblico di DALLE-2 da parte di OpenAI. L’azienda che ha sviluppato DALLE-2 ha rimosso la lista d’attesa del sistema, consentendo a chiunque di generare immagini a partire da righe di testo.
Ma anche se il pubblico ha accesso a sempre più strumenti di generazione dell’arte dell’IA, alcune delle domande etiche fondamentali sul loro utilizzo restano aperte: ed esigono risposta.