Negli ultimi tempi, molti video meme sorprendenti realizzati con intelligenza artificiale (AI) sono diventati virali, come Harry Potter in una pubblicità di Balenciaga o un’inquietante versione di Will Smith a tavola con spaghetti. Questi evidenziano l’evoluzione rapida della tecnologia e i potenziali problemi delle sue applicazioni.
Lo scorso anno, strumenti come Craiyon (precedentemente Dall-E Mini) hanno permesso a chiunque di generare immagini sfruttando l’AI. Craiyon era un’imitazione open source di Dall-E 2 di OpenAI, pioniere nella trasformazione di richieste di testo in immagini realistiche. Da allora, Dall-E è stato reso pubblico e software come Midjourney e Dream Studio hanno sviluppato sistemi simili.
L’accesso e la sofisticazione di queste tecnologie costringono a ripensare il modo in cui consideriamo le immagini online. Tuttavia, gli algoritmi attuali faticano ancora a generare video convincenti da richieste testuali, poiché è difficile mantenere coerenza e senso. Ciò non significa che gli strumenti AI non stiano migliorando nell’editing video.
Runway ML, una startup che sviluppa strumenti AI per la creazione e l’editing di immagini e video, ha recentemente lanciato una tecnica efficiente per applicare modifiche stilistiche ai video. L’azienda Luma Ai utilizza campi di radianza neurale per trasformare fotografie 2D in scene 3D dettagliate.
Questi progressi suggeriscono un punto di svolta nella creazione di video AI. Come accaduto per le immagini, i video AI potrebbero migliorare significativamente, portando la tecnologia in nuove direzioni. Gli strumenti di Runway sono stati utilizzati da professionisti del cinema e anche il regista Darren Aronofsky è un fan. I progressi dell’AI generativa potrebbero diventare pericolosi in un’epoca di social media e deepfake. Per questo dobbiamo considerare seriamente come l’AI generativa possa riproporre stereotipi nocivi e come, presto, potremmo non essere più in grado di fidarci dei filmati online.