Buongiorno cari lettori di Tecnogalaxy, oggi vi andremo a parlare dell’intelligenza artificiale di Meta che permette di trasformare delle frasi in video.

Meta ha presentato un sistema di intelligenza artificiale che genera brevi video basati su messaggi di testo.

In cosa consiste questo progetto di Meta

Make-A-Video ti consente di digitare una serie di parole, come “Un cane che indossa un vestito da supereroe con un mantello rosso che vola nel cielo”, e quindi genera una clip di cinque secondi che, sebbene abbastanza accurata, ha l’estetica di un vecchio video con bassa qualità.

Sebbene l’effetto sia piuttosto grezzo, il sistema offre un’anteprima di ciò che verrà dopo per l’intelligenza artificiale generativa, ed è il prossimo ovvio passo dei sistemi di IA text-to-image che quest’anno hanno suscitato grande entusiasmo.

L’annuncio di Meta di Make-A-Video, che non è ancora stato reso disponibile al pubblico, probabilmente spingerà altri laboratori di intelligenza artificiale a rilasciare le proprie versioni. Solleva anche alcune grandi questioni etiche.

Solo nell’ultimo mese, il laboratorio di intelligenza artificiale OpenAI ha reso disponibile a tutti il ​​suo ultimo sistema di intelligenza artificiale da testo a immagine DALL-E e l’avvio di intelligenza artificiale Stability. Ma l’IA che converte il testo a video presenta alcune sfide ancora più grandi. Per primo, questi modelli richiedono una grande quantità di potenza di calcolo. Rappresentano un aumento computazionale ancora maggiore rispetto ai grandi modelli di IA text-to-image, che utilizzano milioni di immagini per l’addestramento, perché mettere insieme un solo breve video richiede centinaia di immagini. Ciò significa che solo le grandi aziende tecnologiche possono permettersi di costruire questi sistemi per il prossimo futuro. Sono anche più difficili da addestrare, perché non ci sono set di dati su larga scala di video di alta qualità abbinati al testo.

Come intende Meta migliorare il progetto

Per ovviare a questo problema, Meta ha combinato i dati di tre set di dati video e di immagini open source per addestrare il proprio modello. I set di dati di immagini di testo standard di immagini fisse etichettate hanno aiutato l’IA a imparare come vengono chiamati gli oggetti e che aspetto hanno. E un database di video lo ha aiutato a capire come dovrebbero muoversi quegli oggetti nel mondo. La combinazione dei due approcci ha aiutato Make-A-Video, descritto in un documento non sottoposto a revisione paritaria pubblicato oggi , a generare video da testo su larga scala.

Tanmay Gupta, ricercatore di computer vision presso l’Allen Institute for Artificial Intelligence, afferma che i risultati di Meta sono promettenti. I video condivisi mostrano che il modello può catturare forme 3D mentre la telecamera ruota. Il modello ha anche alcune nozioni di profondità e comprensione dell’illuminazione. Gupta dice che alcuni dettagli e movimenti sono fatti in modo decente e convincenti.

Tuttavia, “c’è molto spazio per migliorare la comunità di ricerca, soprattutto se questi sistemi devono essere utilizzati per l’editing video e la creazione di contenuti professionali”, aggiunge. In particolare, è ancora difficile modellare interazioni complesse tra oggetti.

Da parte sua, Meta promette che la tecnologia potrebbe “aprire nuove opportunità per creatori e artisti”. Ma man mano che la tecnologia si sviluppa, si teme che possa essere sfruttata come un potente strumento per creare e diffondere disinformazione e deepfake. Potrebbe rendere ancora più difficile distinguere tra contenuti reali e falsi online.

Il modello di Meta aumenta la posta in gioco per l’IA generativa sia tecnicamente che creativamente, ma anche “in termini di danni unici che potrebbero essere causati dai video generati rispetto alle immagini fisse”, afferma Henry Ajder, esperto di media sintetici.

“Almeno oggi, la creazione di contenuti effettivamente inaccurati in cui le persone potrebbero credere richiede un certo sforzo”, afferma Gupta. “In futuro, potrebbe essere possibile creare contenuti fuorvianti con pochi tasti.” 

Un portavoce di Meta afferma che non sta ancora rendendo il modello disponibile al pubblico e che “come parte di questa ricerca, continueremo a esplorare modi per perfezionare e mitigare ulteriormente i potenziali rischi”.

Leggi anche:

Ti è stato di aiuto questo articolo? Aiuta questo sito a mantenere le varie spese con una donazione a piacere cliccando su questo link. Grazie!

Seguici anche su Telegram cliccando su questo link per rimanere sempre aggiornato sugli ultimi articoli e le novità riguardanti il sito.

Se vuoi fare domande o parlare di tecnologia puoi entrare nel nostro gruppo Telegram cliccando su questo link.

© Tecnogalaxy.it - Vietato riprodurre il contenuto di questo articolo.