
Meta ha creato uno strumento che permette di analizzare le foto
Buongiorno cari lettori di Tecnogalaxy, oggi vi andremo a parlare di un nuovo strumento AI di Meta che permette di analizzare le foto in maniera innovativa.
L’annuncio arriva mentre il gigante dei social media distoglie sempre più la sua attenzione dalla creazione di un Metaverso basato sulla realtà virtuale per incorporare funzionalità di intelligenza artificiale su piattaforme come Instagram, Facebook, Messenger e WhatsApp.
Modifica di foto, analisi di filmati di sorveglianza e comprensione delle parti di una cella. Queste attività hanno una cosa in comune: devi essere in grado di identificare e separare diversi oggetti all’interno di un’immagine. Tradizionalmente, i ricercatori devono ricominciare da zero ogni volta che vogliono analizzare una nuova parte di un’immagine.
Meta mira a cambiare questo laborioso processo essendo lo sportello unico per ricercatori e sviluppatori web che lavorano su tali problemi. La società ha rilasciato un modello AI, chiamato “Segment Anything Model” o “SAM” attraverso il quale gli utenti possono creare “ritagli” o segmenti di qualsiasi elemento in un’immagine facendo clic su un punto o disegnando una casella attorno all’oggetto. Lo strumento può essere utilizzato a scopo di ricerca, per l’editing o anche per dare un senso agli oggetti indossando un visore VR, rendendo più veloce ed efficiente la suddivisione di diverse parti di un’immagine.
La società tecnologica ha lanciato al pubblico lo strumento basato su browser e ha anche reso open source il suo modello di visione artificiale, che sostiene sia addestrato sul “più grande set di dati di segmentazione” di 1,1 miliardi di maschere di segmentazione (“maschere” sono parti diverse di un’immagine) e 11 milioni di immagini concesse in licenza da una grande azienda fotografica. Meta non ha rivelato da quale società ha concesso in licenza le immagini. Meta AI, il braccio di ricerca sull’intelligenza artificiale del gigante dei social media, ha lavorato con 130 annotatori umani con sede in Kenya per creare il set di dati, che è stato realizzato attraverso una combinazione di etichettatura manuale e automatica di un miliardo di parti di milioni di immagini.
Le tecnologie di riconoscimento degli oggetti e visione artificiale esistono da anni e sono già integrate in vari dispositivi come telecamere di sorveglianza e droni . I negozi Amazon, ad esempio, utilizzano il riconoscimento degli oggetti per rilevare gli articoli che metti nel carrello e i veicoli autonomi lo utilizzano per percepire l’ambiente circostante. Startup contemporanee come Runway e operatori storici come Adobe hanno commercializzato la loro capacità di utilizzare l’intelligenza artificiale per rilevare e selezionare diversi oggetti all’interno di un’immagine per i loro utenti creativi. Man mano che sono emersi sgargianti chatbot di intelligenza artificiale generativa, l’obiettivo per i ricercatori di intelligenza artificiale di Meta era quello di unire il progresso nei modelli di base dell’IA con il regno dormiente delle tecnologie di visione artificiale.
“Non direi che questa è una nuova area della tecnologia. La segmentazione degli oggetti esiste già, quindi non direi che si tratta di una nuova funzionalità. Fondamentalmente, penso che il loro approccio all’utilizzo di modelli di base sia nuovo e la dimensione del set di dati su cui si stanno allenando potrebbe essere nuova”, afferma Paul Powers, CEO e fondatore di Physna, un motore di ricerca per oggetti 3D.
Ma ciò che Meta spera è che rilasciando questi strumenti in modo più ampio, incoraggerà gli utenti a costruire sul loro modello generalizzato per casi d’uso più specifici in campi come la biologia e l’agricoltura.
L’annuncio arriva contemporaneamente al fatto che Meta, secondo quanto riferito, prevede di utilizzare l’IA generativa per le pubblicità su Instagram e Facebook. Non volendo perdere l’entusiasmo per l’IA, alla fine di febbraio, il CEO Mark Zuckerberg ha annunciato che sta creando un nuovo team di prodotto focalizzato esclusivamente sulla creazione di strumenti di intelligenza artificiale generativa come personaggi artificiali, filtri Instagram e funzionalità basate su chat di WhatsApp e Instagram. Secondo quanto riferito, Zuckerberg trascorre la maggior parte del suo tempo con il nuovo team di intelligenza artificiale.
Ci sono limiti inun modello di visione artificiale addestrato su un database di immagini bidimensionali, dice Powers. Ad esempio, affinché lo strumento rilevi e selezioni un telecomando tenuto capovolto, dovrebbe essere addestrato su diversi orientamenti dello stesso oggetto. I modelli addestrati su immagini 2D non aiuteranno a rilevare immagini parzialmente coperte o parzialmente esposte, afferma. Ciò significa che non identificherebbe con precisione oggetti non standardizzati attraverso un visore AR/VR o non rileverebbe oggetti parzialmente coperti negli spazi pubblici se utilizzato da un produttore di veicoli autonomi.
Per l’azienda, che si è rinominata da Facebook a Meta alla fine del 2021 e ha firmato il suo impegno per il Metaverso, l’uso più ovvio di questo strumento di rilevamento degli oggetti è nei suoi spazi di realtà virtuale come in VR online Horizon Worlds.
Leggi anche:
- I vantaggi in termini di sicurezza derivanti dall’utilizzo delle VDR nelle transazioni immobiliari
- Cos’è il cashback: caratteristiche, utilità, settori
- Wire ha appena ricevuto un finanziamento di 30 milioni
- Woolsocks: Regali di Natale GRATIS
- Come effettuare il Librabet login ed ottenere i premi
Ti è stato di aiuto questo articolo? Aiuta questo sito a mantenere le varie spese con una donazione a piacere cliccando su questo link. Grazie!
Seguici anche su Telegram cliccando su questo link per rimanere sempre aggiornato sugli ultimi articoli e le novità riguardanti il sito.
Se vuoi fare domande o parlare di tecnologia puoi entrare nel nostro gruppo Telegram cliccando su questo link.
© Tecnogalaxy.it - Vietato riprodurre il contenuto di questo articolo.
I PIÙ LETTI
ARTICOLI RECENTI