Gli occhiali intelligenti Ray-Ban Meta stanno ottenendo funzionalità di ricerca visiva basate sull’intelligenza artificiale

Di Alessio Perini 3 minuti di lettura
gli-occhiali-intelligenti-ray-ban-meta-stanno-ottenendo-funzionalita-di-ricerca-visiva-basate-sull’intelligenza-artificiale
Gli occhiali intelligenti Ray-Ban Meta stanno ottenendo funzionalità di ricerca visiva basate sull’intelligenza artificiale

Gli occhiali intelligenti Ray-Ban Meta stanno per ricevere alcuni potenti aggiornamenti grazie ai miglioramenti all’assistente AI del social network. L’azienda è finalmente aggiungendo supporto per informazioni in tempo reale all’assistente di bordo, e sta iniziando a testare nuove funzionalità “multimodali” che gli consentono di rispondere a domande in base al tuo ambiente.

Fino ad ora, Meta AI aveva un “limite di conoscenza” fissato a dicembre 2022, quindi non poteva rispondere a domande su eventi attuali o cose come punteggi di gioco, condizioni del traffico o altre domande che sarebbero particolarmente utili mentre si è in movimento. Ma ora le cose stanno cambiando, secondo il CTO di Meta Andrew Bosworth, il quale ha affermato che tutti gli occhiali intelligenti Meta negli Stati Uniti saranno ora in grado di accedere a informazioni in tempo reale. Il cambiamento è alimentato “in parte” da Bing, ha aggiunto.

Separatamente, Meta sta iniziando a testare una delle capacità più intriganti del suo assistente, che chiama “AI multimodale”. Le caratteristiche, innanzitutto previsto durante Connect, consenti a Meta AI di rispondere a domande contestuali sull’ambiente circostante e ad altre domande in base a ciò che stai guardando attraverso gli occhiali.

Meta

Gli aggiornamenti potrebbero fare molto per rendere Meta AI meno ingannevole e più utile, che è stata una delle mie principali lamentele nel mio revisione iniziale degli occhiali intelligenti altrimenti impressionanti. Sfortunatamente, probabilmente passerà ancora del tempo prima che la maggior parte delle persone con gli occhiali intelligenti possa accedere alla nuova funzionalità multimodale. Bosworth ha affermato che la versione beta ad accesso anticipato sarà disponibile inizialmente negli Stati Uniti solo per un “piccolo numero di persone che aderiranno”, con un accesso ampliato presumibilmente in arrivo nel 2024.

Entrambi Marco Zuckerberg ha condiviso alcuni video delle nuove funzionalità che danno un’idea di ciò che potrebbe essere possibile. Sulla base delle clip, sembra che gli utenti saranno in grado di attivare la funzione con comandi che iniziano con “Ehi Meta, guarda e dimmi”. Zuckerberg, ad esempio, chiede a Meta AI di guardare una maglietta che ha in mano e di chiedere suggerimenti sui pantaloni che potrebbero abbinarsi. Ha anche condiviso screenshot che mostrano Meta AI che identifica l’immagine di un frutto e traduce il testo di un meme.

In un video pubblicato su Threads, Bosworth ha affermato che gli utenti potrebbero anche chiedere a Meta AI informazioni sull’ambiente circostante, nonché domande più creative come scrivere didascalie per le foto che hanno appena scattato.

TAGGATO:
Condividi questo articolo
Exit mobile version