Ray-Ban Meta: nuove funzioni AI per l’accessibilità visiva e supporto globale con “Call a Volunteer”
Accessibilità potenziata: Ray-Ban Meta evolve con funzioni vocali e supporto visivo in tempo reale
In occasione della Giornata globale della consapevolezza sull’accessibilità, Meta ha annunciato importanti aggiornamenti per i suoi occhiali smart Ray-Ban Meta, ponendo particolare attenzione agli utenti con disabilità visive.
Tra le novità più rilevanti, l’intelligenza artificiale integrata negli occhiali diventa ancora più contestuale, personalizzabile e reattiva, migliorando l’esperienza d’uso in ogni momento. Le nuove funzioni rendono l’interazione più naturale e accessibile, anche per chi ha una visione limitata o assente.
Una delle funzionalità più apprezzate, introdotta nel 2024 e ora estesa, è “Chiama un volontario” (Call a Volunteer), attivabile semplicemente con il comando vocale “Sii i miei occhi”. Questa funzione mette in contatto diretto l’utente con un volontario selezionato da una rete globale di oltre 8 milioni di persone, grazie alla partnership con Be My Eyes.
Dopo un primo rilascio in USA, Canada, Regno Unito, Irlanda e Australia, il servizio sarà ora disponibile in tutti i 18 Paesi dove è attiva Meta AI, permettendo a molti più utenti di accedere all’aiuto visivo in tempo reale.
Interazione senza mani e IA ambientale: Meta pensa davvero a tutti
La completa integrazione vocale consente agli occhiali Ray-Ban Meta di riconoscere comandi naturali e attivare funzioni avanzate senza l’uso delle mani.
Questa caratteristica è fondamentale per persone non vedenti o ipovedenti, che possono ora leggere etichette, trovare oggetti o orientarsi in ambienti nuovi semplicemente chiedendo aiuto a voce.
L’AI ambientale di Meta si adatta al contesto e fornisce risposte su oggetti, scritte e spazi, contribuendo a creare un assistente visivo intelligente sempre disponibile.
👉 Scopri gli occhiali Ray-Ban Meta
L’iniziativa fa parte della visione di Meta per rendere la tecnologia indossabile realmente inclusiva, ampliando l’accesso a strumenti digitali che possano migliorare concretamente la quotidianità.
Accessibilità estesa anche su XR, Horizon Worlds e WhatsApp
Gli sforzi di Meta sull’accessibilità non si fermano ai Ray-Ban smart glasses. L’azienda sta infatti investendo anche nell’ecosistema XR e nelle piattaforme social immersive come Quest e Horizon Worlds, dove sono già presenti strumenti come i sottotitoli in tempo reale e il riconoscimento vocale.
Un altro progetto d’avanguardia arriva direttamente su WhatsApp, dove è in fase di test un chatbot sviluppato da Sign-Speaks. Questo assistente AI è in grado di tradurre la lingua dei segni americana (ASL) in testo e viceversa, favorendo la comunicazione tra persone sorde o con disabilità uditive.
Il sistema utilizza le API di Sign-Speaks e i modelli linguistici Llama di Meta, a conferma dell’approccio AI-centric dell’azienda, orientato non solo all’innovazione ma anche all’inclusione.
Meta rende l’AI più umana e inclusiva, partendo dalla vista
Le nuove funzioni introdotte da Meta segnano un passo importante verso una tecnologia veramente accessibile. Il potenziamento degli occhiali Ray-Ban Meta, l’estensione della funzione Call a Volunteer e i progetti trasversali su XR e WhatsApp dimostrano l’impegno concreto nel rompere le barriere digitali.
In un mondo dove l’intelligenza artificiale può fare la differenza, Meta sceglie di puntare su interazioni vocali, contesto ambientale e supporto umano, creando una rete di aiuto capillare e sempre più globale. Con questi strumenti, la tecnologia non è più un ostacolo, ma una leva di autonomia e inclusione per milioni di persone.