Arriva la condivisione in tempo reale di schermo e fotocamera su Gemini Live

Dopo mesi di sviluppo, Google sta finalmente ampliando l’accesso alle funzioni avanzate di Project Astra all’interno di Gemini Live, l’assistente AI basato su Gemini 1.5. Tra le novità più attese ci sono la condivisione in tempo reale dello schermo e della fotocamera, che permettono all’AI di interagire con ciò che vedi sul display o attraverso la lente del telefono.
📲 A chi è disponibile?
- Gemini Advanced (abbonati Google One AI Premium)
- Dispositivi Android (non solo Pixel o Samsung, ma anche altri brand come Xiaomi)
- Rollout graduale (Google ha confermato che l’espansione è in corso)
👉 Se hai un abbonamento valido, controlla l’app Gemini per vedere se le nuove funzioni sono già attive.
🔍 Cosa puoi fare con queste funzioni?
1️⃣ Condivisione dello schermo
- Fai domande su ciò che vedi (es. “Come si risolve questo problema di matematica?” su un esercizio visualizzato)
- Analisi di app, siti web o documenti in diretta
2️⃣ Condivisione della fotocamera
- Chiedi spiegazioni su oggetti inquadrati (es. “Che pianta è questa?”)
- Traduci testi in tempo reale (simile a Google Lens, ma con risposte contestuali più avanzate)
👉 L’AI analizza i contenuti visivi e risponde con informazioni contestuali, sfruttando le capacità multimodali di Gemini 1.5.
📅 Perché ci è voluto così tanto?
Google aveva presentato Project Astra quasi un anno fa, ma l’implementazione ha richiesto tempo per:
✔ Ottimizzare l’elaborazione in tempo reale
✔ Garantire privacy e sicurezza (i dati rimangono crittografati)
✔ Adattare l’esperienza a diversi dispositivi Android
🚀 Cosa ci aspetta in futuro?
Google ha dichiarato che:
- Il rollout continuerà nelle prossime settimane
- Nuove funzionalità multimodali sono in sviluppo
- Potrebbe arrivare su altri dispositivi (iOS in futuro?)