Google lancia AI Mode: ricerca con ragionamento avanzato ora per tutti
Cos’è AI Mode e perché cambia la ricerca
Google ha presentato AI Mode a marzo per gli utenti statunitensi. Ora, finalmente, l’azienda estende la funzione all’India e prepara un rollout globale. La novità usa Gemini 2.5 e un approccio “fan-out”: l’algoritmo scompone la domanda in sotto-quesiti, lancia ricerche parallele e unisce le risposte in un riepilogo logico.
Perciò, le query non si limitano a un singolo elenco di link, ma mostrano un paragrafo ragionato con rimandi cliccabili alle fonti. Inoltre, puoi chiedere subito un follow-up, proprio come faresti con un esperto.
Più spazio ai prompt complessi
Grazie al nuovo modello, AI Mode gestisce richieste fino a tre volte più lunghe rispetto al classico box di ricerca. Dunque, puoi dettagliare contesto, obiettivi e vincoli senza temere tagli di testo.
Inoltre, Google abilita i comandi vocali su Android e iOS. Basta toccare il pulsante microfono o pronunciare “Hey Google” per dettare l’intera domanda. Questo flusso riduce la frizione, soprattutto per chi cerca mentre cammina o guida.
Funzioni multimodali: testo, voce e immagini insieme
La nuova modalità non si ferma alle parole. Google Lens si integra in AI Mode e permette di allegare foto alla richiesta. Quindi, puoi fotografare un piatto esotico e domandare ingredienti, ricette o ristoranti simili nelle vicinanze.
Inoltre, le risposte includono anteprime visive quando serve. Per esempio, se chiedi “Mostrami i passaggi per cambiare la ruota di una bici”, l’output unisce descrizioni passo-passo e immagini illustrative.
La funzione appare nella barra di ricerca di Chrome, nell’app Google e persino su desktop via google.com. Quindi, l’accesso rimane immediato su ogni piattaforma.
Collegamenti alle fonti
Ogni paragrafo ragionato termina con link attivi che puntano agli articoli consultati. In questo modo, puoi verificare i dati, approfondire o citare le fonti. Quindi, la trasparenza aumenta rispetto ai vecchi snippet generici.
Infine, Google segnala i risultati con un badge “AI Mode” per evitare confusione con i tradizionali AI Overviews. Quest’ultime sono rapide sintesi, mentre la nuova funzione punta a un reasoning più profondo.
Disponibilità e prospettive globali
Google ha scelto l’India come primo paese extra-USA per via dell’alto tasso di adozione mobile. Quindi, milioni di utenti potranno testare l’assistente visuale su reti 4G e 5G. L’azienda ha già confermato che altri mercati riceveranno AI Mode “nelle prossime settimane”.
Per usare la funzione basta aggiornare l’app Google o Chrome all’ultima versione. Poi, tocca la nuova icona AI Mode accanto al campo di ricerca. In caso di errori, controlla di avere l’account impostato in lingua inglese o hindi, le prime due lingue supportate.
Prossimi passi di Mountain View
Di conseguenza, ci si aspetta:
- supporto per nuove lingue europee, inclusa l’italiana;
- miglioramenti al motore di citazione delle fonti;
- integrazione con Workspace per documenti, fogli e presentazioni;
- API dedicate agli sviluppatori che vorranno incorporare AI Mode nelle app.
Google conferma che la modalità resterà gratuita almeno nella fase beta. Inoltre, i dati usati per il training verranno gestiti secondo la privacy policy standard, senza vendite a terzi.
Un salto di qualità nella ricerca
AI Mode segna l’evoluzione di Google Search: da motore di link a consulente interattivo e multimodale. Con Gemini 2.5, l’utente ottiene risposte ragionate, verificabili e personalizzate in pochi secondi, usando testo, voce o foto. Perciò, chi lavora, studia o semplicemente vuole capire meglio il mondo avrà uno strumento più potente e accessibile.
Il debutto è solo l’inizio: presto l’icona comparirà anche sui nostri smartphone, pronta a cambiare – di nuovo – il modo in cui interroghiamo la rete.