Tra AI Mode, Project Astra, Gemini 2.5 e molte altre nuove funzionalità, Google sta rivoluzionando (di nuovo) l’approccio degli utenti del Web alle ricerche. Scopri qui cosa cambia dopo Google I/O 2025!
Tra entusiasmo e nuovi interrogativi, l’ultimo evento di Google - Google I/O 2025 - ha portato con sé numerose novità.
Lo sappiamo bene: è quando si spengono i riflettori che iniziano le riflessioni su quanto accaduto. Ecco, oggi siamo qui per capire - o almeno, provarci - quale potrebbe essere il futuro delle ricerche online dopo le innovazioni annunciate dalla big tech statunitense.
Il centro attorno al quale ruota tutto? L’intelligenza artificiale, ovviamente. I più attenti ricorderanno che già durante l'evento dell’anno scorso Google decise di rompere gli schemi annunciando l’introduzione di Google AI Overview.
Per intenderci, si tratta della sezione che appare quando effettuiamo una ricerca su Google - basata sull'intelligenza artificiale generativa - che offre risposte rapide e link alle fonti più autorevoli per approfondire la questione.
Questo è stato un primo significativo passo verso una modalità di ricerca sempre più caratterizzata da un’esperienza utente molto più fluida, informativa e rapida.
Parliamo di rapidità perché, in effetti, l’introduzione di Google AI Overview - nella gran parte dei casi - elimina la necessità da parte dell’utente di scorrere la SERP.
Ma torniamo a noi: stiamo per scoprire cos'è l'AI Mode di Google, la novità più chiacchierata dopo l'evento!
Considerando il riscontro positivo che Google AI Overview ha ottenuto - con oltre 1,5 miliardi di persone che utilizzano la ricerca potenziata dall'IA ogni mese - il team del colosso americano si è messo immediatamente all'opera.
Attraverso una raccolta di feedback da parte degli utenti, infatti, ha compreso che l'ideale sarebbe stato offrire un'esperienza di ricerca completamente guidata dall'intelligenza artificiale.
Da questo punto di partenza, nasce AI Mode: una modalità di ricerca del tutto innovativa potenziata da Gemini 2.5 che trasforma Google in qualcosa di molto più simile a un assistente personale che a un motore di ricerca tradizionale.
Una delle sue caratteristiche principali riguarda l'uso del fan out delle query, cioè una tecnica attraverso la quale una domanda posta dall'utente viene scomposta in molteplici sotto-domande, così che Google possa effettuare più ricerche parallelamente.
Se prima i tuoi utenti aprivano Google e chiedevano ‘Quali sono i migliori smartphone del 2025?’, AI Mode scompone la domanda in sottodomande su caratteristiche, prezzo, recensioni e ti risponde con un unico risultato completo.
Il risultato? Una risposta pressoché immediata, semplice da comprendere e molto più precisa rispetto all'output di una ricerca "tradizionale".
Ma quello che rende davvero interessante AI Mode è la possibilità di porre domande di follow-up per approfondire un argomento, ricevendo risposte sempre più pertinenti al nostro intento di ricerca. È come avere una conversazione con Google, dove ogni domanda si basa naturalmente sulla precedente.
E non finisce qui: AI Mode può agire anche come un AI Agent, svolgendo attività concrete per te - dall'acquisto di biglietti online alla pianificazione di viaggi.
Credo che questo rappresenti un cambio di paradigma significativo e sui riflettere: dal cercare informazioni, stiamo giungendo al punto in cui possiamo chiedere a Google di agire per noi!
Ma Google non si è fermata qui. Perché se AI Mode rivoluziona il "cosa" cerchiamo, Project Astra cambia completamente il "come" lo facciamo.
Immagina di aprire Google per toglierti un dubbio e, invece di digitare il tutto come al solito e cercare le informazioni più rilevanti per te, accendi il microfono e parli al tuo assistente o addirittura attivi la fotocamera e lasci che l’IA interagisca con il contesto in cui ti trovi.
Questo dipende dal fatto che Project Astra è un sistema multimodale che comprende ciò che gli viene detto, mostrato, ciò che vede intorno a sé e persino ciò che sente. Testo, immagine, video o voce: tutti i canali sono validi per interagire con questo assistente che rileva accenti diversi, lingue ed emozioni, offrendo risposte fluide in 24 lingue diverse.
Sicuramente una feature interessante è la capacità di avviare conversazioni in modo intuitivo e rispondere nel momento giusto, oltre che a poter svolgere compiti complessi, come la riproduzione video o la ricerca di testi/manuali sul Web.
In breve, Project Astra rappresenta l’ennesimo tassello che Google ha aggiunto per creare un ecosistema completo, integrato e che va oltre la semplice ricerca testuale grazie all'AI (ovviamente)!
In questo modo, Google può accompagnare l’utente dall’inizio alla fine del suo user journey: dalla fase di scoperta, a quella di acquisto, fino alla personalizzazione dell’esperienza utente!
Ora, parliamo di una delle implicazioni più concrete di tutto questo: come faremo shopping online.
Tra le altre novità, spicca Google shopping Graph (un dataset caratterizzato da +50mila prodotti) che verrà integrato in Gemini per offrire agli utenti consigli perfettamente in linea con le loro richieste.
Ma ciò che potrà davvero sancire un cambiamento netto rispetto al passato è la possibilità di poter “provare” i capi d’abbigliamento che ci interessano in maniera virtuale.
Come funziona? In modo davvero semplice: basta caricare una nostra foto e voilà, Google ci mostra come questi capi risulterebbero indossati, offrendoci un AI Agent che concluderà l'acquisto per noi.
Facciamo un esempio: se cerchi una giacca, l’AI ti suggerisce modelli compatibili con il tuo stile e ti mostra come ti starebbero direttamente sull’immagine caricata.
Tecnicamente, Google utilizza algoritmi di computer vision per mappare il nostro corpo dalla foto e applicare realisticamente texture, pieghe e ombre dei capi d'abbigliamento. Non parliamo di un semplice "photoshop automatico", ma di una simulazione che tiene conto di come il tessuto cade naturalmente sul corpo.
Credo che questa novità agisca in maniera diretta sul nostro processo decisionale. Rispetto all’attuale contesto, dove siamo sottoposti a un elevato quantitativo di informazioni che rallenta le nostre scelte, ora abbiamo Google che ci comprende, ci assiste e ci accompagna dall’inizio alla fine del nostro percorso!
La vera domanda adesso è: questo minaccia gli e-commerce online? Beh, molto dipende dalle proprie capacità di adattamento.
Da un lato, queste nuove funzionalità per lo shopping online possono limitare il traffico e la visibilità. D’altro lato, queste novità possono offrire nuove opportunità di visibilità: bisogna riuscire, in questo caso, a rientrare tra i suggerimenti dell’AI su Google.
Per quanto non sia facile, l’importante è riuscire a cogliere con il giusto anticipo le sfide che l’IA continua a porci per trasformare le possibili minacce in nuove occasioni di crescita.
Partiamo da un presupposto cruciale: quando Google ti permette di avere conversazioni complete e di ricevere risposte immediate senza mai visitare un sito web, il traffico organico tradizionale inevitabilmente ne risente.
Un ecosistema sempre più AI based sta ridimensionando la “SEO tradizionale”, ma dobbiamo mantenere la calma per diverse ragioni.
Prima tra tutte: l’AI Mode è attivo solo negli USA, con molte delle funzionalità raccontate ancora in fase di test. Quindi, avremo tutto il tempo per capire come questa funzionalità agisce sul comportamento degli utenti e sulla valutazione delle fonti.
Concretamente? É ora di iniziare a creare contenuti che rispondono a domande complete, non a singole keyword, usando un linguaggio naturale e semplice.
In più, sarà sempre più importante strutturare delle informazioni in modo che l'IA possa facilmente estrarle e citarle. E soprattutto, puntare tutto sull'autorevolezza: perché in un mondo dove l'IA sceglie le fonti, essere considerati affidabili diventa l'unico vero vantaggio competitivo. A questo proposito, ricordiamo che Google dà ancora particolare rilevanza a contenuti che rispettano il principio EEAT, acronimo che sta per: expertise, authoritativeness and trustworthiness.
Come si dice? Chi ben comincia è a metà dell’opera e il momento di iniziare a capire come agire è questo… Almeno fino ai prossimi aggiornamenti!