La conferenza Google I/O 2025 ha segnato una svolta epocale nel mondo dell’intelligenza artificiale, con annunci che ridefiniscono il futuro di Gemini, della ricerca e delle applicazioni. Google ha presentato innovazioni che promettono di trasformare il modo in cui interagiamo con la tecnologia, rendendo l’IA più utile, personalizzata e potente. Ecco tutto ciò che è emerso dall’evento.
Gemini 2.5: potenziamenti e nuove funzionalità
Gli aggiornamenti ai modelli Gemini sono stati al centro dell’attenzione. Gemini 2.5 Pro si conferma un punto di riferimento per la codifica e l’apprendimento, con l’introduzione della modalità sperimentale Deep Think, che sfrutta tecniche di ragionamento avanzato per spingere le prestazioni al limite. Questa funzionalità sarà inizialmente disponibile per i tester fidati tramite l’API Gemini.
Gemini 2.5 Flash, il modello ottimizzato per velocità ed efficienza, ha ricevuto miglioramenti significativi in ragionamento, multimodalità e gestione di contesti lunghi. La nuova versione è già accessibile in anteprima su Google AI Studio, Vertex AI e nell’app Gemini, con rilascio generale previsto per giugno. Entrambe le versioni supporteranno output audio nativo e interazioni avanzate con il computer grazie al Project Mariner.
Tra le novità presentate spiccano anche:
- Gemma 3n: un modello multimodale aperto, veloce ed efficiente, progettato per dispositivi mobili e in grado di gestire testo, audio, immagini e video.
- Gemini Diffusion: un modello text-to-image che genera immagini cinque volte più velocemente rispetto alle soluzioni precedenti.
- Lyria RealTime: un modello sperimentale per la creazione interattiva di musica in tempo reale.
Ricerca Google: l’IA diventa più intelligente e personalizzata
Google ha annunciato un salto qualitativo nella ricerca grazie all’integrazione dell’IA. Gli AI Overview, lanciati lo scorso anno, hanno già raggiunto oltre 1,5 miliardi di utenti mensili in più di 200 paesi. Ora arriva AI Mode, una modalità di ricerca end-to-end governata dall’IA, che offre ragionamento avanzato, multimodalità e la capacità di approfondire tramite domande successive.
Tra le funzionalità in arrivo:
- Deep Search: esegue ricerche approfondite emettendo centinaia di query simultanee per creare report completi in pochi minuti.
- Search Live: integra le capacità live di Project Astra, permettendo agli utenti di interagire vocalmente con la ricerca tramite fotocamera.
- Shopping in AI Mode: combina Gemini con lo Shopping Graph per una prova virtuale di abbigliamento e un checkout agentico.
App Gemini: più personali e proattive
L’app Gemini si evolve per diventare l’assistente IA più avanzato. Tra le novità:
- Gemini Live: ora gratuito su Android e iOS, permette di discutere con l’assistente puntando la fotocamera su oggetti o schermate.
- Imagen 4: integrato nell’app, offre generazione di immagini ad alta qualità con rendering del testo migliorato.
- Veo 3: il primo modello al mondo a supportare effetti sonori e dialoghi nei video generati.
Sono stati introdotti anche due nuovi piani di abbonamento:
- Google AI Pro (19,99$/mese): include strumenti avanzati con limiti di utilizzo elevati.
- Google AI Ultra (249,99$/mese): offre accesso anticipato a funzioni sperimentali e servizi premium.
Android XR e Google Beam: l’IA nel mondo fisico
Google ha svelato come l’IA interagirà con l’ambiente circostante attraverso nuove piattaforme hardware. Android XR porterà Gemini su occhiali e visori, abilitando un assistente a mani libere che vede il mondo dalla prospettiva dell’utente. Collaborazioni con brand come Gentle Monster e Warby Parker promettono occhiali eleganti con integrazione IA.
Google Beam, evoluzione di Project Starline, trasforma stream video 2D in esperienze 3D realistiche grazie a un modello video volumetrico all’avanguardia. I primi dispositivi, sviluppati con HP, saranno disponibili entro la fine dell’anno.
Strumenti per sviluppatori e creativi
Google AI Studio si arricchisce di nuovi modelli e funzionalità per accelerare lo sviluppo con l’IA. Tra le novità:
- Live API: permette di costruire esperienze conversazionali più naturali con input audio-visivo e output audio nativo.
- Flow: uno strumento di filmmaking basato sull’IA per creare clip cinematiche con maggiore controllo.
- Veo 3 e Imagen 4: modelli avanzati per generazione video e immagini di alta qualità.
Sicurezza e trasparenza nell’era dell’IA generativa
Google ha introdotto SynthID Detector, un portale per identificare contenuti generati dall’IA creati con i suoi modelli. SynthID, la tecnologia di filigranatura impercettibile, è stata estesa a testo, audio e video, con oltre 10 miliardi di contenuti già protetti. La filigranatura del testo è stata resa open source per promuovere un ecosistema affidabile.
Le innovazioni presentate al Google I/O 2025 delineano un futuro in cui l’IA sarà sempre più integrata nella nostra vita quotidiana, offrendo strumenti potenti e personalizzati per lavoro, apprendimento e creatività.