Quando Apple presentò Apple Intelligence nel 2024, l’annuncio suscitò curiosità e ottimismo. L’azienda si proponeva come l’attore “riflessivo” nel panorama dell’intelligenza artificiale generativa, decisa a prendersi il tempo necessario per offrire un prodotto di qualità. Tuttavia, le aspettative si sono presto scontrate con una realtà meno brillante, come emerso dalle prime beta distribuite agli sviluppatori.
Secondo Mark Gurman di Bloomberg, la prima versione di Apple Intelligence mostrò limiti evidenti: mancanza di potenza, originalità e tempestività. Le funzioni introdotte, seppur utili, non riuscirono a competere con le innovazioni proposte da Google, OpenAI o altri leader del settore. Il cuore dell’esperienza, la nuova Siri, è stato posticipato a tempo indeterminato per problemi tecnici, mentre la concorrenza ha continuato ad accelerare.
WWDC 2025: un evento a basso profilo
Con la WWDC in programma il 9 giugno, Apple si troverebbe a corto di novità significative in ambito AI. Fonti interne riferiscono che la conferenza di quest’anno potrebbe deludere le aspettative, evidenziando più le mancanze che i progressi. Il formato dell’evento sarà meno ambizioso rispetto agli ultimi due anni, quando furono presentati Vision Pro e Apple Intelligence.
La novità più rilevante potrebbe essere l’apertura dei Foundation Models agli sviluppatori di terze parti. Si tratta di modelli linguistici da circa 3 miliardi di parametri, utilizzati da Apple per attività locali come i riassunti testuali. Sebbene meno sofisticati rispetto ai modelli cloud-based di OpenAI o Google, rappresentano un passo importante per l’integrazione di funzioni AI personalizzate nelle app.
Progetti futuri e promesse rinviate
Le vere innovazioni AI di Apple sembrano essere tutte in lavorazione, con un orizzonte temporale spostato principalmente al 2026. Tra i progetti in corso:
- LLM Siri: una riscrittura completa dell’assistente vocale, ispirata all’approccio conversazionale di ChatGPT.
- Una nuova versione dell’app Comandi, che permetterà di creare automazioni attraverso comandi in linguaggio naturale.
- Mulberry: un servizio AI in ambito medico integrato nell’app Salute, previsto per la primavera 2026.
- Knowledge: un chatbot in grado di interrogare il web, già rallentato da ostacoli tecnici.
Dopo le delusioni dello scorso anno, Apple è oggi più cauta nell’anticipare tecnologie non ancora pronte. La priorità è annunciare solo ciò che sarà realmente disponibile in autunno, per preservare la credibilità acquisita con fatica.
Modelli potenti, ma ancora senza chatbot
Apple dispone internamente di una gamma di modelli AI che vanno da 3 a 150 miliardi di parametri. Quest’ultimo, operante via cloud, si avvicina alla qualità delle recenti versioni di ChatGPT. Tuttavia, l’azienda non avrebbe ancora deciso di sfruttarlo pubblicamente, frenata dai timori legati alle hallucination e da divergenze interne sull’uso di un chatbot generalista.
I dipartimenti Apple possono testare questi modelli tramite una piattaforma interna chiamata Playground, ma non esiste ancora una roadmap pubblica per il lancio di un assistente basato su queste tecnologie.
Novità per gli sviluppatori, ma niente nuovo hardware
Per gli sviluppatori, Apple potrebbe annunciare una maggiore integrazione dell’AI nei processi di test dell’interfaccia utente. In SwiftUI verrà introdotto un editor di testo avanzato, mentre per Swift Assist — il servizio di completamento automatico del codice — si attende ancora una versione pubblica.
Sul fronte hardware, invece, non sono previsti lanci rilevanti alla WWDC. I nuovi cicli di iPhone e Apple Watch restano confermati per l’autunno, lasciando spazio a un evento focalizzato principalmente sul software e sull’ecosistema AI, ancora in fase di maturazione.
Apple punta a costruire un ecosistema coerente, ma il passo sembra essere troppo lento rispetto alla concorrenza. Con Google e OpenAI che continuano a innovare, l’azienda di Cupertino dovrà dimostrare di poter recuperare il terreno perduto, senza compromettere la qualità che da sempre la contraddistingue.