L’evento annuale di Las Vegas si conferma il palcoscenico privilegiato per Amazon Web Services per delineare il futuro del cloud computing e dell’intelligenza artificiale.
La multinazionale di Jeff Bezos ha presentato una serie di innovazioni strategiche, dal potenziamento dei modelli di fondazione alla creazione di agenti autonomi avanzati, fino a nuove infrastrutture hardware e servizi di gestione dati vettoriali.
L’obiettivo dichiarato è fornire alle aziende gli strumenti per costruire, gestire e scalare applicazioni di AI generativa in modo sicuro, efficiente e performante, consolidando ulteriormente la leadership di AWS nel mercato del cloud ibrido e dell’AI.
Amazon Bedrock si rafforza: più modelli, più controllo e agenti più intelligenti
Il cuore dell’offerta di AI generativa di AWS, la piattaforma Amazon Bedrock, riceve aggiornamenti significativi, con un focus particolare sulla sicurezza e l’affidabilità operativa degli agenti autonomi.
La nuova funzionalità Policy consente agli sviluppatori di definire confini operativi precisi per gli agenti utilizzando il linguaggio naturale, stabilendo cosa possono o non possono fare per prevenire azioni indesiderate.
Per monitorare le performance in tempo reale, arriva AgentCore Evaluations, che tiene sotto costante controllo parametri critici come la correttezza delle risposte e la sicurezza delle interazioni.
Infine, AgentCore Memory introduce una forma di apprendimento basato sulle conseguenze, permettendo agli agenti di “ricordare” gli esiti delle azioni passate per migliorare le decisioni future.
Parallelamente, il catalogo di modelli su Bedrock si espande con l’ingresso di diciotto nuovi modelli open weight, portando l’offerta complessiva a quasi cento soluzioni serverless, coprendo un ampio spettro di esigenze analitiche e multimodali.
La corsa all’hardware: Trainium3, Trainium4 e le UltraServers NVIDIA
Per addestrare i modelli di AI di prossima generazione, sempre più grandi e complessi, AWS punta su chip proprietari e architetture all’avanguardia.
Le nuove istanze EC2 Trainium3 UltraServers, basate sul chip Trainium di seconda generazione, promettono prestazioni superiori e una maggiore efficienza energetica rispetto alla generazione precedente, quadruplicando la larghezza di banda di memoria.
Realtà come Anthropic le utilizzano già per sistemi complessi.
In anteprima è stata svelata anche la prossima generazione, Trainium4 Dall’altra parte, per il ragionamento avanzato su modelli con trilioni di parametri, AWS presenta le istanze EC2 P6e-GB300 UltraServers, che integrano l’architettura NVIDIA GB300 NVL72, offrendo una potenza di calcolo senza precedenti per applicazioni di inferenza e ragionamento su larga scala.
L’era dei Frontier Agents e dei modelli Nova
Una delle novità più rilevanti è l’introduzione della categoria Frontier Agents, che definisce nuovi standard di autonomia operativa per periodi prolungati.
Questi agenti sono progettati per compiti complessi e continui, come lo sviluppo software (esemplificato dall’agente Kiro), la gestione della sicurezza informatica o le operazioni DevOps.
Il Commonwealth Bank of Australia è tra le prime organizzazioni ad averli adottati per ridefinire i propri cicli di vita dello sviluppo.
A supporto di questi agenti, AWS svela la famiglia di modelli Amazon Nova, disponibile in quattro varianti ottimizzate per compiti di ragionamento e multimodali.
Le aziende potranno creare varianti personalizzate tramite Nova Forge e distribuire agenti affidabili in produzione utilizzando il servizio end-to-end Nova Act.
S3 Vectors e AI Factories: la gestione dati diventa nativa e sovrana
Per gestire la complessità dei dati necessari all’AI generativa, AWS annuncia la disponibilità generale di Amazon S3 Vectors.
Questo servizio consente l’archiviazione e l’interrogazione nativa di embedding vettoriali su larga scala, integrandosi perfettamente con servizi come OpenSearch e riducendo significativamente costi e complessità per le imprese.
Un’altra risposta alle esigenze del mercato, in particolare europeo, è il concetto di AI Factories.
Queste portano l’infrastruttura cloud avanzata di AWS direttamente nei data center dei clienti, rispettando stringenti requisiti di sovranità dei dati.
Un esempio è il progetto in corso con HUMAIN in Arabia Saudita per la realizzazione di una zona dedicata all’intelligenza artificiale.
Ecosistema in crescita: partnership con Adobe, Sony e Zendesk
Le innovazioni di AWS trovano immediato riscontro in una serie di partnership strategiche.
Adobe potenzierà i suoi strumenti creativi sfruttando l’infrastruttura cloud di Amazon, mentre Sony implementerà piattaforme aziendali su vasta scala per ottimizzare i flussi di lavoro interni e le relazioni con i fan attraverso la Sony Engagement Platform.
Nel settore dei contact center, l’accordo con Zendesk permetterà l’integrazione di analisi conversazionale e canali digitali all’interno di soluzioni unificate basate su Amazon Connect.
Non mancano le iniziative a sfondo sociale, come le nuove esperienze di donazione mobile sviluppate con GiveGab e i premi AWS Imagine Grant 2025, assegnati a istituti di ricerca internazionali per progetti che affrontano sfide sanitarie e scientifiche globali.
Questo ampio ventaglio di annunci sottolinea la strategia di AWS di costruire non solo una piattaforma tecnologica, ma un intero ecosistema integrato, dove l’infrastruttura, i modelli di AI, gli strumenti di sviluppo e le partnership di settore convergono per accelerare l’innovazione aziendale in ogni dominio.
