Lunedì OpenAI ha annunciato di aver siglato un accordo settennale da 38 miliardi di dollari con Amazon Web Services per l’acquisto di servizi cloud destinati ad alimentare prodotti come ChatGPT e Sora.
Si tratta del primo grande accordo di calcolo dell’azienda dopo la ristrutturazione fondamentale della scorsa settimana che ha conferito a OpenAI maggiore autonomia operativa e finanziaria da Microsoft.
L’intesa garantisce a OpenAI l’accesso a centinaia di migliaia di processori grafici Nvidia per addestrare ed eseguire i suoi modelli di intelligenza artificiale.
Una partnership strategica per l’ecosistema di calcolo avanzato
“Scalare l’intelligenza artificiale di frontiera richiede capacità di calcolo massicce e affidabili”, ha dichiarato in un comunicato l’amministratore delegato di OpenAI, Sam Altman.
“La nostra partnership con Amazon Web Services rafforza l’ampio ecosistema di calcolo che alimenterà questa prossima era e porterà l’intelligenza artificiale avanzata a tutti”.
Secondo quanto riportato, OpenAI utilizzerà immediatamente i servizi di Amazon Web Services, con tutta la capacità pianificata che dovrebbe entrare in linea entro la fine del 2026 e spazio per ulteriori espansioni nel 2027 e oltre.
Amazon prevede di implementare centinaia di migliaia di chip, inclusi gli acceleratori per intelligenza artificiale GB200 e GB300 di Nvidia, in cluster di dati costruiti per alimentare le risposte di ChatGPT, generare video con intelligenza artificiale e addestrare la prossima ondata di modelli di OpenAI.
Le reazioni dei mercati e l’impatto sui competitor
Wall Street ha apparentemente apprezzato l’accordo, tanto che le azioni di Amazon hanno toccato un massimo storico lunedì mattina.
Nel frattempo, le azioni di Microsoft, storico investitore e partner di OpenAI, hanno registrato un breve calo in seguito all’annuncio.
Questo movimento di mercato riflette la percezione degli investitori riguardo alla ridistribuzione degli equilibri nel settore del cloud computing per l’intelligenza artificiale.
L’accordo segna un significativo ampliamento della base di fornitura computazionale di OpenAI, che fino ad ora si era principalmente appoggiata all’infrastruttura cloud di Microsoft Azure.
I requisiti computazionali mastodontici dell’IA generativa
Non è un segreto che l’esecuzione di modelli di intelligenza artificiale generativa per centinaia di milioni di persone richieda attualmente un’enorme potenza di calcolo.
In mezzo alla carenza di chip degli ultimi anni, trovare fonti di questa capacità computazionale si è rivelato complicato.
Si segnala che OpenAI sta lavorando sul proprio hardware con unità di elaborazione grafica per contribuire ad alleviare la pressione.
Ma per ora, l’azienda deve trovare nuove fonti di chip Nvidia, che accelerano i calcoli di intelligenza artificiale.
Altman ha precedentemente affermato che l’azienda prevede di spendere 1.400 miliardi di dollari per sviluppare 30 gigawatt di risorse computazionali, una quantità che sarebbe sufficiente ad alimentare approssimativamente 25 milioni di abitazioni statunitensi, secondo quanto riportato da Reuters.
La roadmap tecnologica e le prospettive future
L’integrazione dei nuovi acceleratori Nvidia GB200 e GB300 rappresenterà un salto di qualità significativo per le capacità computazionali di OpenAI.
Questi processori di ultima generazione sono specificamente progettati per gestire i carichi di lavoro più impegnativi dell’addestramento dei modelli di intelligenza artificiale su larga scala.
La tempistica dell’implementazione, con piena operatività prevista entro la fine del 2026, suggerisce una pianificazione meticolosa per supportare lo sviluppo dei prossimi modelli fondanti di OpenAI.
La scalabilità rimane la sfida principale per le aziende che operano nel settore dell’intelligenza artificiale avanzata, dove la corsa alle risorse computazionali sta diventando sempre più competitiva.
Questo accordo con Amazon Web Services posiziona OpenAI in una situazione di maggiore indipendenza strategica, pur mantenendo la partnership esistente con Microsoft, in uno scenario di coopetizione sempre più complesso nel mercato del cloud.
