Amazon vuole internalizzare la produzione dei chip di intelligenza artificiale e ridurre la dipendenza da Nvidia. La Big Tech americana sta per lanciare nuovi prodotti attraverso Annapurna Labs, la start-up tecnologica con sede ad Austin acquisita da Amazon nel 2015 per 350 milioni di dollari.
Il prossimo mese la società dovrebbe presentare Trainium 2, la linea di chip AI (Artificial Intelligence) legata all'addestramento dei modelli più grandi. Per il momento lo sviluppo è in fase di test da parte di Anthropic, la start-up AI sostenuta da Amazon.
Con la costruzione di chip propri, Amazon ridurrebbe fino al 40% i costi per l'intelligenza artificiale, il che sarebbe un risparmio enorme se rapportato alle gigantesche spese sostenute dall'azienda per la nuova tecnologia. "Risparmiare il 40% di 1000 dollari non cambia le carte in tavola ma farlo quando si parla di decine di milioni di dollari, è cosa diversa", ha affermato Dave Brown, vicepresidente dei servizi di calcolo e rete di Amazon Web Services, l'unità di cloud computing della società. "Vogliamo essere assolutamente in posizione ideale per eseguire i chip di Nvidia, ma allo stesso tempo pensiamo che sia opportuno avere un'alternativa", ha aggiunto.
Amazon stima una
spesa in conto capitale di ben 75 miliardi di dollari per quest'anno, di cui gran parte è appannaggio delle infrastrutture tecnologiche. Questa spesa nel 2025 sarà ancora maggiore, stando alle indicazioni fornite dall'Amministratore delegato
Andy Jassy nell'ambito dell'ultima presentazione dei conti trimestrali. Lo scorso anno invece l'azienda ha speso 48,4 miliardi di dollari, il che significa un salto consistente negli investimenti tecnologici.
Chip Amazon: riuscirà a scalfire il dominio di Nvidia?
Le più grandi aziende di servizi tecnologici si stanno dando da fare per cercare di sganciarsi da Nvidia. Non solo Amazon, ma anche Microsoft e Meta Platforms stanno progettando propri chip per data center nella prospettiva che la crescita dell'intelligenza artificiale richieda una domanda enorme.
"Tutti i grandi fornitori di cloud si stanno muovendo febbrilmente verso una tecnologia chip più verticalizzata e, se possibile, omogeneizzata e integrata", ha dichiarato Daniel Newman di The Futurum Group. "Tutti stanno cercando costi di produzione più bassi, margini più elevati, maggiore disponibilità e più controllo". Patrick Moorhead, consulente di chip presso Moor Insights & Strategy, ha affermato che tutte le innovazioni che Nvidia ha portato sono molto apprezzate, "ma nessuno si sente a proprio agio con un'azienda che detiene una quota di mercato del 90% e ciò non può durare a lungo".
Nel caso di Amazon, il grande vantaggio di AWS è che "i suoi chip possono utilizzare meno energia e i data center essere un po' più efficienti riducendo i costi", ha osservato Dan Hutcheson, analista di TechInsights. Tuttavia, il dominio di Nvidia nell'infrastruttura AI è ancora chiaro. Nel secondo trimestre fiscale del 2024, il colosso di Santa Clara ha riportato un fatturato di 26,3 miliardi di dollari per le vendite di chip per data center AI. Una cifra, questa, che Amazon ha ottenuto per l'intera unità AWS nello stesso periodo. Per giunta, solo una piccola parte dei ricavi dal cloud è da attribuire all'infrastruttura AI di Annapurna, sottolinea Hutcheson.
In realtà, per tutta l'infrastruttura di intelligenza artificiale, Amazon deve costruire tutto da zero, a partire dai wafer di silicio per finire con i rack dei server e il supporto del software e dell'architettura proprietaria. "È davvero difficile fare tutto su larga scala. Non molte aziende possono", ha rimarcato Rami Sinno, direttore dell'ingegneria di Annapurna. "Non si tratta solo del chip, ma dell'intero sistema".