Meta Platforms sta testando il suo primo chip in-house, realizzato cioè senza il coinvolgimento di soggetti esterni, legato all'intelligenza artificiale. Secondo quanto riportato da alcune persone vicine alla società, il gigante di Menlo Park potrebbe staccarsi da fornitori esterni come Nvidia e progettare internamente i semiconduttori per l'addestramento dei sistemi AI (Artificial intelligence). Le fonti hanno riferito anche che la società ha iniziato implementando una piccola quantità di chip e, qualora il test rispondesse alle aspettative, porterà la produzione su larga scala.
Il processore è un acceleratore dedicato, ossia è progettato per gestire solo attività specifiche dell'intelligenza artificiale. Questo lo rende più efficiente sotto il profilo energetico rispetto alle GPU generalmente utilizzate per i grandi carichi di lavoro. La produzione vera e propria del chip è affidata al colosso taiwanese dei semiconduttori a contratto TSMC.
Nuovo chip AI Meta Platforms: l'obiettivo è la riduzione dei costi
Già in passato Meta Platforms ha fallito l'implementazione di test su piccola scala nella costruzione di un chip interno. Questo ha spinto la parent company di Facebook, Instagram e WhatsApp a effettuare ordini per svariati miliardi di dollari di GPU Nvidia nel 2022 per addestrare i suoi modelli. Tutto questo però ha comportato costi esorbitanti per la società. Ragion per cui, ora Meta intende ridimensionare le spese per la sua infrastruttura, puntando sull'intelligenza artificiale per guidare la crescita. Tuttavia, ancora il capex 2025 è molto alto, con le stime che arrivano a 65 miliardi di dollari, di cui gran parte legati all'AI.
Il punto è anche che il valore delle GPU è stato messo in discussione quest'anno perché i ricercatori hanno espresso dubbi sugli ulteriori progressi riguardo i modelli linguistici di grandi dimensioni aggiungendo sempre più dati e potenza di calcolo. In più c'è anche il lancio di nuovi modelli low-cost della startup cinese
DeepSeek che rischia di stravolgere il mercato. Nvidia rimane il punto di riferimento per il settore dell'intelligenza artificiale. La domanda è fino a quanto tempo ancora il vantaggio competitivo resterà tale.
Il nuovo chip dell'azienda guidata da Mark Zuckerberg si inserisce nel programma Meta Training and Inference Accelerator (MTIA), progettato per funzionare al meglio con i modelli di ranking e raccomandazione dell'azienda. I chip possono aiutare a rendere l'addestramento più efficiente e l'inferenza più facile. L'addestramento è il processo ad alta intensità di calcolo che consiste nell'alimentare il sistema di intelligenza artificiale con risme di dati per "insegnargli" come funzionare. L'inferenza è l'attività di ragionamento vera e propria.
Meta ha annunciato MTIA nel maggio 2023, concentrandosi sulla fornitura di questi chip ai data center. I manager hanno dichiarato di voler iniziare a utilizzare i propri chip entro il 2026 per l'addestramento. L'obiettivo dei chip di addestramento è lo stesso di quello dei chip di inferenza, ovvero utilizzarli per i prodotti AI come il chatbot Meta AI. "Stiamo lavorando su come fare formazione per i sistemi di raccomandazione e poi eventualmente su come pensare alla formazione e all'inferenza per l'intelligenza artificiale generativa", ha dichiarato la scorsa settimana Chris Cox, chief product officer di Meta, alla conferenza Morgan Stanley su tecnologia, media e telecomunicazioni.