Facebook,  Instagram,  Meta,  Social Network,  Storia,  Sviluppo,  Tecnologia,  WhatsApp

I processori personalizzati AI di Meta. Una nuova frontiera per Facebook?

Photo by Dima Solomin on Unsplash

Meta, la società madre di Facebook, Instagram e WhatsApp, sta attivamente sviluppando un processore AI personalizzato per migliorare le proprie capacità di AI e ridurre la dipendenza da hardware di terze parti come i GPU Nvidia. Gli sforzi di Meta rientrano in una tendenza più ampia tra le aziende tecnologiche che creano silicio specifico per dominio, ottimizzato per i carichi di lavoro AI, in particolare quando le applicazioni AI diventano più centrali per i loro servizi.

I processori AI personalizzati di Meta, noti come Meta Training and Inference Accelerator (MTIA), sono progettati per workload di inferenza, che sono cruciali per le applicazioni AI che applicano capacità apprese a nuovi dati. L’MTIA è progettato per fornire un maggiore potere di calcolo e efficienza rispetto ai tradizionali CPU e viene personalizzato per i carichi di lavoro interni di Meta.

I processori Meta destinati all’AI

Il chip MTIA viene fabbricato utilizzando un processo a 7 nm da TSMC e opera a 800 MHz. Utilizza l’architettura dell’istruzione RISC-V (ISA), che è un’alternativa open source rispetto alle architetture x86 e ARM. Il chip è progettato per gestire grandi volumi di operazioni simultanee, spesso utilizzando aritmetica a precisione inferiore, che è generalmente sufficiente per i carichi di lavoro AI e consente più calcoli per watt di potenza.

Gli sforzi di Meta per creare silicio personalizzato riflettono il passaggio da CPU general-purpose a silicio specifico per dominio, ottimizzato per compiti specifici. La società ha iniziato a costruire hardware personalizzato utilizzando GPU dal 2016, ma ha iniziato a lavorare sui propri chip personalizzati nel 2020, quando ha capito che le GPU non erano sempre ottimali per eseguire i carichi di lavoro di raccomandazione di Meta con l’efficienza desiderata.

La transizione di Meta all’utilizzo dei propri chip potrebbe comportare notevoli risparmi, riducendo le spese energetiche annuali di centinaia di milioni di dollari e riducendo l’acquisto di chip di terze parti. La distribuzione dei processori Artemis non solo ottimizzerà il consumo di energia dei data center di Meta, ma libererà anche i popolari processori H100 di Nvidia per l’addestramento AI.

Quali sono le ambizioni di Meta nel sviluppare infrastrutture in casa?

Le ambizioni di Meta non si limitano all’Artemis e all’accelerazione dell’inferenza. Meta sta sviluppando un processore più sofisticato che potrebbe eseguire i carichi di lavoro di addestramento AI, simile ai GPU H100 di Nvidia. Questa iniziativa fa parte della strategia più ampia di Meta per sviluppare infrastrutture AI in casa, al fine di ridurre la dipendenza dai processori Nvidia, sebbene Meta non abbia intenzione di eliminare completamente i GPU di Nvidia dai suoi data center.

Le avanzamenti dell’infrastruttura AI di Meta, inclusi l’MTIA e il chip MSVP, sono parte di un ambizioso piano per costruire la prossima generazione dell’infrastruttura AI di Meta. Questi sforzi consentiranno alla società di sviluppare modelli AI più grandi e sofisticati e distribuirli in modo efficiente su larga scala, il che è fondamentale per la visione a lungo termine di Meta del metaverso e delle sue applicazioni AI-driven.