Vai al contenuto

Azure Maia 100: Dall’integrazione all’ecosistema opensource, l’era dell’intelligenza artificiale

Attraverso un’innovazione unica, Azure Maia 100 unisce tecniche avanzate di confezionamento di silicio, design di networking ad altissima larghezza di banda, gestione moderna di raffreddamento e alimentazione e co-progettazione algoritmica di hardware con software, spingendo i confini dell’innovazione dei semiconduttori.

In un’epoca in cui l’intelligenza artificiale accelera a ritmi sostenuti e la sua trasformazione attraversa vari settori, Microsoft si impegna a migliorare l’infrastruttura del cloud globale per rispondere alle esigenze dei clienti e sviluppatori con soluzioni di calcolo e AI più performanti ed efficienti. Il cuore pulsante di questa innovazione è Azure Maia 100, il primo acceleratore AI ideato e realizzato da Microsoft. Maia 100 è stato specificamente progettato per gestire carichi di lavoro AI basati su cloud e ottimizzato per l’infrastruttura AI di Azure.

Maia 100, disegnato per spingere i confini dell’innovazione dei semiconduttori

La progettazione del chip Maia 100 è stata supportata dall’esperienza di Microsoft nell’eseguire carichi di lavoro AI complessi e di grande scala come Microsoft Copilot. Oltre ad essere uno dei più grandi processori prodotti su nodo a 5nm, Maia 100 utilizza tecnologie avanzate di packaging provenienti da TSMC. Microsoft intende continuare a perfezionare il design del silicio rispetto alle esigenze dei carichi di lavoro reali, massimizzando l’ottimizzazione dell’intero stack dal silicio al servizio, per offrire la migliore tecnologia ai clienti e consentire loro di raggiungere risultati sempre più notevoli.

Ottimizzazione dei sistemi end-to-end, progettata per scalabilità e sostenibilità

Nello sviluppare l’architettura per la serie di acceleratori AI Azure Maia, Microsoft ha ripensato l’intero stack in modo tale che i sistemi potessero gestire i modelli di frontiera con maggiore efficienza e in minor tempo. I carichi di lavoro AI richiedono un’infrastruttura che è drasticamente diversa da altri carichi di lavoro di calcolo su cloud, richiedendo una maggiore potenza, raffreddamento e capacità di rete. Maia 100 è dotato di una distribuzione e gestione dell’energia a livello di rack personalizzata che si integra con l’infrastruttura di Azure per ottenere un’ottimizzazione dinamica della potenza. Gli acceleratori Maia 100 sono progettati con un protocollo di rete completamente personalizzato basato su Ethernet con una larghezza di banda aggregata di 4,8 terabit per acceleratore, per consentire una migliore scalabilità e performance del carico di lavoro end-to-end.

Co-ottimizzazione di hardware e software dal principio con l’ecosistema opensource

Fin dall’inizio, la trasparenza e l’avanzamento collaborativo sono stati dei principi fondamentali nella filosofia del design mentre Microsoft sviluppava e costruiva l’infrastruttura del cloud per il calcolo e l’AI. Questo approccio ha permesso uno sviluppo iterativo più veloce in tutto il settore e, sulla piattaforma Maia 100, si è coltivata una mentalità di comunità open da tipi di dati algoritmici a software a hardware. Per facilitare lo sviluppo di modelli AI sull’infrastruttura AI di Azure, Microsoft sta creando il software per Maia 100 che si integra con framework opensource popolari come PyTorch e ONNX Runtime.

Riferimenti