AMD Instinct MI100 (a scanso di equivoci, dopo la “M” c’è una “i” maiuscola) è ufficiale: è una GPU per datacenter e supercomputer ottimizzata per operazioni AI e HPC. È la prima scheda di questa classe, dice AMD, a superare i 10 TFLOPS di potenza nelle operazioni a doppia precisione, ovvero FP64, e raggiunge i 23,1 TFLOPS in quelle FP32. AMD promette fino a 7x potenza nei carichi di lavoro AI mixed precision e in FP16, fi
La GPU si basa sull’architettura CDNA annunciata lo scorso marzo, ed è costituita da 120 CU per un totale di 7.680 stream processor. La memoria onboard ammonta a 32 GB di HBM2 a 1,2 GHz, per una banda teorica complessiva di 1,23 TB al secondo. L’interfaccia è basata sul protocollo PCI Express di quarta generazione. Il processo produttivo è a 7 nm, e la frequenza di clock si spinge fino a un massimo di 1.502 MHz.
La scheda è spessa due slot nonostante manchino ventole attive per la dissipazione del calore (generalmente il raffreddamento in questo tipo di macchine è realizzato espressamente per l’intero rack). La tecnologia Infinity di seconda generazione permette di collegare l’una all’altra fino a quattro schede, e garantisce performance GPU-to-GPU fino a 4x più veloci rispetto a PCIe 4. Nel complesso ogni scheda arriva a consumare fino a un massimo di 300 W.