NVIDIA ha annunciato la DGX Station A100, una workstation destinata a coloro che necessitano di tantissima potenza di calcolo, prestazioni, flessibilità e fanno ampio utilizzo di machine learning, dall’analisi al training. In pratica, come affermato da NVIDIA: a coloro che “necessitano delle prestazioni di un data center senza un data center”.
La tower stabilisce un nuovo standard per la densità di calcolo, con 5 petaFLOPS di prestazioni IA in un fattore di forma 6U. DGX Station A100 può integrare fino a quattro nuove GPU NVIDIA A100 Tensor Core con HBM2e da 40GB o 80GB che consentono di raggiungere un massimo di 320 GB di memoria nella sua massima configurazione.
L’A100 da 80GB utilizza Tensor Core di terza generazione che in aggiunta alla tecnologia NVLink e NVSwith di terza generazione consentono di raddoppiare la larghezza di banda da GPU a GPU, per trasferimenti fino a 600 GB al secondo, e di eseguire fino a 28 istanze GPU separate in contemporanea, con dati separati l’uno dall’altro in modo sicuro, per lavori paralleli assegnate ad utenze differenti. Rispetto al suo predecessore, afferma NVIDIA, si tratta di un aumento prestazionale quattro volte superiore per quanto riguarda i modelli di IA conversazionali complessi.