CONDIVIDI:

Tra le novità della conferenza Google I/O sono stati annunciati i chip personalizzati AI di nuova generazione Tensor Processing Units (TPU), si tratta della quarta versione di questi chip, che secondo l’azienda raddoppiano in velocità rispetto i precedenti. Google è stata una delle prima aziende a scommettere su soluzioni TPU, i cui difetti principali risiedono nella difficoltà di progettazione e nella rapidità nel diventare obsoleti, ma tra i vantaggi ci sono le prestazioni, significativamente migliori rispetto alle soluzioni FPGA.

Ne ha parlato pochi minuti fa il CEO di Google, Sudar Pichai, spiegando che questi vengono combinati in pods con 4.096 TPU e ogni singolo pod è in grado di offrire oltre oltre 1 exaflop di potenza di calcolo. Saranno utilizzati per fornire la potenza necessaria a molti dei servizi Google di machine learning, ma non solo, Google renderà disponibile quest’ultima generazione di chip anche agli sviluppatori come parte della sua piattaforma Google Cloud.

Un risultato storico secondo quanto affermato da Pichai, poiché per la prima volta si è riusciti a ottenere questa potenza di calcolo, che altrimenti avrebbe richiesto un supercomputer personalizzato. La loro implementazione è già cominciata e presto i nuovi pd TPUv4 saranno implementata in tutti i data center Google, aiutando non solo a raggiungere potenze di calcolo superiori ma a ridurre ulteriormente le emissioni di anidride carbonica, visto che molti di essi funzioneranno al 90 % senza produrne.


CLICCA QUI PER CONTINUARE A LEGGERE

Di admin