NewsFlash24

Le CPU scalabili Xeon di terza generazione di Intel offrono elaborazione FPU a 16 bit

Intel ha annunciato oggi i suoi processori Xeon Scalable di terza generazione (che significa Gold e Platinum), insieme alle nuove generazioni della sua memoria persistente Optane (leggi: SSD a latenza estremamente bassa e ad alta resistenza) e ai prodotti Stratix AI FPGA.

Il fatto che AMD stia attualmente battendo Intel su quasi tutti i parametri di prestazione immaginabili, ad eccezione dell’IA con accelerazione hardware, non è una novità a questo punto. Chiaramente non è nemmeno una novità per Intel, dal momento che la società non ha fatto alcuna pretesa sulle prestazioni di Xeon Scalable rispetto ai processori Epyc Rome concorrenti. Ancora più interessante, Intel ha appena menzionato i carichi di lavoro di elaborazione generici.

Trovare una spiegazione dell’unico miglioramento mostrato generazione su generazione non basato sull’IA richiedeva di passare da più note a piè di pagina. Con sufficiente determinazione, alla fine abbiamo scoperto che il “guadagno medio delle prestazioni di 1,9 volte” menzionato nella diapositiva panoramica si riferisce a benchmark SPECrate 2017 “stimati o simulati” confrontando un sistema Platinum 8380H a quattro socket con un sistema a quattro socket di cinque anni E7-8890 v3.

Ad essere onesti, Intel sembra aver introdotto alcune innovazioni insolitamente impressionanti nello spazio dell’IA. “Deep Learning Boost”, che in precedenza era solo il marchio per il set di istruzioni AVX-512, ora comprende anche un tipo di dati in virgola mobile a 16 bit completamente nuovo.

Con le precedenti generazioni di Xeon Scalable, Intel ha aperto la strada e ha spinto molto per l’utilizzo dell’elaborazione di inferenza di numeri interi a 8 bit – INT8 – con la sua libreria OpenVINO. Per i carichi di lavoro di inferenza, Intel ha affermato che la minore precisione di INT8 era accettabile nella maggior parte dei casi, pur offrendo un’accelerazione estrema della pipeline di inferenza. Per la formazione, tuttavia, la maggior parte delle applicazioni necessitava ancora della maggiore precisione dell’elaborazione in virgola mobile a 32 bit FP32.

La nuova generazione aggiunge il supporto del processore a virgola mobile a 16 bit, che Intel chiama bfloat16. Dimezzare la larghezza di bit dei modelli FP32 accelera l’elaborazione stessa, ma soprattutto dimezza la RAM necessaria per mantenere i modelli in memoria. Sfruttare il nuovo tipo di dati è anche più semplice per i programmatori e le basi di codice che utilizzano modelli FP32 rispetto alla conversione in intero.

Annuncio

Intel ha anche fornito premurosamente un gioco incentrato sull’efficienza del tipo di dati BF16. Non possiamo consigliarlo né come gioco né come strumento educativo.

Accelerazione dell’accumulo di Optane

Intel ha anche annunciato una nuova generazione, più veloce del 25%, dei suoi SSD Optane “persistent memory”, che possono essere utilizzati per accelerare notevolmente l’IA e altre pipeline di storage. Gli SSD Optane funzionano con la tecnologia 3D Xpoint piuttosto che con i tipici SSD NAND flash. 3D Xpoint ha una resistenza in scrittura tremendamente maggiore e una latenza inferiore rispetto alla NAND. La minore latenza e la maggiore resistenza in scrittura lo rendono particolarmente interessante come tecnologia di caching veloce, che può persino accelerare tutti gli array a stato solido.

Il grande vantaggio qui è che la latenza estremamente bassa di Optane consente l’accelerazione delle pipeline di intelligenza artificiale, che spesso creano colli di bottiglia nello storage, offrendo un accesso molto rapido a modelli troppo grandi per essere tenuti interamente nella RAM. Per le pipeline che implicano scritture rapide e pesanti, un livello di cache Optane può anche aumentare significativamente l’aspettativa di vita dello storage primario NAND sottostante, riducendo il numero totale di scritture che devono essere effettivamente impegnate su di esso.

Ingrandisci/Latenza rispetto a IOPS, con un carico di lavoro di lettura/scrittura 70/30. Le linee arancione e verde sono SSD NAND tradizionali di livello data center; la linea blu è Optane.

Ad esempio, un Optane da 256 GB ha una specifica di resistenza in scrittura di 360 PB, mentre un SSD Samsung 850 Pro da 256 GB è previsto solo per una durata di 150 TB, maggiore di un vantaggio di 1.000:1 rispetto a Optane.

Nel frattempo, questa eccellente recensione di Tom’s Hardware del 2019 dimostra fino a che punto nella polvere Optane lascia i tradizionali SSD di livello data center in termini di latenza.

FPGA Stratix 10 NX

Infine, Intel ha annunciato una nuova versione del suo Stratix FPGA. Gli array programmabili Field Gate possono essere utilizzati come accelerazione hardware per alcuni carichi di lavoro, consentendo a più core CPU generici di affrontare attività che gli FPGA non possono.

Immagine dell’elenco di Intel

Exit mobile version