Per l’IA e i grandi database: CPU Intel Cooper-Lake

La terza generazione di processori scalabili Xeon di Intel è progettata per server con quattro o otto socket. Le CPU Cooper-Lake sono dotate di un Intel Deep Learning Boost migliorato per le applicazioni AI. Inoltre, in combinazione con Optane PMem, sono possibili fino a 18 TB di memoria in sistemi a 4 socket.

Come ulteriore sviluppo della famiglia Cascade-Lake, Intel lancia i processori Xeon Scalable di terza generazione per server con almeno quattro socket. Un totale di undici CPU appartengono a questa nuova generazione Cooper-Lake: cinque modelli Xeon Gold con 16-24 core per sistemi a 4 socket e sei processori Xeon Platinum per server con fino a otto socket CPU. Hanno 18 o 28 core. Come per Cascade-Lake, le CPU offrono 48 corsie PCI Express 3.0 ciascuna e sei canali di memoria DDR4. Con un modulo di memoria per canale, anche DDR4-3200 è ora supportato. Per una connessione più veloce tra le CPU sulla scheda madre, il numero di collegamenti UPI è stato raddoppiato da tre a sei. Ultra Path Interconnect (UPI) ha sostituito i collegamenti QPI precedentemente utilizzati nelle CPU Xeon con FCLGA3647.

Deep Learning Boost con BFloat16

Mentre Intel con Xeon è chiaramente rimasta indietro rispetto alla generazione Epyc di AMD nel numero di core per socket e nelle prestazioni PCI Express, il produttore di chip è avanti nel supporto delle applicazioni AI attraverso funzioni speciali della CPU. AMD non ha ancora nulla da offrire qui. A Cooper Lake, il Deep Learning Boost (DLBoost), che precedentemente consisteva nelle Vector Neural Network Instructions (VNNI) per AVX-512, è stato integrato dal supporto per il formato dati BFloat16 (BF16). Secondo Intel, questo aumenta la velocità dell'addestramento AI e dell'inferenza di un fattore di 1,9 rispetto al FP32. La precisione diminuisce solo minimamente. Gli Xeon Cooper Lake sono le prime CPU x86 con supporto BF16. La GPU A100 di Nvidia, introdotta di recente, dispone anche del supporto BF16.

Più memoria con Optane PMem 200

Le varianti HL dei nuovi processori scalabili Xeon supportano la nuova serie Optane Persistant Memory 200 di Intel, che si dice fornisca una velocità di trasferimento dati superiore del 25 per cento rispetto al suo predecessore. I moduli di memoria non volatile Optane Memory (PMem) continuano ad essere disponibili in dimensioni di modulo che vanno da 128GB a 512GB. Possono essere utilizzati negli slot di memoria al posto dei moduli DDR4 per aumentare la dimensione della RAM e mantenere i dati persistenti. Per socket CPU, sono possibili 4,5 TB di memoria combinata, 1,5 TB DDR4 e 3 TB PMem. I grandi database in-memory come SAP Hana, ma anche i database Oracle dovrebbero beneficiare di un recupero più veloce. Inoltre, più VM possono essere eseguite contemporaneamente e le applicazioni di analisi dei dati come Apache Spark dovrebbero fornire risultati più velocemente.

KI FPGA: Stratix 10 NX

Un ulteriore elemento della strategia AI di Intel è il chip Stratix 10 NX FPGA presentato insieme a Cooper Lake. Questo primo FPGA di Intel ottimizzato per le applicazioni AI presenta speciali unità sensore AI, un pacchetto 3D con memoria HBM2 e una connessione di rete più veloce.

>


Pagine utili:

Informazioni sul formato .dat

Lascia un commento