In collaborazione con VMware, Nvidia porta i carichi di lavoro AI a vSphere. Con la suite software Nvidia AI Enterprise, centinaia di migliaia di clienti dovrebbero ora essere in grado di utilizzare soluzioni AI specifiche del settore in modo relativamente semplice. I server certificati costituiscono la base.
Nvidia non si vede più come un puro produttore di hardware, anche nel mercato professionale, ma come un fornitore di soluzioni per mercati verticali come l'industria manifatturiera, la logistica, il settore finanziario, la vendita al dettaglio o la sanità. Qui, il produttore vede la domanda di applicazioni AI per le fabbriche intelligenti, il rilevamento delle frodi nei servizi finanziari o la diagnostica nella sanità, che Nvidia vuole affrontare insieme ai partner del canale e ai partner OEM. La cooperazione con VMWare per la suite software Nvidia AI Enterprise per VMWare vSphere, che è destinata all'appena annunciato Update 2 della soluzione di virtualizzazione, dovrebbe fornire una notevole spinta in questo senso. Permette ai dipartimenti IT aziendali di gestire le applicazioni AI con gli stessi strumenti che usano altrove per gestire i loro data center e il cloud ibrido. Questo riduce la complessità del paesaggio IT, poiché non sono necessarie infrastrutture parallele per le applicazioni AI e non esistono nemmeno sotto forma di shadow IT nei dipartimenti specializzati. Nvidia AI Enterprise è anche destinato a fornire prestazioni scalabili e multi-nodo delle applicazioni AI sotto vSphere che si avvicina al livello dei server bare-metal.
I server certificati da Nvidia per l'uso delle GPU A100 servono come base. I seguenti modelli sono tra i primi sistemi di questo tipo:
- Dell EMC PowerEdge R7525 e R740
- Gigabyte R281-G30, R282-Z96, G242-Z11, G482-Z54, G492-Z51
- HPE Apollo 6500 Gen10 e HPE ProLiant DL380 Gen10
- Inspur NF5488A5
- Supermicro A+ Server AS -4124GS-TNR e AS -2124GQ-.NART
I componenti di AI Enterprise
La suite AI Enterprise consiste in un'intera serie di applicazioni e framework AI ottimizzati per le GPU Nvidia, come Tensor Flow, PyTorch, RAPIDS, TensorRT, Nvidia Transfer Learning Toolkit e Nvidia Triton Inference Server, ognuno adattato a compiti specifici. Inoltre, ci sono modelli pre-addestrati, strumenti per l'implementazione cloud-native e strumenti di infrastruttura come Nvidia vGPU, Magnum IO, Cuda -X AI e il DOCA SDK per Bluefield DPUs. VMWare ha integrato il supporto per caratteristiche specifiche delle GPU A100 in vSphere 7 Update 2. GPUDirect RDMA per vGPUs può essere usato per abilitare la comunicazione diretta tra GPU in diversi nodi. Inoltre, Multi-instance GPU (MIG) permette l'uso condiviso di una GPU da un massimo di sette VM e anche lo spostamento di istanze MIG su altri host A100. Queste caratteristiche sono attualmente offerte da vSphere come unica soluzione di virtualizzazione del server
NVIDIA AI Enterprise è disponibile come licenza perpetua al prezzo di 3.595 dollari per socket CPU. L'Enterprise Business Standard Support per NVIDIA AI Enterprise costa 899 dollari all'anno per licenza.