AI con ampio impatto attraverso vSphere come base

In collaborazione con VMware, Nvidia porta i carichi di lavoro AI a vSphere. Con la suite software Nvidia AI Enterprise, centinaia di migliaia di clienti dovrebbero ora essere in grado di utilizzare soluzioni AI specifiche del settore in modo relativamente semplice. I server certificati costituiscono la base.

Nvidia non si vede più come un puro produttore di hardware, anche nel mercato professionale, ma come un fornitore di soluzioni per mercati verticali come l'industria manifatturiera, la logistica, il settore finanziario, la vendita al dettaglio o la sanità. Qui, il produttore vede la domanda di applicazioni AI per le fabbriche intelligenti, il rilevamento delle frodi nei servizi finanziari o la diagnostica nella sanità, che Nvidia vuole affrontare insieme ai partner del canale e ai partner OEM. La cooperazione con VMWare per la suite software Nvidia AI Enterprise per VMWare vSphere, che è destinata all'appena annunciato Update 2 della soluzione di virtualizzazione, dovrebbe fornire una notevole spinta in questo senso. Permette ai dipartimenti IT aziendali di gestire le applicazioni AI con gli stessi strumenti che usano altrove per gestire i loro data center e il cloud ibrido. Questo riduce la complessità del paesaggio IT, poiché non sono necessarie infrastrutture parallele per le applicazioni AI e non esistono nemmeno sotto forma di shadow IT nei dipartimenti specializzati. Nvidia AI Enterprise è anche destinato a fornire prestazioni scalabili e multi-nodo delle applicazioni AI sotto vSphere che si avvicina al livello dei server bare-metal.

I server certificati da Nvidia per l'uso delle GPU A100 servono come base. I seguenti modelli sono tra i primi sistemi di questo tipo:

  • Dell EMC PowerEdge R7525 e R740
  • Gigabyte R281-G30, R282-Z96, G242-Z11, G482-Z54, G492-Z51
  • HPE Apollo 6500 Gen10 e HPE ProLiant DL380 Gen10
  • Inspur NF5488A5
  • Supermicro A+ Server AS -4124GS-TNR e AS -2124GQ-.NART

I componenti di AI Enterprise

La suite AI Enterprise consiste in un'intera serie di applicazioni e framework AI ottimizzati per le GPU Nvidia, come Tensor Flow, PyTorch, RAPIDS, TensorRT, Nvidia Transfer Learning Toolkit e Nvidia Triton Inference Server, ognuno adattato a compiti specifici. Inoltre, ci sono modelli pre-addestrati, strumenti per l'implementazione cloud-native e strumenti di infrastruttura come Nvidia vGPU, Magnum IO, Cuda -X AI e il DOCA SDK per Bluefield DPUs. VMWare ha integrato il supporto per caratteristiche specifiche delle GPU A100 in vSphere 7 Update 2. GPUDirect RDMA per vGPUs può essere usato per abilitare la comunicazione diretta tra GPU in diversi nodi. Inoltre, Multi-instance GPU (MIG) permette l'uso condiviso di una GPU da un massimo di sette VM e anche lo spostamento di istanze MIG su altri host A100. Queste caratteristiche sono attualmente offerte da vSphere come unica soluzione di virtualizzazione del server

NVIDIA AI Enterprise è disponibile come licenza perpetua al prezzo di 3.595 dollari per socket CPU. L'Enterprise Business Standard Support per NVIDIA AI Enterprise costa 899 dollari all'anno per licenza.

Per Alfred Manhart, VP Channel EMEA di Nvidia, AI Enterprise è anche un'opportunità per attrarre ulteriori partner, poiché si rivolge a un gran numero di system house e MSP che lavorano con vSphere e hanno clienti interessati a soluzioni AI specifiche per la loro area di business. Il programma di partner di Nvidia ora non è più legato ai diversi prodotti del produttore, ma agli ecosistemi per diverse aree verticali di applicazione. Di solito, diversi partner con diverse competenze sono coinvolti nei progetti. Il produttore ha buoni contatti con diverse migliaia di start-up dell'area di applicazione dell'IA e con le università di tutto il mondo. I partner possono anche partecipare a corsi di formazione presso il Nvidia Deep Learning Institute. Attraverso il Nvidia GPU Cloud (NGC), il produttore fornisce anche framework AI in contenitori, modelli pre-addestrati. Sono anche disponibili istruzioni e script passo dopo passo per creare modelli di apprendimento profondo e le cosiddette collezioni.


Pagine utili:

Informazioni sul formato .ai
Informazioni sul formato .av

Lascia un commento