Potere? Basta! La leggendaria risposta di Rolly-Royce alla domanda sulla potenza dell'otto e del dodici cilindri si applica raramente nell'informatica. Come regola, si applica il principio del macellaio: "Ne vuoi un po' di più?
Le richieste sempre crescenti di video e applicazioni di analisi o le precauzioni di sicurezza ormai inevitabili fanno aumentare costantemente la richiesta da parte dei dipartimenti e degli utenti di prestazioni di calcolo sempre più veloci - con tassi di crescita che tendono ad aumentare. Un disco in più non è sufficiente. E i dipartimenti IT possono soddisfare questa fame solo con nuove tecnologie server e concetti di scaling intelligenti. Tuttavia, le vendite globali di server sono diminuite dal 2018 al 2019. Come si concilia tutto questo?
Anche con l'avvento della virtualizzazione, ai produttori di server è stato predetto un futuro grigio nel migliore dei casi. In effetti, a causa dell'ottimizzazione associata dell'utilizzo dei dispositivi, il numero di unità è diminuito. Ma grazie all'aumento delle richieste sull'hardware, il prezzo per server è aumentato in compensazione.
Il cloud cresce e i server ristagnano
Previsioni simili vengono ora fatte dalla crescente accettazione dell'IaaS (Infrastructure as a Service), poiché l'attrezzatura iniziale e la domanda repressa di data center di proprietà delle aziende vengono parzialmente eliminate. "Ok, allora venderemo semplicemente i server ai provider", è il pio desiderio di molti provider. Ma molti preferiscono costruire i loro server da soli - o farli produrre da produttori a contratto. Quindi lo spostamento dei gruppi target non è così semplice. Tuttavia, IDC vede vendite in aumento per il mercato dei server dell'Europa occidentale fino al 2020. La fantasia, tuttavia, è nel mercato Iaas, che dovrebbe superare il mercato dei server in volume totale per la prima volta nel 2023. Secondo le previsioni, quest'ultimo sarà almeno "stagnante" ad un livello elevato di oltre dieci miliardi di dollari.
I sistemi iperconvergenti, invece, stanno vivendo un vero boom. Ci è voluto abbastanza tempo. Già cinque anni fa, sono stati proclamati dai relativi produttori come "la prossima grande cosa". Ma ci è voluto più tempo del previsto - o sperato - per l'accettazione e l'implementazione nella pratica. Nel 2018, la svolta è stata raggiunta. Rispetto all'anno precedente, le vendite globali sono aumentate di oltre il 50% fino a 4,4 miliardi di dollari. E per il 2019, un altro 45 per cento dovrebbe essere aggiunto a queste vendite impressionanti. Una vera storia di successo. Al contrario, le architetture di riferimento e i sistemi infrastrutturali integrati sono in stagnazione. Le vendite di sistemi stack integrati sono addirittura in calo, ma giocano solo un ruolo marginale nel mercato dei server.
Guardando le vendite per fornitore/produttore, le cifre IDC mostrano molti perdenti e un chiaro vincitore: Il nuovo arrivato cinese Inspur sta causando molto movimento, ora anche sul mercato tedesco In vista dell'offensiva Inspur, i campanelli d'allarme dovrebbero suonare ai concorrenti. Supermicro, per esempio, ha prontamente ampliato il suo sito di produzione europeo nei Paesi Bassi e ha introdotto un nuovo programma di partner di canale con offerte di servizi ampliate. Sarà interessante vedere come le cose si riorganizzeranno e, soprattutto, se Inspur riuscirà ad affermarsi anche sul mercato tedesco con un successo simile.
HCI e il cloud ibrido
Il boom dei sistemi iperconvergenti è anche legato al fatto che sono relativamente facili da integrare nel sempre più popolare concetto di cloud ibrido o addirittura di multi-cloud ibrido. Poiché un'infrastruttura iperconvergente combina le risorse virtualizzate di calcolo, storage e rete in un'unica piattaforma e le gestisce insieme, è relativamente facile spostare i singoli carichi di lavoro dal proprio data center a diversi fornitori di cloud e riportarli indietro. Gli attuali sistemi hyperconverged supportano anche più hypervisor e ambienti virtuali e ora anche i container Docker con Kubernetes come sistema di orchestrazione.
La crescente importanza delle tecnologie container è illustrata anche dalle risposte che abbiamo ricevuto dalle system house alla seguente domanda: "Quanto è pronunciata la tendenza tra i vostri clienti verso la prossima fase del Software Defined Data Centre, cioè: le classiche soluzioni di virtualizzazione vengono sostituite dalle tecnologie container per rendere più facile il percorso verso il multi-cloud ibrido?"
I contenitori non possono e non sostituiranno le classiche soluzioni di virtualizzazione, ma sono particolarmente adatti per le applicazioni che sono usate in modo portabile nelle infrastrutture ibride.
Un altro vantaggio delle infrastrutture iperconvergenti (HCI) è che sono fondamentalmente definite dal software. I componenti hardware sono astratti sotto un livello software che permette una gestione semplice di tutti i nodi. Altre caratteristiche includono una vasta automazione e API per DevOps. Questo significa che possono essere facilmente impostati e messi in funzione anche senza un grande dipartimento IT con personale specializzato. Questo è un vantaggio soprattutto per l'uso in filiali e centri dati periferici. Nei data center aziendali, l'HCI rende relativamente facile impostare strutture altamente disponibili.
Il problema della mancanza di scalabilità non si pone più con l'HCI nella stessa misura dei primi anni della tecnologia. Il vantaggio qui è che i sistemi iperconvergenti ora usano di solito server standard facilmente espandibili. Per esempio, alcuni nodi di calcolo comuni oggi offrono la possibilità di espansione con schede GPU per carichi di lavoro AI o di apprendimento automatico. Con l'implementazione di un'infrastruttura Hyperconverged disaggregata, la flessibilità è ancora maggiore. L'introduzione di NVMe over Fabrics dà un'ulteriore spinta a questo sviluppo.
Limiti dei sistemi iperconvergenti
Tuttavia, i sistemi iperconvergenti sono in principio utili solo per i carichi di lavoro virtualizzati. In molte aziende, tuttavia, ci sono applicazioni che possono essere gestite solo male o per niente in forma virtualizzata. Le applicazioni in tempo reale che richiedono una bassa latenza, come SAP Hana, le applicazioni big data o i sistemi di controllo della produzione, sono particolarmente problematiche. Se queste applicazioni esistono in parallelo su infrastrutture di server tradizionali e infrastrutture iperconvergenti, così come sul cloud, questo è chiamato bimodale IT, secondo Gartner. Le diverse architetture e i diversi concetti di gestione che esistono qui fanno aumentare lo sforzo per l'amministrazione e quindi i costi.
L'infrastruttura componibile (CI) promette una soluzione a questo dilemma: si tratta di sistemi di infrastruttura con un alto grado di astrazione che aggregano risorse IT come potenza di calcolo, storage e rete da un pool dinamico secondo le esigenze del carico di lavoro e le ritrasferiscono nel pool alla fine dell'utilizzo. Questo pool è composto da diversi componenti del sistema che sono collegati da una rete veloce e a maglie. I componenti eterogenei nel centro dati, che includono server con VM e container, così come server bare metal, sono anche sotto un livello di gestione uniforme con API e un alto grado di automazione in CI.
Sono definiti dei modelli per i singoli carichi di lavoro, che permettono un rapido provisioning delle risorse. Si dice che la CI sia altrettanto adatta dell'HCI per la creazione di un multi-cloud ibrido. Tuttavia, un'infrastruttura componibile può sviluppare tutte le sue prestazioni solo se i singoli componenti dell'intero data center sono collegati da una rete con una latenza molto bassa e una larghezza di banda molto alta, per esempio sulla base della fotonica del silicio. Qui, tuttavia, le soluzioni corrispondenti sono attualmente ancora in fase di sviluppo.
Stiamo notando una tendenza verso l'uso di soluzioni container e app native cloud. Entrano in gioco soprattutto con le nuove applicazioni. Tuttavia, i clienti continueranno a usare le applicazioni legacy per qualche anno ancora - e i fornitori di software stanno rispondendo a questo. La prossima generazione di software di gestione e automazione del cloud serve allo stesso modo il vecchio e il nuovo mondo, indipendentemente dal cloud e dall'applicazione in uso. Questo aiuta a controllare e gestire i costi delle infrastrutture. Allo stesso tempo, dà ai nostri clienti la scelta di usare la tecnologia giusta per loro. Questa libertà nell'infrastruttura è un aspetto cruciale perché i dati e le applicazioni determineranno il successo delle imprese.
Indipendentemente dal settore, vediamo una chiara tendenza a realizzare le nuove esigenze soprattutto con le moderne tecnologie dei container. L'alto tasso di adattamento deriva dalla scalabilità significativamente più alta, dall'uso più efficiente delle risorse di sistema e dalla portabilità delle applicazioni nelle infrastrutture ibride. Tuttavia, i container non possono sostituire completamente le VM di oggi. Sono più complesse da gestire, non sono adatte a tutti i tipi di applicazioni e, ad oggi, le VM offrono ancora uno standard di sicurezza significativamente più alto dei container. Supportiamo le aziende nel decidere la tecnologia giusta e poi la forniamo come servizio gestito o come Platform as a Service
Attuiamo la maggior parte delle nuove applicazioni sulla base di container, perché le applicazioni ibride possono essere programmate sensatamente solo in questo modo. Inoltre, solo i container assicurano la mobilità delle applicazioni in ambienti multi-cloud in modo efficiente ed efficace. Tuttavia, le soluzioni classiche di virtualizzazione hanno ancora il loro posto nell'IT. Possono anche essere utilizzati per implementare l'IT multi-cloud - ma senza soddisfare il requisito della mobilità. Le soluzioni di virtualizzazione classiche continueranno certamente ad essere la base per i carichi di lavoro legacy per alcuni anni a venire, perché un passaggio ai container è troppo costoso o non necessario. Anche i principi di software-defined per lo storage, la rete e il calcolo, così come il provisioning automatizzato dei servizi, possono essere realizzati in questo modo.
Al momento non vediamo la tecnologia dei container come una sostituzione delle soluzioni di virtualizzazione, ma piuttosto come un blocco di costruzione per la progettazione orientata al futuro di un'infrastruttura. I vantaggi della tecnologia dei container, come la conservazione delle risorse hardware e il minore overhead dei sistemi operativi e delle macchine virtuali, hanno effetto soprattutto in ambienti molto veloci, complessi e altamente flessibili. Le medie imprese tendono a entrare in contatto con i container solo indirettamente, attraverso il consumo di offerte SaaS. In generale, comunque, possiamo vedere una tendenza verso la tecnologia dei contenitori. Ci aspettiamo anche che questa tendenza continui a svilupparsi a causa del crescente grado di networking e distribuzione.
Tendenze nei processori di server
Nonostante tutte le astrazioni, la "lamiera", cioè il singolo server nel rack, costituisce ancora la base nel centro dati. Ed è qui che le cose stanno accadendo nei processori di server al momento. Per la prima volta da anni, Intel sta affrontando una concorrenza significativa da parte di AMD. Dopo che la prima generazione di processori Epyc di AMD ha incontrato una risposta contenuta, c'è tutta una serie di annunci dei principali produttori di server per la seconda generazione basata sulla microarchitettura Zen 2. Questo perché le CPU server della serie Epyc-7002 offrono fino a 64 core, hanno otto canali di memoria e, soprattutto, 128 corsie PCI Express 4.0. La CPU presenta un design a chiplet con un dispositivo I/O a basso costo da 14nm come centro e fino a otto chiplet di calcolo da 7nm con otto core ciascuno. Questo design abbassa i costi e permette una produzione più flessibile di un design monolitico.
L'attuale Cascade Lake di Intel ha attualmente raggiunto il capolinea con 56 core. Lo Xeon Platinum 9282, costruito da due matrici a 28 core, è anche disponibile saldato su speciali moduli di calcolo in configurazione dual-CPU. Intel produce gli attuali modelli Xeon con un processo a 14 nm. Secondo una recente roadmap trapelata, i processori Xeon a 10nm di Intel non sono previsti fino al secondo trimestre. Questi modelli Ice Lake SP supporteranno poi anche PCIe 4.0, ma avranno solo un massimo di 26 core.
Tuttavia, Intel ha ancora il vantaggio di un team software significativamente più grande che assicura un supporto ottimale per i propri processori. Inoltre, Cascade Lake offre Deep Learning Boost, un set di istruzioni AVX-512 aggiuntive per applicazioni HPC e AI, così come il supporto per Optane DC Persistent Memory.