Manfred Buchmann, come Senior Director Systems Engineering EMEA, è una sorta di "mente tecnica" alla Netapp. Per noi, dà uno sguardo al data center del futuro.
ITB: Qual è attualmente la più grande sfida per i data center?
Buchmann: Il comportamento degli utenti è cambiato. Oggi, non possono più aspettarsi che gli utenti aspettino le finestre di manutenzione, né possono aspettarsi tempi di attesa dovuti a tempi di risposta lenti. Una volta questo era accettato, ma oggi nessuno aspetta 10 secondi per aprire una finestra web. L'aspettativa è: un servizio deve essere sempre disponibile immediatamente: dai servizi tradizionali come ERP alla contabilità delle spese di viaggio online nel fine settimana. I data center sono quindi in piena trasformazione. E questo sotto diversi aspetti. Innanzitutto, come gestire il data center? In secondo luogo, quali servizi sono forniti internamente o vengono dall'esterno perché non sono più rilevanti per il core business. In altre parole, l'intera gamma di approcci ibridi. Questo porta a un cambiamento nello stile di gestione di un centro dati.
Buchmann: A livello tecnico, questi scenari richiedono che i servizi siano sempre disponibili al cento per cento. Always-on funziona solo se lo hanno su ogni livello, cioè a livello di applicazione, server, rete e storage. L'infrastruttura di storage deve quindi essere costruita in modo tale da non richiedere più tempi di inattività per modifiche all'hardware, aggiornamenti del software o manutenzione. Inoltre, deve offrire la possibilità di spostare i carichi di lavoro avanti e indietro dinamicamente o su richiesta: da controller a controller, da storage flash a unità SATA, queste sono le cose di cui abbiamo bisogno: Quindi il famoso bilanciamento del carico.
ITB: Come affrontate la prevista crescita esponenziale dei dati?
Buchmann: Le cifre IDC parlano di 35 zetabyte nel 2020, attualmente siamo a due zetabyte. Se lo suddividiamo per un'azienda, stiamo parlando di un aumento medio di dieci o quindici volte. Nessuno può più affrontare i problemi associati in termini di personale, capacità, consumo di energia o spazio. Quindi abbiamo bisogno di più tecnologie come la deduplicazione, che riducono il volume dei dati, e abbiamo bisogno di concetti di storage a livelli.
ITB: Storage a livelli significa inevitabilmente anche dati a livelli, cioè differenziazione in termini di dati per processi operativi, backup e archiviazione. Come si affronta questo?
Buchmann: Si possono trattare i dati come oggetti tramite griglie di archiviazione, cioè fornire loro dei metadati. Un'altra variante è quella di memorizzare sempre i dati sul dispositivo più economico e di dotarlo di SLA. È anche possibile utilizzare la flash come cache per i dati operativi al fine di accelerare le capacità dei dischi più economici. Ciò che è importante per questi approcci ibridi è la flessibilità dei dati. E nel contesto della gestione dei metadati, hanno a che fare con le API. Per questo, l'industria dello stoccaggio ha appena adottato lo standard CDMI. Lo scopo di CDMI è di avere un'API uniforme per la gestione dei contenuti, cioè una sorta di interfaccia cloud per i dati basati su oggetti. Questo significa che un'applicazione corrispondente come SAP o Oracle può parlare con tutti i livelli di stoccaggio senza adattamenti speciali. Ora si tratta di implementare questo standard da parte dei produttori.
Informazioni aggiuntive
Sulla persona
Manfred Buchmann è Senior Director Systems Engineering EMEA di Netapp. Il fulcro delle sue attività è l'integrazione delle offerte Netapp, Fujitsu e SAP nel contesto di progetti impegnativi come le architetture scale-out o i Big Data. Preferisce fare questi compiti in collaborazione con i partner.
web | www.netapp.com/de
ITB: E cosa dice la sua sfera di cristallo?
Buchmann: Tra cinque anni avremo così tanta potenza nell'hardware che quasi tutto sarà virtualizzato. Gli apparecchi fisici per l'accelerazione del software diventeranno quindi gradualmente obsoleti.