10 punti da considerare nella gestione dei dati

La logistica delle aziende industriali è stata ottimizzata per decenni. Il successo in questo processo può determinare il futuro dell'intera azienda. La gestione dei dati non è nulla di diverso, tranne che si tratta di gestire le informazioni aziendali.

Quasi tutte le aziende (98,5 %) sono in fase di digitalizzazione, secondo lo studio IDG "Enterprise Storage 2021". L'infrastruttura/architettura/colocalizzazione IT (46%) e il cloud (42%) sono stati indicati come i temi più importanti dai partecipanti, seguiti da vicino dalla cybersicurezza (36%) e dall'analisi dei dati/Big Data (34%). Seguono Artificial Intelligence/Machine Learning, Internet of Things e Storage Strategies and Solutions, ciascuno con più del 20%.

In base a questa prioritizzazione, si possono ricavare i requisiti futuri per i dati e quindi per la gestione dei dati.

1. Data Mobility

I primi due argomenti, Infrastruttura e Cloud, affermano che in futuro, sia le infrastrutture cloud ibride che gli stack IT tradizionali saranno gestiti all'interno del settore. A causa di vari requisiti, questa forma ibrida sarà con noi per qualche tempo. La conseguenza è che i dati devono seguire i processi che li elaborano. Un'applicazione che viene gestita nel data center locale oggi potrebbe essere già nel cloud domani o viceversa. La gestione dei dati deve quindi offrire funzioni che permettano di spostare, replicare o sincronizzare i dati a seconda delle necessità.

La necessità di mobilità dei dati deriva anche dalla tendenza verso l'edge computing. Le informazioni sono distribuite su molti luoghi e devono essere gestite come su tutte le altre piattaforme di archiviazione. Ci sono anche possibilità di eseguire carichi di lavoro ad alta intensità di dati direttamente sui sistemi di storage, per esempio come container - che rappresenta un'opportunità completamente nuova per le classi di storage.

Un effetto collaterale della mobilità dei dati è la prevenzione dei progetti di migrazione che sono comuni oggi. Nel migliore dei casi, i dati possono essere spostati attraverso i confini del fornitore senza interruzioni.

2. Automazione/Autonomia

Il modello operativo cloud comporta essenzialmente l'automazione dei processi IT. È qui che la gestione dei dati deve integrarsi perfettamente. Sulla base di informazioni descrittive (etichette di dati), il provisioning deve essere automatico. Funzioni aggiuntive come il reporting e la previsione della capacità, la manutenzione predittiva e l'ottimizzazione del sistema sono la strada per una gestione autonoma dei dati.

3. Etichettatura dei dati

Come prerequisito per l'automazione, sono necessarie informazioni descrittive per i dati e i gruppi di dati. Idealmente, questo potrebbe essere fatto tramite un sistema decisionale (AI e/o basato su regole). Finché questo è il caso, questo viene fatto tramite la rispettiva applicazione (per esempio, i file manifest nel caso dei container) o tramite il gestore dell'applicazione.

4. Alta disponibilità

È chiaro dallo studio sopra menzionato che il cento per cento di disponibilità dello storage è il requisito numero uno. Questo non richiede solo un'alta disponibilità in una posizione, ma anche meccanismi di replica in altre posizioni. Le distanze della metropolitana da 10 a 30 chilometri, che sono comuni oggi in Germania, dovrebbero essere riconsiderate in vista dell'aumento del rischio di disastri. Qui, almeno una terza posizione, distanze maggiori o il mirroring al cloud dovrebbero essere considerati.

5. Sicurezza e protezione dei dati

Al terzo posto, direttamente dietro l'infrastruttura e il cloud, c'è il tema della sicurezza dei dati. Nonostante tutte le misure di protezione nel data center e nel cloud, si deve presumere che le routine maligne penetrino nello storage. Qui bisogna integrare dei meccanismi che limitino l'accesso ai dati e che reagiscano quando quest'ultimo baluardo è stato superato. La protezione continua dei dati a livello di storage può essere la soluzione in questo caso. Il prerequisito, naturalmente, è che questo non comprometta le prestazioni e garantisca il più breve RPO e RTO possibile.

Le aziende oggi si stanno muovendo verso la non cancellazione dei dati generati. Il valore di queste informazioni non può essere determinato al momento della creazione. Un'informazione che oggi è inutile può essere la base per un vantaggio sul mercato domani. Le condizioni quadro operative e legali possono richiedere il contrario e definire i periodi di conservazione e cancellazione. Questi sono registrati esattamente allo stesso modo delle classi di sicurezza durante l'etichettatura dei dati. Le classi di stoccaggio corrispondenti assicurano lo stoccaggio e l'archiviazione o la distruzione conformi alla legge.

6. Multiprotocollo

I Big Data, così come l'AI e l'IoT, richiedono diversi meccanismi di accesso. Un sistema ideale di gestione dei dati dovrebbe memorizzare i dati per questi casi d'uso indipendentemente dal protocollo di accesso. Questo evita repliche non necessarie, conserva la larghezza di banda ed evita errori causati da record di dati non aggiornati. Oltre ai soliti protocolli come NFS e SMB, qui sono richiesti anche HDFS e S3. Un client per il calcolo ad alte prestazioni permette un accesso time-critical anche per questo caso d'uso.

7. Dati di massa

I volumi di dati futuri in un'azienda sono difficilmente prevedibili al momento. Con il focus sulla digitalizzazione nelle aziende, sorgono costantemente nuove esigenze che richiedono opzioni di scalabilità a breve termine nella gamma dei petabyte. Soluzioni IoT speciali che richiedono anche registrazioni video e audio dovrebbero essere nominate qui solo come esempi.

Un altro requisito è che grandi quantità di dati dovrebbero essere mantenute accessibili per l'AI e i Big Data. I supporti offline contengono il pericolo che le informazioni memorizzate su di essi non possono essere monetizzate in modo tempestivo.

8. Prestazioni

Storage performance è sempre parlato nelle aziende solo quando è insopportabile per gli utenti, a seconda della loro capacità di soffrire. Sono proprio le applicazioni aziendali a risposta rapida che possono influenzare positivamente l'accettazione dei clienti e aumentare significativamente l'efficienza dell'azienda. Allo stesso modo, i processi batch possono essere accelerati o addirittura trasferiti a sistemi in tempo reale. Il Quality of Service deve quindi essere supportato nella gestione dei dati.

9. Storage Access

Volumi di dati più grandi richiedono larghezze di banda maggiori. Inoltre, ci si aspetta una minore latenza dal punto di vista delle prestazioni. Oggi, questo viene realizzato attraverso diverse reti di stoccaggio. Questo aumenta la complessità del provisioning e richiede ulteriori copie di dati. Non per niente le soluzioni all-IP sono una tendenza attuale nell'ambiente di stoccaggio. Con Remote Direct Memory Access (RDMA), le latenze sono ridotte all'ordine del microsecondo e le larghezze di banda corrispondenti sono disponibili secondo le necessità tramite 25/100/400 Gb Ethernet.

10. Protezione dell'ambiente

Sempre più aziende ancorano obiettivi ambiziosi di CO2 nella loro strategia. I centri dati e quindi anche la gestione dei dati devono dare il loro contributo. Questo viene preso in considerazione in sempre più progetti. Per la gestione dei dati, questo significa che oltre ai costi, deve essere mostrata anche l'impronta di CO2. Soprattutto il passaggio dagli hard disk meccanici alle memorie flash elettroniche offre un alto potenziale di risparmio.

I requisiti per una gestione dei dati orientata al futuro sono estremamente diversi e sono orientati alla strategia aziendale e IT. Forse il bene più importante di un'azienda oggi non gode di tutta la nostra attenzione per niente.

Huawei offre qui una soluzione end-to-end. I sistemi OceanStor Dorado, OceanStor Pacific e OceanProtect costituiscono la base fisica. Il motore di gestione dei dati (DME) è il cervello che orchestra i flussi di dati. Tramite processi end-to-end supportati dall'AI, tutti i requisiti di cui sopra sono soddisfatti.

La strada verso una gestione autonoma dei dati è quindi aperta!

Peter Kruth, Huawei

Peter Kruth, Huawei

*L'autore: Sulla base di un'ampia conoscenza delle infrastrutture IT, delle soluzioni cloud fino ai sistemi applicativi e di una vasta esperienza con clienti aziendali di vari settori, Peter Kruth è responsabile della progettazione e dell'architettura di efficienti soluzioni di data center specifiche per il cliente. Il focus è sul cloud flessibile e sulle tecnologie abilitate dall'AI. Nel suo tempo libero, è coinvolto nello sviluppo di Progressive Web Apps (PWA) nell'ambiente IoT, tra le altre cose.


Pagine utili:

Informazioni sul formato .rar
Informazioni sul formato .dat

Lascia un commento