Come la NASA si è affidata all’edge computing per lo sbarco sulla luna

Anche se l'"edge computing" è percepito come un approccio tecnologico moderno in contrapposizione al cloud e al core (data center), è in definitiva un principio che è stato già applicato nella missione Apollo.

L'edge computing è diventato sempre più una parte importante dell'IT. Il CTO di Suse, il dottor Gerald Pfeifer, formula così il significato: "L'edge non è più una nicchia di cui si occupano altri, ma una terza modalità a pieno titolo accanto al data center, cioè il core, e al cloud". Rispetto a core e cloud, tuttavia, edge è più difficile da definire o limitare, a parte il fatto che non è uno degli altri due casi (core o cloud). Le casse dei supermercati rientrano nel concetto di edge, così come i sistemi di misurazione, i telefoni cellulari, le automobili con l'IT a bordo e gli aerei.

In retrospettiva, molte cose erano "edge"

Così, in retrospettiva, molte cose erano "edge", anche se questo concetto non esisteva all'epoca. Pfeifer valuta che l'edge computing esiste da più di 50 anni. "Conterei anche i computer di bordo del primo atterraggio sulla luna dell'Apollo come parte di questo, anche prima che internet come tale esistesse e dove la comunicazione avveniva via radio, o gli ambienti dei punti vendita nella vendita al dettaglio", dice il CTO. La differenza nel corso del tempo è caratterizzata dal fatto che le soluzioni di bordo erano originariamente per lo più "fatte a mano" e molto specifiche, spesso anche piuttosto statiche. Oggi, invece, la standardizzazione e il riutilizzo sono entrati nell'ambiente tecnologico, così come le crescenti esigenze dovute ai brevi cicli di sviluppo.

L'elaborazione dei dati ai margini della rete

In definitiva, l'edge computing riguarda l'elaborazione decentralizzata dei dati ai margini della rete, dove vengono trasmessi solo i risultati. Questo contrasta con la tendenza secondo cui le aziende si affidano sempre più all'archiviazione di dati grezzi non elaborati, perché quando i dati vengono raccolti, a volte non è nemmeno possibile prevedere quali approfondimenti possono essere ottenuti in seguito attraverso i dati o l'analisi predittiva. Secondo Pfeifer, l'approccio in quest'area di tensione dipende fortemente dal rispettivo scopo dell'applicazione e dall'infrastruttura disponibile. Sorgono domande come: Si tratta di dati personali, e quali sono gli obblighi che ne derivano (parola chiave DSGVO/ GDPR)? Quanti dati sono coinvolti e c'è sufficiente larghezza di banda o memoria buffer locale disponibile? Quale valore aggiunto si sta cercando, e qual è la relazione tra questo e il lavoro e i costi aggiuntivi?

Acquisizione, trasporto e immagazzinamento dei dati

Secondo il CTO di Suse, oggi è immensamente facile acquisire e generare quasi qualsiasi quantità di dati. "Tuttavia, oltre alla lavorazione iniziale, il trasporto e lo stoccaggio sono ancora un problema. Mi aspetto che questo rimanga il caso per il prossimo futuro", dice il professionista di Linux. Pfeifer delinea lo sviluppo dell'edge computing nel tempo nel senso che l'edge era in parte più distaccato e statico, "per lo più collegato da collegamenti sottili, abbastanza specializzato e gestito separatamente da altre infrastrutture". Al contrario, oggi c'è molto più dinamismo e networking. "Le soluzioni abbracciano l'edge, i data center e il cloud. I dati vengono scambiati diligentemente, le soluzioni vengono create e sviluppate con agilità e le singole applicazioni vengono distribuite."

Container e Kubernetes

È un vantaggio, spiega l'esperto di tecnologia, se gli ambienti sono simili, o addirittura (dal punto di vista degli sviluppatori e degli operatori) identici o almeno compatibili. "Gli approcci moderni come i container come blocchi di costruzione e Kubernetes come piattaforme flessibili si prestano qui. In questo contesto, un cluster Kubernetes nella mia auto a noleggio avrà probabilmente un aspetto diverso da quello che esegue il mio sistema ERP o il mio negozio web, ma si sentirà simile". Pfeifer lo paragona alla differenza tra un'auto compatta e un autoarticolato, che hanno anche caratteristiche diverse, ma la funzione dei pedali, l'autoradio o le regole del traffico sono molto simili o identiche. Questo rende possibile sviluppare localmente o nelle nuvole e testare in anticipo, per spingere le funzioni dove si trova la maggior parte dei dati, o per rendere i dispositivi al bordo più autonomi.

Informazioni aggiuntive

Rancher Container Management e il canale

Secondo il CTO di Suse Dr. Gerald Pfeifer, il suo datore di lavoro lavora strettamente con i partner del canale IT quando si tratta di Edge. Suse fornisce blocchi di costruzione per le architetture di edge computing e sta comprando pesantemente in questo contesto. L'acquisto di Rancher Labs, un fornitore di soluzioni per la gestione aziendale di Kubernetes, è centrale in questo contesto. La piattaforma di gestione dei container Rancher dietro di essa ha recentemente lavorato con lo strumento Longhorn 1.1. Con la disponibilità generale di Longhorn da giugno 2020, lo strumento ha guadagnato importanza nell'ambiente Kubernetes e di stoccaggio. La nuova versione permette agli utenti di Rancher di utilizzare una soluzione di storage nativa di Kubernetes su hardware limitato in ambienti Edge.

Interazione tra Edge, Core e Cloud

Edge, Core e Cloud non sono indipendenti l'uno dall'altro, ma in una dinamica di scambio e cooperazione. Dal punto di vista tecnico, questo significa che argomenti come l'orchestrazione, l'alta disponibilità, i dati e la sicurezza del sistema devono essere coperti in questo insieme di Edge, Core e Cloud. "Mi aspetto che vedremo dei fili rossi qui: Kubernetes diventerà anche lo standard de facto nell'Edge, non ultimo attraverso distribuzioni specializzate e più snelle come K3s. Linux continuerà a sostituire le soluzioni proprietarie ad isola", è convinto Pfeifer.


Pagine utili:

Informazioni sul formato .arc
Informazioni sul formato .dat

Lascia un commento