Elaborazione dei bordi - Edge computing

L'edge computing è un paradigma di calcolo distribuito che avvicina il calcolo e l'archiviazione dei dati alle fonti dei dati. Ciò dovrebbe migliorare i tempi di risposta e risparmiare larghezza di banda . "Un malinteso comune è che edge e IoT siano sinonimi. L'edge computing è una forma di calcolo distribuito sensibile alla topologia e alla posizione, mentre l'IoT è un'istanza di caso d'uso dell'edge computing". Il termine si riferisce a un'architettura piuttosto che a una tecnologia specifica.

Le origini dell'edge computing risiedono nelle reti di distribuzione dei contenuti create alla fine degli anni '90 per servire contenuti Web e video da server perimetrali distribuiti vicino agli utenti. All'inizio degli anni 2000, queste reti si sono evolute per ospitare applicazioni e componenti applicativi negli edge server, dando vita ai primi servizi di edge computing commerciali che ospitavano applicazioni come localizzatori di rivenditori, carrelli della spesa, aggregatori di dati in tempo reale e motori di inserimento di annunci.

L'infrastruttura di edge computing

Definizione

Una definizione di edge computing è qualsiasi tipo di programma per computer che fornisce una bassa latenza più vicino alle richieste . Karim Arabi, in un Keynote IEEE DAC 2014 e successivamente in una conferenza su invito al seminario MTL del MIT nel 2015, ha definito l'edge computing in senso lato come tutto il calcolo al di fuori del cloud che avviene ai margini della rete e, più specificamente, nelle applicazioni in cui l'elaborazione in tempo reale di dati è richiesto. Nella sua definizione, il cloud computing opera su big data mentre l'edge computing opera su "dati istantanei", ovvero dati in tempo reale generati da sensori o utenti.

Il termine è spesso usato come sinonimo di fog computing.

Secondo il rapporto The State of the Edge , l'edge computing si concentra sui server "in prossimità della rete dell'ultimo miglio". Alex Reznik, presidente del comitato per gli standard ETSI MEC ISG, definisce in modo approssimativo il termine: "tutto ciò che non è un data center tradizionale potrebbe essere il 'vantaggio' per qualcuno".

I nodi edge utilizzati per lo streaming di giochi sono noti come gamelet , che di solito si trovano a uno o due salti di distanza dal client. Per Anand ed Edwin affermano che "il nodo periferico è per lo più a uno o due salti di distanza dal client mobile per soddisfare i limiti di tempo di risposta per i giochi in tempo reale" nel contesto del cloud gaming .

L'edge computing può utilizzare la tecnologia di virtualizzazione per semplificare l'implementazione e l'esecuzione di un'ampia gamma di applicazioni sui server perimetrali.

Concetto

Si prevede che i dati mondiali cresceranno del 61% fino a 175 zettabyte entro il 2025. L'aumento dei dispositivi IoT ai margini della rete sta producendo un'enorme quantità di dati: l'archiviazione e l'utilizzo di tutti quei dati nei data center cloud spinge i requisiti di larghezza di banda della rete al limite. Nonostante i miglioramenti della tecnologia di rete , i data center non possono garantire velocità di trasferimento e tempi di risposta accettabili, che, tuttavia, sono spesso un requisito critico per molte applicazioni. Inoltre, i dispositivi all'edge consumano costantemente dati provenienti dal cloud, costringendo le aziende a decentralizzare l'archiviazione dei dati e il provisioning dei servizi, sfruttando la vicinanza fisica all'utente finale.

In modo simile, l'obiettivo dell'edge computing è spostare il calcolo dai data center verso il confine della rete, sfruttando oggetti intelligenti , telefoni cellulari o gateway di rete per eseguire attività e fornire servizi per conto del cloud. Spostando i servizi all'edge, è possibile fornire la memorizzazione nella cache dei contenuti , l'erogazione dei servizi, l'archiviazione permanente dei dati e la gestione dell'IoT con conseguenti migliori tempi di risposta e velocità di trasferimento. Allo stesso tempo, la distribuzione della logica a diversi nodi di rete introduce nuovi problemi e sfide.

Privacy e sicurezza

La natura distribuita di questo paradigma introduce un cambiamento negli schemi di sicurezza utilizzati nel cloud computing . Nell'edge computing, i dati possono viaggiare tra diversi nodi distribuiti collegati tramite Internet e quindi richiedono meccanismi di crittografia speciali indipendenti dal cloud. I nodi perimetrali possono anche essere dispositivi con risorse limitate, limitando la scelta in termini di metodi di sicurezza. Inoltre, è necessario un passaggio da un'infrastruttura top-down centralizzata a un modello di fiducia decentralizzato. D'altra parte, mantenendo ed elaborando i dati all'edge, è possibile aumentare la privacy riducendo al minimo la trasmissione di informazioni sensibili al cloud. Inoltre, la proprietà dei dati raccolti passa dai fornitori di servizi agli utenti finali.

Scalabilità

La scalabilità in una rete distribuita deve affrontare diversi problemi. In primo luogo, si deve tenere conto dell'eterogeneità dei dispositivi, aventi differenti prestazioni e vincoli energetici, la condizione altamente dinamica e l'affidabilità delle connessioni rispetto a infrastrutture più robuste dei data center cloud. Inoltre, i requisiti di sicurezza possono introdurre un'ulteriore latenza nella comunicazione tra i nodi, che può rallentare il processo di ridimensionamento.

Affidabilità

La gestione dei failover è fondamentale per mantenere attivo un servizio. Se un singolo nodo si interrompe ed è irraggiungibile, gli utenti dovrebbero comunque essere in grado di accedere a un servizio senza interruzioni. Inoltre, i sistemi di edge computing devono fornire azioni per recuperare da un errore e avvisare l'utente dell'incidente. A tal fine, ogni dispositivo deve mantenere la topologia di rete dell'intero sistema distribuito, in modo che il rilevamento degli errori e il ripristino diventino facilmente applicabili. Altri fattori che possono influenzare questo aspetto sono le tecnologie di connessione in uso, che possono fornire diversi livelli di affidabilità, e l'accuratezza dei dati prodotti a bordo che potrebbero essere inaffidabili a causa di particolari condizioni ambientali. Ad esempio, un dispositivo di edge computing, come un assistente vocale, può continuare a fornire servizi agli utenti locali anche durante il servizio cloud o le interruzioni di Internet.

Velocità

L'edge computing avvicina le risorse computazionali analitiche agli utenti finali e quindi può aumentare la reattività e il throughput delle applicazioni. Una piattaforma perimetrale ben progettata supererebbe notevolmente le prestazioni di un sistema tradizionale basato su cloud. Alcune applicazioni si basano su tempi di risposta brevi, rendendo l'edge computing un'opzione significativamente più fattibile rispetto al cloud computing. Gli esempi vanno dall'IoT alla guida autonoma, qualsiasi cosa rilevante per la salute o la sicurezza umana/pubblica o che coinvolga la percezione umana come il riconoscimento facciale, che in genere richiede a un essere umano tra 370-620 ms per eseguire. È più probabile che l'edge computing sia in grado di imitare la stessa velocità di percezione degli umani, il che è utile in applicazioni come la realtà aumentata in cui l'auricolare dovrebbe preferibilmente riconoscere chi è una persona contemporaneamente a chi lo indossa.

Efficienza

A causa della vicinanza delle risorse analitiche agli utenti finali, strumenti analitici sofisticati e strumenti di intelligenza artificiale possono essere eseguiti ai margini del sistema. Questo posizionamento ai margini aiuta ad aumentare l'efficienza operativa ed è responsabile di molti vantaggi per il sistema.

Inoltre, l'utilizzo dell'edge computing come fase intermedia tra i dispositivi client e Internet più ampio comporta risparmi in termini di efficienza che possono essere dimostrati nell'esempio seguente: Un dispositivo client richiede un'elaborazione intensiva del calcolo sui file video da eseguire su server esterni. Utilizzando server situati su una rete periferica locale per eseguire tali calcoli, i file video devono essere trasmessi solo nella rete locale. Evitare la trasmissione su Internet si traduce in un notevole risparmio di larghezza di banda e quindi aumenta l'efficienza. Un altro esempio è il riconoscimento vocale . Se il riconoscimento viene eseguito localmente, è possibile inviare il testo riconosciuto al cloud anziché le registrazioni audio, riducendo notevolmente la quantità di larghezza di banda richiesta.

Applicazioni

I servizi applicativi perimetrali riducono i volumi di dati che devono essere spostati, il traffico conseguente e la distanza che i dati devono percorrere. Ciò fornisce una latenza inferiore e riduce i costi di trasmissione. L'offload di calcolo per applicazioni in tempo reale, come gli algoritmi di riconoscimento facciale, ha mostrato notevoli miglioramenti nei tempi di risposta, come dimostrato nelle prime ricerche. Ulteriori ricerche hanno mostrato che l'utilizzo di macchine ricche di risorse chiamate cloudlet vicino agli utenti mobili, che offrono servizi tipicamente presenti nel cloud, ha fornito miglioramenti nei tempi di esecuzione quando alcune delle attività vengono scaricate sul nodo perimetrale. D'altra parte, l'offload di ogni attività può comportare un rallentamento dovuto ai tempi di trasferimento tra dispositivo e nodi, quindi a seconda del carico di lavoro è possibile definire una configurazione ottimale.

Un altro uso dell'architettura è il cloud gaming, in cui alcuni aspetti di un gioco potrebbero essere eseguiti nel cloud, mentre il video renderizzato viene trasferito su client leggeri in esecuzione su dispositivi come telefoni cellulari, occhiali VR, ecc. Questo tipo di streaming è anche noto come streaming di pixel .

Altre applicazioni degne di nota includono auto connesse , auto autonome , città intelligenti , Industria 4.0 (industria intelligente) e sistemi di automazione domestica.

Guarda anche

Riferimenti