Promesse del fog computing

Il fog computing è una via di mezzo tra l’archiviazione dei dati in locale e quella sul cloud: si tratta di una sorta di “nuvola intermedia ma più bassa“, vicina al punto in cui vengono generati i dati.

Il fog computing è un’idea italiana, sviluppata dall’Ingegnere valtellinese (ex vicepresidente di Cisco) Flavio Bonomi con la sua Nebbiolo Technologies, basata sulla constatazione che il modello del cloud non è perfetto perché è progettato per contenere i dati ma non per reagire in tempo reale.

Poiché l’Internet of things (IoT) richiede una prontezza di risposta immediata (pensiamo alle auto che si guidano da sole, alle smart cities, etc.), Nebbiolo Technologies sta sviluppando una infrastruttura a livello intermedio tra le memorie fisiche locali e il cloud, proprio per facilitare il flusso e la gestione dei dati nelle realtà iperconnesse.

Il fog computing vuole essere un complemento del cloud: si muove verso il basso, sta più vicino ai sistemi terminali, alle macchine e ai sensori; è progettato come un sistema sicuro, altamente disponibile, virtualizzato, che opera in tempo reale ed è in grado di provvedere e supportare l’edge computing, il networking e lo storage, permettendo un’importante convergenza tra le tecnologie IT e le tecnologie operative industriali .

Il fog computing, infatti, realizza l’idea di una rete distribuita che collega i dati dei dispositivi IoT con l’infrastruttura cloud per renderla più stabile e sicura, permettendo lo sviluppo di soluzioni applicative IoT industriali e commerciali, quali:

  1. connected car: l’avvento di auto semi-autonome e driverless porterà all’aumento esponenziale della quantità di veicoli in grado di creare dati. La circostanza che le auto funzionino in modo indipendente, richiederà la capacità di analizzare localmente determinati dati in tempo reale, come l’ambiente circostante, le condizioni di guida, le direzioni, etc.;
  2. smart city e smart grid: anche i sistemi di utility utilizzano sempre più spesso dati in tempo reale per gestire i sistemi in modo più efficiente. Quando questi dati si trovano in aree remote, dove la connessione con il cloud è difficile o incostante, l’elaborazione di tali dati vicino a dove si trova la loro fonte diviene essenziale;
  3. analisi in tempo reale: sono molteplici i casi d’uso che richiedono analisi in tempo reale: dai sistemi di produzione che devono essere in grado di reagire agli eventi man mano che si verificano, alle istituzioni finanziarie che utilizzano i dati in tempo reale per prendere importanti decisioni commerciali o monitorare le frodi.

Il fog computing, insomma, realizza un’architettura che distribuisce, senza interruzioni, servizi di memorizzazione e di calcolo, risorse computazionali, funzioni di rete e strumenti di controllo, utili allo sviluppo armonico ed efficiente dell’IoT.

Dal punto di vista tecnologico, non vi è dubbio che il fog computing possa essere un potente strumento per l’IoT ma, dal punto di vista legale, se già il rapporto contrattuale tra utente e cloud provider sconta moltissimi profili problematici e delicati (rimando, al riguardo, al mio articolo “GDPR e cloud: attenzione ai contratti“), non vi è dubbio che l’inserimento di un ulteriore soggetto intermedio possa incrementare considerevolmente la complessità, perlomeno sotto due profili:

  1. sotto il profilo contrattuale, perché occorrerà attentamente disciplinare i rapporti tra chi utilizza l’infrastruttura (in linea di massima, il cliente imprenditore), chi fornisce i servi di fog e chi fornisce i servizi di cloud in relazione a molteplici relazioni e azioni tra loro strettamente interconnesse ma facenti capo, ciascuna, ad un soggetto diverso, con importanti ricadute in termini di obblighi, responsabilità, garanzie di qualità dei servizi offerti, manleve reciproche, rimedi in casi di inerzia o inadempimento, etc.;
  2. sotto il profilo extracontrattuale, per la gestione di tutte le dinamiche tecnologiche che possono dar luogo a richieste di danno conseguenti al mancato o scorretto funzionamento dell’architettura fog/cloud, con riferimento, ad esempio, alla ripartizione dell’onere della prova dell’inadempimento, alla definizione di un assetto di regole finalizzate ad individuare il criterio in base al quale attribuire la responsabilità di un eventuale malfunzionamento dell’infrastruttura e, infine, anche alle regole di ripartizione dei costi nella fase risarcitoria (cioè chi deve pagare chi e che cosa).

 

Alessandro Ronchi

Informazioni su Alessandro Ronchi

Avvocato, appassionato di digital & data protection law
Questa voce è stata pubblicata in Digital life, Strumenti per il business, Tecnologia per il business e contrassegnata con , . Contrassegna il permalink.

Cosa ne pensi? Lascia il tuo commento!