Mi capita spesso di dover sottolineare ai clienti l’importanza di trattare dati esatti e, quando mi soffermo su questo argomento, noto distintamente nel loro sguardo il pensiero che io stia esagerando.
Anche se, nella vita di tutti i giorni, non ce ne accorgiamo, l’utilizzo di dati di bassa qualità – i cosiddetti bad data – ha un costo sociale enorme a carico di tutti noi, tant’è vero che il GDPR prescrive, all’art. 5, comma 1, lettera d), che il dato personale sia, tra le altre cose, “esatto e, se necessario, aggiornato: devono essere adottate tutte le misure ragionevoli per cancellare o rettificare tempestivamente i dati inesatti rispetto alle finalità per le quali sono trattati”.
Il principio di esattezza del dato implica che, se il dato raccolto è inesatto, il trattamento non è lecito e impone al Titolare del trattamento di verificare periodicamente l’attendibilità dei dati personali, anche senza un’espressa richiesta dell’interessato.
Il Titolare deve, quindi:
- adottare le misure necessarie per rettificare o eliminare tempestivamente i dati inesatti rispetto alle finalità per le quali sono trattati;
- verificare la correttezza dei dati raccolti con quelli inerenti lo stesso interessato ma raccolti in momenti diversi o che abbiano diversa provenienza.
Il dato inesatto potrebbe anche non essere errato, ma semplicemente incompleto: per questa ragione, l’art. 16 del GDPR prevede la possibilità per l’interessato di chiedere e ottenere la rettifica o l’integrazione dei propri dati personali nella disponibilità del Titolare.
E’, comunque, fondamentale che il Titolare del trattamento monitori costantemente i dati per tutto il loro ciclo di vita: quando li raccoglie (attraverso il caricamento all’interno di una banca dati), in occasione dei vari trattamenti e fino alla loro cancellazione.
Nell’epoca dell’Intelligenza Artificiale, l’attendibilità delle fonti e la qualità dei dati utilizzati è fondamentale perché immettere negli algoritmi Big Data non cristallini è potenzialmente in grado di generare effetti negativi per la società nel suo complesso.
In alcuni contesti, poi, l’utilizzo dei Big Data senza un preventivo e scrupoloso controllo di affidabilità, può avere impatti drammatici sulle nostre vite: pensiamo, ad esempio, al settore della sanità o della finanza.
La raccolta di Big Data – presupposto su cui operano e sempre più opereranno le future Intelligenze artificiali – senza accertare la qualità e la provenienza delle informazioni, determina anche l’impossibilità di individuare chiare responsabilità in capo a chi, quei dati, utilizza ai fini delle proprie applicazioni pratiche, giungendo a mettere in crisi il principio stesso dell’uso dei dati come strumento di sviluppo economico.
Per consentire all’Intelligenza Artificiale di essere all’altezza delle nostre aspettative, dobbiamo garantire la qualità delle informazioni che tali potentissimi strumenti elaborano, perché l’utilizzo di Bad Data, anziché generare vantaggi competitivi e migliorare l’efficienza, può unicamente produrre problemi ulteriori e maggiori di quelli che si vorrebbe risolvere.