Lunedì 16 dicembre ho assistito ad un interessantissimo dibattito sulle prospettive di applicabilità del GDPR ai sistemi basati sulle IA, presso l’Università Statale di Milano.
Ad animare il dibatto hanno contribuito i relatori Prof. Avv. Giovanni Ziccardi, Prof. Avv. Luigi Perri, Prof. Avv. Andrea Monti, l’Avv. Giangiacomo Olivi, il Prof. Avv. Giuseppe Vaciago ed il Prof. Danilo Bruschi.
Senza pretesa di poter ripercorrere, in poche righe, i contenuti di oltre tre ore di interventi di grande interesse, vi segnalo gli spunti della mattinata che mi sono parsi più interessanti.
Il Prof. Perri ha fatto, in apertura, un’opportuna precisazione, segnalando che ciò che noi chiamiamo Intelligenza Artificiale è, nei fatti, una IA debole, considerato che non abbiamo ancora a che fare con sistemi decision making ma che, per qualsiasi utilizzo, gli algoritmi esistenti necessitano quasi sempre di “aiuto” umano, come insegnano i casi Alexa e Google Assistant.
La datification dell’attività umana rappresenta un elemento fondamentale per lo sviluppo delle IA ma il timore è che gli attuali algoritmi contengano, anche in modo non cosciente per i loro creatori, i preconcetti tipici della mente umana, con il rischio di creare strumenti di discriminazione automatizzata.
Mettere troppe regole allo sviluppo delle IA rischia, nel contempo, di essere controproducente, perché le nostre aspettative verso l’Intelligenza Artificiale potrebbero uscirne frustrare dai troppi paletti imposti al suo sviluppo.
Ciò che appare, comunque, allo stato, irrisolvibile è la dicotomia tra le linee guida fino ad ora sviluppate in sede europea – che si rifanno ai principi del GDPR di minimizzazione e trasparenza – con i problemi di costo (altissimi) e di tempo (incompatibili con le esigenze di mercato) connessi allo sviluppo delle IA.
Il Prof. Monti ha, invece, tenuto un intervento di ampio respiro sui macro-temi che coinvolgono il mondo delle IA.
Il Prof. Monti ha, in particolare, richiamato l’attenzione sul fatto che si rischia di commettere l’errore di continuare ad aggiungere e stratificare norme settoriali sulle IA senza considerare che, nella maggior parte dei casi, sono sufficienti le norme già esistenti.
Vi è, inoltre, un tema molto complesso in merito alla reale capacità di comprensione dei giuristi del linguaggio scientifico (fisico/matematico) alla base dello sviluppo delle IA, che induce i legislatori a creare una regolamentazione del fenomeno basata su concetti imprecisi e di cui non si riesce ad avere una comprensione completa.
La visione del Prof. Monti in merito all’efficacia del GDPR nel contesto delle IA (ma non solo) è complessivamente negativa perché ritiene che la norma sia, se seriamente applicata nel concreto, troppo complessa e costosa per la maggioranza delle aziende che sviluppano IA .
Il Prof. Vaciago si è, invece, soffermato sull’applicazione delle IA in ambito criminale, con riferimento:
- agli attuali sviluppi di software di polizia predittiva, con i suoi vantaggi ma anche i correlativi rischi per la collettività ed i singoli laddove non sia possibile conoscere il mix di caratteristiche che l’algoritmo analizza per effettuare le sue previsioni ;
- al giudice robot che, allo stato, è ancora lontano da applicazioni importanti, potendosi citare solo il caso Estone, dove sono state fatte alcune applicazioni su controversie civili di modesto valore;
- ai software predittivi di pericolosità sociale, che inducono molto timore per i possibili effetti discriminatori che possono insinuarsi, anche inconsapevolmente, nell’algoritmo;
- alla responsabilità robotica ed alle sue possibili regolamentazioni, soprattutto in riferimento all’errore delle IA o all’ipotesi di loro dolo.
Infine, il Prof. Vaciago si è soffermato sulle importantissime implicazioni che coinvolgono le IA nell’ambito sanitario, mettendo in luce l’esigenza ineludibile di avere dati di qualità e rigorosamente puliti e algoritmi ampiamente valutati e testati, per evitare il rischio di trovarsi, poi, a dover rimediare a gravissime conseguenze derivanti dall’aver seguito indicazioni di IA che seguono processi decisionali, in campi come la salute e la giustizia, basati su presupposti di partenza non verificabili e/o non corretti.
L’Avv. Giangiacomo Olivi si è soffermato su due concetti chiave: il controllo e la trasparenza.
La trasparenza dei sistemi di IA costituisce un valore e una tutela imprescindibile per ciascuno di noi, su cui si baserà sempre di più la fiducia da parte degli individui: ma come possiamo trasmettere fiducia in algoritmi che non sono compresi dai più e la cui formulazione resta un segreto, anche per motivi di tutela dei diritti di sfruttamento economico del suo/dei suoi inventori?
In questo contesto, secondo l’Avv. Olivi, il GDPR, se non può costituire uno strumento di controllo delle IA, può comunque costituire un riferimento sotto il profilo dei principi generali che devono necessariamente essere tenuti in considerazione nello sviluppo di algoritmi predittivi.
Secondo l’Avv. Olivi, un possibile trend di intervento potrebbe prendere spunto dalla struttura dell’attuale valutazione di impatto (la cosiddetta DPIA), estendendo tale analisi a tutta la filiera di sviluppo delle IA, così stimolando la responsabilizzazione di ogni soggetto coinvolto: in questo modo, chi decide di immettere una IA sul mercato, ci dovrà garantire che non ci farà del male.
Il Prof. Ziccardi ha, infine, riassunto gli spunti emersi nella mattinata, sottolineando i profili relativi a:
- privacy by design e by default, che diviene importantissima per la nostra sicurezza nell’ambito della creazione delle IA;
- problema geopolitico, che svolge un ruolo fondamentale sullo sviluppo delle IA, dato che, a diversi blocchi geopolitici, corrispondono diversi approcci su ciò che deve essere tutelato e sull’equilibrio tra tutele per l’individuo e sviluppo sociale;
- ritorno del tema della computer ethics: la IA ha fatto rifiorire il tema probabilmente per il timore generato da algoritmi che non si riescono a comprendere fino in fondo;
- l’antitesi esistente tra i concetti cardine del GDPR e lo sviluppo delle IA. La trasparenza è impedita dal fatto che l’algoritmo è segreto per definizione e vocazione; la minimizzazione è contro la logica dell’IA che ha bisogno di tutti i dati possibili per funzionare al meglio e dare risultati attendibili; l’analisi del rischio è troppo costosa e rallenta eccessivamente lo sviluppo tecnologico; il consenso flessibile si scontra con l’incapacità del consumatore di comprendere realmente lo scopo dei consensi che presta.
La chiusura dei lavori è spettata, infine, al Prof. Bruschi, che ha illustrato quale sia lo stato dell’arte, sotto il profilo scientifico, nello sviluppo delle IA, ma ha anche espresso il disarmante punto di vista degli informatici sulla materia, ormai convinti che il mondo deve rassegnarsi ad aver perso ogni possibilità di proteggere la privacy dei cittadini.
Un bellissimo dibattito per concludere in crescendo questo 2019 ormai agli sgoccioli.
Auguri di un sereno Santo Natale e di un ottimo inizio di nuovo anno a tutti voi!