Chiunque abbia vissuto gli anni ’80, ricorda senz’altro la famosa serie tv americana che aveva come protagonista un giovane David Hasselhoff e la sua incredibile auto sportiva nera K.I.T.T., dotata di ogni futuristica tecnologia (allora) immaginabile, tra le quali spiccava l’autopilota che, tramite il comando auto-cruise, le permetteva di essere la prima auto a guida autonoma della storia a circolare liberamente (benché segretamente) per le nostre strade.
K.I.T.T. era progettata per combattere il crimine e, rispetto alle attuali auto a guida autonoma, era assai più evoluta perché poteva raggiungere il suo proprietario da sola; era anche assai meno ligia alle regole del Codice della Strada, dato che spesso si concedeva corse a tutta velocità sulle strade urbane; inoltre, era senziente al punto tale da essere piuttosto volubile e ironica e, in certe occasioni, provava addirittura veri e propri sentimenti.
Insomma, K.I.T.T. pare ancora essere una realtà solo per la fantascienza, benché le tecnologie che le case automobilistiche stanno sviluppando progrediscono in modo rapidissimo e, probabilmente, è solo questione di tempo perché anche questo sogno dell’uomo si trasformi nella nostra realtà di tutti i giorni.
La nostra ideale auto a guida autonoma dovrebbe essere molto più affidabile degli automobilisti umani e anche di K.I.T.T., con enormi vantaggi per la sicurezza stradale, dato che l’auto non supererà i limiti di velocità, non compirà manovre azzardate e avrà sempre sotto controllo le condizioni stradali, senza concedersi distrazioni.
Paradossalmente, i problemi maggiori per l’auto a guida autonoma sembrano nascere non da limiti tecnici ma da limiti normativi: le attuali norme, infatti, non sono in grado di adattarsi ad un oggetto che prende decisioni autonome senza il contributo della volontà umana e ciò crea un estremo disagio normativo.
Il problema principale è, naturalmente, l’imputazione di responsabilità: chi risponde, infatti, dell’errore dell’auto a guida autonoma?
La Germania si è recentemente dotata di una normativa al riguardo, che, tuttavia, solleva molte perplessità perché prevede che la responsabilità ultima resti comunque in capo all’automobilista (con la previsione, però, di una scatola nera a bordo per valutare, in concreto, l’incidenza causale dell’azione/omissione umana sull’incidente).
Questa norma, però, può avere senso solo fino a quando l’auto sia a guida semi-autonoma e, quindi, richieda pur sempre la presenza vigile dell’uomo a bordo.
Ma, quando l’auto sarà veramente a guida autonoma, anche questa regola dovrà essere rivista e dovrà esservi un sempre maggiore coinvolgimento in termini di responsabilità dei costruttori automobilistici, con tutti i connessi e conseguenti corollari relativi alla manutenzione, alle spese di assicurazione, etc.
Basti pensare che, negli USA, nel mese di febbraio 2017, la NHTSA (Ente preposto all’interpretazione delle norme tecniche per la sperimentazione di auto a guida autonoma sul territorio), ha chiarito che il sistema di intelligenza artificiale di Google «sarebbe considerato il conducente del veicolo» in base alle norme attuali.
E’ evidente che, quando l’auto a guida autonoma sarà finalmente realtà, provocherà una rivoluzione nell’insieme delle regole alla circolazione e scuoterà fin dalle fondamenta le nostre certezze più radicate sul tema della responsabilità civile.
Il dibattito più interessante sull’auto a guida autonoma è, però, a mio giudizio un altro.
Un auto a guida autonoma che dovesse trovarsi in una situazione imprevedibile – magari causata dall’imprudenza o avventatezza umana – qualora fosse costretta a decidere un’azione dalla quale, in ogni caso, derivasse la morte di un essere umano, quale soluzione dovrebbe prediligere?
Quale sarà, insomma, la priorità dell’auto a guida autonoma?
- la vita del pedone? anche se quest’ultimo si fosse volontariamente lanciato in mezzo alla strada in un tentativo di suicidio oppure appositamente con l’intento criminoso di generare una situazione di pericolo e indurre la macchina a sacrificare il proprio passeggero (magari persona di rilievo ma scomoda) ?
- la vita del proprio passeggero? anche se il passeggero fosse un criminale condannato per omicidio che viene trasportato verso il penitenziario e la persona da sacrificare sia una una giovane madre con un bambino piccolo?
- la tutela del maggior numero di vite possibili? anche se da una parte vi fossero 4 adolescenti e dall’altra un pullman a guida autonoma che trasporta 5 persone anziane e malate presso una casa di ricovero?
Si può davvero pensare di fornire ad un AI, per quanto complessa e intelligente, un set di regole di comportamento predefinite in base alle quali scegliere, magari in una frazione di secondo, quale vita umana salvare o, meglio, sacrificare?
Forse dovremmo tutti ripassare a fondo le tre leggi della robotica di Asimoviana memoria.