Il post dà conto della risoluzione del 16 febbraio 2017 con cui il Parlamento Europeo ha chiesto alla Commissione di presentare una proposta di atto legislativo sulle questioni giuridiche relative allo sviluppo e all’utilizzo della robotica e dell’intelligenza artificiale.
Il Parlamento europeo, con una risoluzione del 16 febbraio 2017 (recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica), ha posto l’attenzione, tra le altre, sulla questione della responsabilità giuridica nel caso di azioni nocive poste in essere da robot che siano in grado di svolgere attività tipicamente umane.
In particolare, esso afferma che, nell’ipotesi in cui un robot possa prendere decisioni autonome (si consideri il caso dei cd. veicoli autonomi), le norme tradizionali non sono sufficienti per attivare la responsabilità per danni. Esse, si legge, non consentono di determinare quale sia il soggetto su cui incombe la responsabilità del risarcimento, né di esigere da tale soggetto la riparazione dei danni causati.
Alla luce di queste premesse, il Parlamento chiede alla Commissione di presentare, sulla base dell’articolo 114 TFUE, una proposta di atto legislativo sulle questioni giuridiche relative allo sviluppo e all’utilizzo della robotica e dell’intelligenza artificiale prevedibili nei prossimi 10-15 anni, in associazione a strumenti non legislativi quali linee guida e codici di condotta.
La Commissione, esso scrive, dovrà stabilire se applicare l’approccio della responsabilità oggettiva o della gestione dei rischi; tuttavia, ritiene che, in linea di principio, la responsabilità dei soggetti individuati debba essere proporzionale all’effettivo livello di istruzioni impartite al robot e al grado di autonomia di quest’ultimo, di modo che quanto maggiore è la capacità di apprendimento o l’autonomia di un robot e quanto maggiore è la durata della formazione di un robot, tanto maggiore sia la responsabilità del suo formatore (il Parlamento osserva, in particolare che, nella determinazione della responsabilità reale per il danno causato, le competenze derivanti dalla “formazione” di un robot non devono essere confuse con le competenze che dipendono strettamente dalle sue abilità di autoapprendimento).
Nel documento si legge che una possibile soluzione al problema della complessità dell’attribuzione della responsabilità per il danno causato da robot sempre più autonomi potrebbe essere un regime di assicurazione obbligatorio, come già avviene, per esempio, con le automobili.
Particolarmente rilevante la parte in cui il Parlamento auspica l’istituzione di uno status giuridico specifico per i robot nel lungo termine, di modo che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato.
Il Parlamento ritiene che il futuro strumento legislativo non dovrà comunque in alcun modo limitare il tipo o l’entità dei danni che possono essere risarciti, né dovrà limitare le forme di risarcimento che possono essere offerte alla parte lesa per il semplice fatto che il danno è provocato da un soggetto non umano. L’attenzione deve restare sempre concentrata, cioè, sull’essere umano, fulcro di qualsiasi innovazione e/o modifica normativa che ad essa consegua.
Ciò dimostra quanto l’UE, seppure apprezzi il processo di ricerca, innovazione e sviluppo nel settore della robotica e lo incoraggi, impronti primariamente le proprie politiche sull’IA in senso fortemente “antropocentrico”.
In altre parole, lo sviluppo tecnologico deve “conquistare” la fiducia dei cittadini, senza metterne in forse i diritti. In questo solco, si pone la recente Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni “Creare fiducia nell’intelligenza artificiale antropocentrica” (COM/2019/168 final), documento in cui si legge che l’intelligenza artificiale non è fine a se stessa, ma è uno strumento a servizio delle persone che ha come fine ultimo quello di migliorare il benessere degli esseri umani.
Particolarmente interessante, a questo proposito, la parte della risoluzione in cui il Parlamento sottolinea che lo sviluppo della tecnologia robotica deve mirare a integrare le capacità umane e non a sostituirle: esso ritiene che sia fondamentale, nello sviluppo della robotica e dell’intelligenza artificiale, garantire che gli uomini mantengano in qualsiasi momento il controllo sulle macchine intelligenti. La prospettiva si pone in linea sia con quanto disposto dall’art. 22 del regolamento generale sulla protezione dei dati (UE 2016/679), sia con quanto affermato di recente dal nostro giudice amministrativo nazionale, in relazione alla possibile introduzione del cd. atto amministrativo automatizzato (frutto, cioè, di una decisione assunta automaticamente in base a un algoritmo: cfr., ad esempio, Cons. St., sez. VI, sent. 8472/2019).
La prospettiva antropocentrica gioca un ruolo fondamentale anche nel momento in cui il Parlamento rileva che nell’uso della robotica occorre prestare particolare attenzione alla sicurezza delle persone e alla loro salute, alla libertà, alla vita privata, all’integrità, alla dignità, all’autodeterminazione e alla non discriminazione, nonché della protezione dei dati personali (punto 10 della risoluzione).
Si ritiene che la Commissione, nel rispondere all’invito del Parlamento europeo, debba previamente verificare se davvero sia necessario introdurre nuove disposizioni per colmare il vuoto di tutela, ovvero se sia valutabile un più semplice intervento sulle norme già esistenti.
Sul tema, si segnala il seguente scritto: Amidei, Intelligenza artificiale e product liability: sviluppi del diritto dell’Unione Europea, in Giur. it., 2019, 1715 e ss.
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 4.0 Internazionale.