Nel mese di luglio 2019, la rivista scientifica “Giurisprudenza Italiana” ha dedicato un fascicolo monografico al tema della Intelligenza Artificiale.
Nella Introduzione, i curatori (Enrico Gabrielli e Ugo Ruffolo) spiegano che l’intelligenza artificiale pone ai giuristi interrogativi nuovi, mettendo alla prova le tradizionali categorie della scienza giuridica. Questi, essi affermano, devono conoscere i fenomeni, valutare la concreta rilevanza e qualità degli interessi in gioco e individuare le opportune discipline e regole.
Sono pubblicati 13 saggi, che toccano alcuni dei principali campi d’indagine.
Nel saggio di apertura, Ugo Ruffolo e Andrea Amidei si occupano dei rapporti tra IA e diritti della persona; in particolare, gli aa., ritenendo che il prossimo sviluppo delle tecniche di human enhancement porterà ad interrogarsi su una nuova concezione del corpo umano e della sua inviolabilità, si chiedono quali limiti potranno essere posti, sulla base delle norme e dei principi dei nostri ordinamenti, anche a tutela di quelli che sono i soggetti deboli per eccellenza (le generazioni future), alla possibilità di alterare la propria realtà corporea realizzando forme di sempre più elevata ibridazione uomo-macchina. Essi rilevano che la questione apre una serie di ulteriori e connessi interrogativi, persino sul come garantire possibilità di accesso alle varie forme di enhancement alle quali sarà concesso sottoporsi e poi circa i conseguenti riflessi sulla professione sanitaria.
Il secondo saggio, di Giusella Finocchiaro, ha ad oggetto i rapporti tra intelligenza artificiale e privacy. L’a. analizza il fenomeno alla luce delle norme già esistenti, in particolare quelle dettate dal nuovo regolamento/(UE) 2016/679 in materia di protezione dei dati personali, che ha un duplice oggetto: la protezione delle persone fisiche con riguardo al trattamento dei dati personali e la libera circolazione dei dati. Giusella Finocchiaro, passando in rassegna i principi fondamentali del regolamento europeo (dati personali e dati anonimi, qualità dei dati, decisioni automatizzate, finalità del trattamento, responsabilità), mostra le criticità interpretative con riferimento alle applicazioni di intelligenza artificiale. Particolarmente interessante la parte in cui, concludendo, l’a. evidenzia che il regolamento europeo non tiene conto delle applicazioni di intelligenza artificiale e dei big data, cioè dei trattamenti di massa. La sua logica, afferma, basata sul dato personale rispetto al cui trattamento una determinazione viene espressa dal singolo individuo, benché mitigata dall’accountability, non può essere applicata a grandi masse di dati. L’a. auspica, pertanto, un ripensamento del modello culturale di riferimento.
Francesco Di Giovanni, nel saggio n. 3, si occupa di IA e attività contrattuale; nel dettaglio, l’a. si domanda se i contratti conclusi mediante intelligenza artificiale (o da una intelligenza artificiale) impongano di rivedere i concetti, le nozioni o le idee mediante le quali viene rappresentato il contratto e se vi sia l’esigenza di norme nuove, volte ad adeguare gli istituti che già oggi compongono la disciplina del contratto ai contratti conclusi mediante IA. Per fornire una risposta, l’a. chiarisce preliminarmente il senso dei concetti che si applicano nel descrivere la vicenda contrattuale.
Nel quarto saggio, Maria Costanza si occupa dei riflessi dell’IA sugli stilemi della responsabilità civile. Nel contributo, essa, movendo dalle incertezze sulla definizione della IA, riflette sulle possibilità di adattare i modelli nazionali di responsabilità civile alle fattispecie in cui il danno sia prodotto da un dispositivo dotato di intelligenza artificiale e sia impiegato nello svolgimento di attività di impresa. Nello scritto, si legge che “il principio della fonte percepita e percepibile del pregiudizio non potrebbe subire variazioni perché l’autore dell’illecito (individualmente o in concorso) sia una intelligenza artificiale (o un robot)”.
Ugo Ruffolo, nel saggio n. 5, si occupa dei problemi di responsabilità conseguenti all’utilizzo di IA, machine learning e algoritmo d’apprendimento. In particolare, gli interrogativi concernono da un lato la responsabilità dell’ideatore-autore-progettista dell’algoritmo veicolante l’autoapprendimento, dall’altro quella di chi lo utilizza, o produce, o lo incorpora in un prodotto o in una componente di esso; quella dell’utilizzatore, o titolare a vario titolo, o custode, della “cosa” robotica dotata di autoapprendimento. L’a. ritiene che l’emergere di fenomeni socio-economici nuovi ed inusitati, quali la irruzione della intelligenza “artificiale” sulla scena, renda necessario solo in misura residuale il ricorso allo strumento normativo per colmare pretese lacune, risultando altrimenti sufficiente, soprattutto per gli ordinamenti con genesi romanistica, l’adeguamento per via interpretativa. La disciplina di matrice eurounitaria de danno da prodotto e le tradizionali figure codicistiche, afferma, appaiono capaci di offrire idonea mediazione giuridica ai problemi nuovi portati dall’irrompere dell’intelligenza artificiale, con soluzioni potenzialmente anche molto innovative.
Il sesto saggio, di Ugo Ruffolo ed Encrico Al Mureden, è dedicato al tema dei veicoli autonomi: gli aa. si chiedono in particolare come debba essere regolato il fenomeno sul piano delle responsabilità (del produttore, del proprietario, del conducente) nella fase intermedia, in cui, cioè, i mezzi a guida umana circoleranno unitamente a quelli dotati di vari livelli di autonomia: essi tracciano una proposta interpretativa che ritiene che la disciplina esistente sia sufficiente per dare risposte interpretative agli interrogativi posti dall’IA. Nella seconda parte del contributo, si verifica, inoltre, come le medesime problematiche siano declinate nel contesto statunitense, nella dialettica tra norme federali e statali.
Andrea Amidei, nel settimo saggio, analizza i più recenti sviluppi del diritto U.E. in materia di intelligenza artificiale con riguardo all’ambito della responsabilità da prodotto difettoso (product liability), dalla Risoluzione del Parlamento Europeo del febbraio 2017 in materia di ‘‘norme di diritto civile sulla robotica’’ alle ‘‘Linee Guida Etiche’’ per una intelligenza artificiale affidabile. In particolare, l’a. si sofferma sul rischio, paventato dallo stesso Parlamento Europeo, che esistano ‘‘vuoti di responsabilità’’ per eventi lesivi cagionati da un’intelligenza artificiale self-learning in conseguenza di un suo processo evolutivo e di apprendimento imprevedibile. La. ritiene che una rielaborazione di taluni concetti-chiave della vigente normativa, dalle nozioni di ‘‘difetto’’ e di ‘‘componente del prodotto’’ al regime degli oneri probatori, possa costituire idonea risposta alle nuove esigenze di tutela.
L’ottavo saggio, di Maria Luisa Gambini, affronta il tema della sicurezza nel settore della robotica intelligente e degli algoritmi. L’a. ritiene che nella regolamentazione della nuova realtà considerata sia necessaria l’adozione di un approccio che consenta di minimizzare i costi sociali dei danni da trattamenti algoritmici di dati, attraverso politiche di prevenzione e sicurezza e di responsabilizzazione dei soggetti implicati. Il lavoro muove dall’esame delle soluzioni normative e delle esperienze applicative maturate negli ambiti della prestazione dei servizi della società dell’informazione e dei trattamenti automatizzati di dati personali, segnati dalla progressiva introduzione di una serie articolata di obblighi di sicurezza e controllo a carico dei protagonisti dell’innovazione tecnologica.
Marilù Capparelli, nel saggio n. 9, considera il caso in cui la machine learning sviluppi autonomamente opere creative di tipo artistico, letterario o musicale. Nel lavoro, ci si chiede come possa essere garantita adeguata protezione giuridica alle opere create dalla Intelligenza Artificiale. L’analisi viene condotta anche alla luce della vigente normativa sul diritto d’autore (copyright); l’a. considera la possibilità che il diritto d’autore relativo ad un’opera venga attribuito alla macchina.
Nel saggio n. 10, Alberto Maria Gambino e Mariachiara Manzi si occupano di IA e tutela della concorrenza: gli aa. ritengono che l’ingente quantità di dati a disposizione, combinata con la sofisticatezza dei sistemi di intelligenza artificiale, incrementi la potenziale portata discriminatoria delle condotte poste in essere dai grandi operatori del mercato, facendo sorgere criticità in ordine alla definizione del mercato di riferimento antitrust, in continua evoluzione. Secondo gli aa., occorre ripensare il ruolo dell’Autorità antitrust, così da garantire una competizione fair tra le imprese e un’adeguata protezione del consumatore.
L’undicesimo saggio, di Antonio Uricchio, si occupa del tema della cd. robot tax: in particolare, l’a. valuta le proposte di riconoscere soggettività tributaria ai robot, ovvero di definire la fattispecie imponibile. La tecnologia, afferma, si atteggia come situazione generativa di manifestazioni di ricchezza: è opportuno, pertanto, che scienza giuridica e ordinamento tributario non restino inerti o, peggio, ancorati a schemi datati. Secondo l’a., è giunto il momento di istituire nuove forme di prelievo dirette a colpire le diverse forme di ricchezza che la rete, il cloud, l’IA, le nuove tecnologie abilitanti sono in grado di generare.
Eugenio Picozza, nel saggio n. 12, studia i rapporti sussistenti tra intelligenza artificiale e diritto amministrativo italiano; in particolare, egli dedica la sua attenzione sia alla sfera politica, sia ai tre settori tradizionali dell’organizzazione, dell’attività amministrativa e della giurisdizione. L’a. non crede che l’azione politica possa essere automatizzata. Quanto all’organizzazione amministrativa, l’automazione, afferma, non presenta particolari problemi, per lo meno a livello di funzioni non dirigenziali; non è difficile, per questo, immaginare un ufficio pubblico del tutto virtuale. Con riferimento al settore dell’attività amministrativa, Eugenio Picozza precisa che non esistono ostacoli di ordine fattuale alla automazione dei procedimenti non politici e che per quelli di livello politico-amministrativo (come ad esempio l’approvazione di piani regolatori) l’intelligenza artificiale può invece offrire un positivo apporto conoscitivo e consulenziale. Il lavoro si conclude con un focus sulle relazioni tra attività giurisdizionale e intelligenza artificiale. In particolare, l’a. ritiene che l’intelligenza artificiale possa diventare di ausilio al giudice non solo nella fase di iniziativa e di istruttoria del giudice, ma anche in quella decisoria.
Nel saggio finale, Roberto Bricchi si occupa di intelligenza artificiale, calcolabilità del diritto e tutela dei diritti. Secondo l’a., la prospettiva dell’uso dell’intelligenza artificiale come strumento per recuperare certezza e calcolabilità del diritto (cui consegue una standardizzazione delle decisioni assunte tramite IA) pone problemi di efficacia e compatibilità con un diritto sempre più vasto e derivato da plurime fonti nazionali e sovranazionali. Nello scritto si legge che siccome il diritto si muove su un piano di giudizio complesso e non necessariamente prevedibile (tant’è che la elaborazione giuridica attuale si pone da decenni in dissonanza sempre più accentuata con il positivismo giuridico), il ruolo del giudice, quale soggetto di elaborazione di soluzioni alle richieste di tutela, è sempre più sollecitato. L’intelligenza artificiale può allora essere d’ausilio al giudice, ma non può mai sostituirsi ad esso, pena l’ingiusta oppressone dell’”umanesimo giudiziario”, che è una delle più grandi conquiste delle democrazie liberali.
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 4.0 Internazionale.