Era il 22 febbraio 1997 quando il team di ricercatori guidati dal biologo britannico Ian Wilmut annunciavano pubblicamente la nascita, avvenuta pochi mesi prima, della pecora Dolly: il primo mammifero clonato a partire da una cellula adulta. L’umanità non dovette attendere troppo tempo prima che il dibattito pubblico, già sorto a dover di cronaca negli anni addietro, riaccendesse un quesito etico di non semplice soluzione: dovrebbe il progresso incontrare dei limiti? Oggi come allora, in un campo totalmente diverso rispetto a quello della bio-etica, il dibattito pubblico è tornato ad accendersi. L’incredibile potenziale mostrato dai moderni sistemi di intelligenza artificiale riporta l’uomo al grande interrogativo: quando occorre fermarsi?
Da novembre 2022 quando la prima versione di ChatGPT è stata lanciata il dibattito sul tema non si è più arrestato. Fin dai primi utilizzi, questo nuovo sistema di intelligenza artificiale (IA) si è da subito dimostrato piuttosto interessante specie per le risposte particolarmente dettagliate e articolate che riusciva a fornire rispetto ai precedenti sistemi di elaborazione del linguaggio naturale. La possibilità di ricreare temi, poesie, articoli sembrava quasi dotare l’IA di quella fantasia propria unicamente dell’essere umano. Riportando, tuttavia, alla realtà i pensieri dei sognatori futuristi che già ipotizzavano visioni fantascientifiche degne dei più bei romanzi di Isaac Asimov, almeno allo stato attuale delle cose, le macchine non possono dirsi dotate neppur di qualcosa di simile a quel che è il pensiero umano (Della necessità di non attribuire caratteristiche antropomorfe ai sistemi statistici ne abbiamo già parlato qui). Ciò che tuttavia è certo – senza ulteriormente addentrarci nel dibattito tra chi, sulla scia delle teorie della scatola cinese di John Searle, ritiene più plausibili le teorie sull’intelligenza artificiale debole e chi invece, seguendo l’ipotesi della singolarità di paternità del filosofo britannico Nick Bostrom, è convinto nell’intelligenza artificiale forte – è che l’intelligenza artificiale segnerà certamente un punto di svolta epocale e senza precedenti.
La domanda centrale che oggi l’uomo si pone, non sapendo cosa ci riserverà il futuro, è se questi sistemi di IA, al pari di quanto avvenuto in passato per il già menzionato fenomeno della clonazione, vadano disciplinati in modo tale che possano essere definiti dei precisi contorni oltre cui l’uomo non dovrebbe spingersi. Indiscutibilmente l’intervento normativo in questione dovrebbe imporre, almeno in linea teorica e prescindendo dagli interessi politici dei singoli stati, gli stessi divieti – o quasi – in ogni parte del mondo. Pur prescindendo dalle oggettive difficoltà pratiche di un simile intervento, quel che ancora prima ci si può domandare è se: “sarebbe giusto limitare il progresso?”. Un quesito che dall’inizio del XX secolo ha caratterizzato il dibattito pubblico a seguito delle più grandi scoperte scientifiche, spesso trovando pensieri diametralmente opposti tra chi, in un soggettivo bilanciamento dei vari interessi in gioco, ne esaltava le potenzialità e chi invece, forse più prudente, ne evidenziava i rischi.
Se da un lato c’è una grande divergenza di opinioni in merito a queste nuove tecnologie dall’incredibile potenziale, è dall’altra parte unanime la richiesta affinché si giunga al più presto ad un intervento normativo in tema di intelligenza artificiale e di quei sistemi che, come si legge in una lettera aperta pubblicata sul Future Life of Institute, “possono comportare rischi profondi per la società e l’umanità”. Personalità del calibro di Sam Altman, amministratore delegato del produttore di ChatGPT OpenAI, Demis Hassabis, amministratore delegato di Google DeepMind e Dario Amodei di Anthropic avvertono come, l’intelligenza artificiale potrebbe persino comportare l’estinzione dell’umanità.
Ma cosa si sta in concreto facendo per porre un limite a questi sistemi? A parer di chi scrive, poco, troppo poco. Anzitutto gli interventi che ad oggi si stanno mettendo in atto non riescono a coprire la dimensione mondiale del fenomeno, complice certamente i diversi approcci – garantista dei diritti fondamentali nel modello europeo, di autoregolazione privata nel modello statunitense, dello sfruttamento da parte dello Stato del potenziale dell’IA nel modello cinese – che comportano modi di vedere il fenomeno profondamente divergenti, con tutto ciò che ne consegue.
Concentrando la nostra analisi sul punto di vista europeo, in attesa dell’approvazione dell’Artificial Intelligence Act, che, come detto, cercherà un buon connubio tra il progresso tecnologico da una parte e la tutela dei diritti e delle libertà fondamentali dall’altra, rileva certamente nella vicenda di ChatGPT, la presa di posizione del Garante italiano per la protezione dei dati personali. Invero, l’intervento del Garante italiano, che aveva sospeso l’utilizzo del sopra richiamato sistema di elaborazione del linguaggio naturale all’interno del territorio nazionale vista l’assenza di una base giuridica che giustificasse la raccolta di massicce quantità di dati al fine di addestrare l’algoritmo, rileva ancora più alla luce della riunione dello European Data Protection Board avvenuta il 13 aprile scorso. Le varie Autorità garanti dell’Unione Europea, infatti, sulla scia dei rilievi sollevati dal Garante italiano, hanno istituito una task force europea su ChatGPT proprio per accertare la conformità da parte di questo sistema d’intelligenza artificiale con l’attuale normativa europea sulla privacy (GDPR).
Rileva evidenziare, tuttavia, come questi interventi circoscrivano il fenomeno agli aspetti legati al diritto della privacy nella vicenda ChatGPT. Sebbene il diritto alla riservatezza costituisca certamente un diritto fondamentale dell’individuo che necessita importanti forme di tutela, va dall’altra parte sottolineato che i problemi connessi a queste nuove tecnologie risultano molteplici e pertanto limitare gli interventi al tema macro-tema dei “dati e della riservatezza” risulta riduttivo.
Non dovrebbero, infatti, essere trascurati i molteplici aspetti legati, oltre che a problemi di natura etica – quali a titolo di esempio la crescente disoccupazione che potrebbe derivare dalla sostituzione delle attività umane con quelle tecnologiche dovendosi, a parer di chi scrive, affermare il principio secondo cui le nuove tecnologie dovrebbero rimanere strumenti posti al servizio dell’uomo e non sostituirsi allo stesso – ai problemi di natura giuridica – e anche qui si possono richiamare meramente a titolo esemplificativo e non esaustivo i problemi connessi alla responsabilità civile, penale ed amministrativa – che queste nuove tecnologie comportano.
In conclusione, non ci rimane che attendere, allo stato attuale delle cose, gli interventi normativi europei già programmati – tra tutti centrale risulta l’Artificial Intelligence Act – per comprendere se, almeno dal punto di vista eurocomunitario si riuscirà a dare una concreta risposta al quesito centrale di questa breve riflessione: “Fino a dove possiamo spingerci e quando invece occorre fermarsi?”.
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale