La necessità della regolazione delle grandi piattaforme è progressivamente emersa in Europa, negli Stati Uniti e numerosi altri ordinamenti, al fine di individuare un sistema di norme sufficientemente agile da mitigare i rischi connessi all’innovazione. Il fenomeno può essere descritto sulla base di due esempi: l’acquisizione di dati per l’addestramento delle piattaforme e il dibattito relativo al regime di responsabilità per i contenuti pubblicati.
Il rapporto tra regolazione ed innovazione tecnologia è basato su un equilibrio molto variabile, che oscilla fra due estremi identificabili, rispettivamente, con l’opinione di chi ritiene che la regolazione sia un ostacolo alla innovazione e di chi, all’opposto, ritiene che l’innovazione comporti troppi rischi per non essere regolata.
L’ago di questo equilibrio è stato a lungo collocato più vicino al primo estremo, sia perché si riteneva che l’innovazione tecnologica apportasse più benefici che rischi, sia perché regolare l’innovazione è molto difficile, proprio in ragione dei continui nuovi sviluppi. Per rendersi conto di quanto sia rilevante questa difficoltà basta confrontare la definizione di intelligenza artificiale contenuta nella versione iniziale dell’AI Act dell’Unione europea nel 2021, con la definizione inserita nella versione finale approvata nel 2024.
All’origine, quando ChatGpt non era ancora arrivata sul mercato, ci si era accontentati di individuare “sistemi di software systems o programmi basati su regole definite da programmatori per eseguire automaticamente determinate operazioni”. Solo tre anni dopo la definizione è ben più articolata: “AI system is a machine-based system designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments”.
Il pendolo si sta quindi oggi spostando, non solo in Europa, ma anche negli Usa e in altri ordinamenti, verso un sistema di regole che almeno contenga e mitighi i rischi conosciuti e consenta, auspicabilmente, di individuare rapidamente i rischi nuovi che potrebbero emergere (e sicuramente emergeranno).
Questo fenomeno comporta non soltanto l’adozione di nuove regole, nazionali e internazionali, ma anche la modifica radicale di alcuni comportamenti – e della loro qualificazione giuridica – delle grandi piattaforme tecnologiche.
Per indagare la direzione di questo cambiamento è utile prendere due esempi concreti, il primo relativo all’acquisizione dei dati e il secondo relativo alla responsabilità per i contenuti. Si tratta di esempi significativi in se stessi, ma anche perché indicano l’emersione di una modifica significativa nel modo in cui le grandi piattaforme si possono (o, in alcuni casi, devono) comportare rispetto ad altri soggetti. Il cambiamento è dovuto, peraltro, non solo e non tanto alla nuova foga regolatoria che, dopo una lunga fase di astensione, caratterizza ormai l’ordinamento americano come quello europeo e diversi ordinamenti nazionali, ma alla diffusione di una diversa percezione del potere tecnologico, del quale sono sempre più evidenti, insieme agli innegabili benefici, anche i grandi rischi. E, come vedremo subito, a volte per rimediare ad un rischio se ne creano di ulteriori.
Primo esempio. Gli investimenti in sistemi di intelligenza artificiale sono cresciuti esponenzialmente da quando i primi LLM, come ChatGpt, sono stati resi disponibili al pubblico dall’inizio di questo decennio, nelle varie versioni, via via affinate. In questi investimenti non rientrava, all’origine, anche il costo per l’acquisto dei dati necessari per “addestrare” il modello e per garantire il suo aggiornamento: i dati sono stati acquisiti da moltissime fonti senza prevedere nessun compenso in cambio. Si tratta di una mole enorme di dati e, soprattutto, di dati che devono essere continuamente aggiornati, arricchiti, verificati, riaggregati. Nessuna altra industria può pretendere di acquisire gratuitamente le materie prime per la sua produzione, perché quell’acquisizione sicuramente avviene a spese di qualcun altro. E infatti, dopo aver scoperto che i suoi archivi erano stati utilizzati – gratuitamente – per addestrare ChatGPT, il New York Times ha deciso di impedire questo utilizzo per il futuro e ha avviato un’azione legale contro OpenAI e Microsoft per violazione del diritto di autore per l’uso non autorizzato e gratuito di milioni di articoli del giornale.
Le regole della proprietà intellettuale sono particolarmente difficili da applicare nel mondo digitale e nuovi problemi applicativi stanno sorgendo relativamente ai prodotti dell’intelligenza artificiale generativa. Sempre più frequentemente, però, anche in assenza di obblighi legali, le piattaforme stanno stringendo accordi e contratti con organizzazione ed aziende – ad esempio Bloomberg e Reuters – che prevedono l’accesso ai dati e agli archivi dietro pagamento. Si riaffermano così le regole contrattuali tipiche dell’acquisto e della vendita e si riconosce il valore della materia prima – i dati – e la necessità di tradurre quel valore in un prezzo. I contenuti di questi accordi e contratti non sono però noti, né è possibile verificare se essi siano pienamente conformi alle norme in materia di privacy.
Secondo esempio. Il regime di responsabilità per i contenuti pubblicati sulle piattaforme è ancora oggi basato sulle disposizioni della Section 230 del Communications Decency Act, in base alle quali la piattaforma non può essere ritenuta responsabile, e quindi non può essere oggetto di azioni risarcitorie, per eventuali danni conseguenti alla pubblicazione di contenuti. Ancora nel 2023 la Corte Suprema americana, nei casi Twitter v. Taamneh e Gonzalez v. Google, relativi a due persone uccise in attentati terroristici riconducibili all’Isis, ha stabilito che consentire la circolazione di materiale propagandistico, la comunicazione fra i membri del gruppo terroristico e la rivendicazione degli attentati, anche mediante l’uso di algoritmi che consigliavano video dell’ISIS e collegati ad attività di reclutamento – peraltro traendo profitto dalla pubblicità inserita in quelle attività – non è sufficiente a alterare o modificare la protezione garantita alle piattaforme dalla Section 230, che non possono essere quindi chiamate a rispondere per quei contenuti e per i loro eventuali effetti dannosi.
Altri giudici, in altri ordinamenti, hanno cominciato a erodere questa immunità almeno ai margini, stabilendo per esempio che le piattaforme devono rimuovere prontamente i contenuti dannosi o illegali se ci sono segnalazioni, che devono collaborare con le autorità pubbliche in queste attività e che pur non essendo soggette ad un obbligo di sorveglianza continua, devono apprestare presidi e regole volte a rilevare la violazione delle regole relative alla pubblicazione dei contenuti.
Il regime di immunità dalla responsabilità è oggi anche al centro di un dibattito nel Congresso degli Stati uniti, dove negli ultimi anni sono stati fatti diversi tentativi di modificare la disciplina, sempre falliti anche per l’efficacia dell’attività di lobbying delle piattaforme. Alcuni membri del Congresso hanno allora scelto una strada diversa: propongono di cancellare interamente la Section 230 e di dare al Congresso diciotto mesi per definire una disciplina interamente nuova, invece che emendare quella esistente. Sempre il Congresso americano sta anche discutendo un disegno di legge denominato EARN IT (Eliminating Abusive and Rampant Neglect of Interactive Technologies Act), che comporterebbe un obbligo generalizzato di monitoraggio dell’attività degli utenti.
La discussione è molto accesa su ambedue le iniziative. Sulla prima, perché pur ammettendo la necessità di una riduzione del regime di immunità, i critici segnalano che le piattaforme si potrebbero trovare sottoposte a pressioni sulla pubblicazione di determinati contenuti da parte di gruppi d’interesse con ingenti risorse, che potrebbero intentare cause milionarie: e di conseguenza sarebbero questi gruppi a determinare cosa è “conveniente” pubblicare e inciderebbero così sulla libertà di espressione. Sulla seconda perché si corre il rischio di “rompere” la crittografia: senza lo “scudo” della Section 230 finirebbe per venire meno anche lo “scudo” della crittografia, che è garanzia, di nuovo, per la libertà di espressione.
Anche nel mondo digitale occorre, quindi bilanciare diversi diritti e interessi e verificare gli effetti collaterali: della regolazione come dell’innovazione.
E questo è l’obiettivo principale dell’Osservatorio sullo Stato digitale: watch this space!
Osservatorio sullo Stato Digitale by Irpa is licensed under CC BY-NC-ND 4.0