Questo post fa parte del punto di vista dell’Osservatorio sull’AI Act
L’articolo 2 del Regolamento UE 2024/1689, noto come AI Act, ne definisce l’ambito di applicazione, che comprende soggetti pubblici e privati, sia in veste di fornitori sia di deployer, all’interno e all’esterno dell’Unione europea, a condizione che il sistema di intelligenza artificiale sia immesso sul mercato dell’Unione o che il suo uso abbia effetti nell’Unione. Solleva alcuni interrogativi il regime delle eccezioni all’applicazione del Regolamento, tra cui spiccano i sistemi di IA immessi sul mercato, messi in servizio o utilizzati da enti pubblici e privati per scopi militari, di difesa o di sicurezza nazionale, nonché i sistemi di IA specificamente sviluppati e messi in servizio al solo scopo di ricerca e sviluppo scientifici.
L’articolo 2 dell’AI Act individua come destinatari del Regolamento: a) i fornitori che immettono sul mercato o mettono in servizio sistemi di IA o immettono sul mercato modelli di IA per finalità generali nell’Unione – General purpose AI models, GPAI – indipendentemente dal fatto che siano stabiliti o ubicati nell’Unione o in un paese terzo; b) i deployer dei sistemi di IA – coloro che utilizzano tali strumenti per scopi professionali – che hanno il loro luogo di stabilimento o sono situati all’interno dell’Unione; c) i fornitori e ai deployer di sistemi di IA che hanno il loro luogo di stabilimento o sono situati in un paese terzo, laddove l’output prodotto dal sistema di IA sia utilizzato nell’Unione; d) gli importatori e ai distributori di sistemi di IA; e) i fabbricanti di prodotti che immettono sul mercato o mettono in servizio un sistema di IA insieme al loro prodotto e con il loro nome o marchio; f) i rappresentanti autorizzati di fornitori, non stabiliti nell’Unione; g) le persone interessate che si trovano nell’Unione.
Un ambito di applicazione di tale ampiezza si pone in linea di continuità con gli obiettivi perseguiti dall’AI Act, soprattutto per quanto attiene alla realizzazione di un mercato unico per lo sviluppo di applicazioni di intelligenza artificiale etiche, sicure e affidabili, alla prevenzione della frammentazione del mercato, alla garanzia della certezza del diritto per favorire gli investimenti e l’innovazione nel settore, nonché all’ottimizzazione della governance e del diritto vigente in materia di intelligenza artificiale.
A complemento di tale ispirazione, il considerando n. 22 spiega che, in ragione delle caratteristiche particolarmente lesive di determinati sistemi di intelligenza artificiale, è opportuno che questi rientrino nell’ambito di applicazione del Regolamento anche nel caso in cui non siano immessi sul mercato, non siano messi in servizio o non siano utilizzati nell’Unione: l’AI Act deve essere applicato anche a fornitori e deployer di sistemi di IA stabiliti in un Paese terzo se i loro sistemi sono destinati a essere impiegati nell’Unione, poiché in caso contrario gli obiettivi perseguiti dal Regolamento rischierebbero di essere facilmente aggirati.
Sono esclusi dall’ambito di applicazione del Regolamento i sistemi di IA se e nella misura in cui sono immessi sul mercato, messi in servizio o utilizzati con o senza modifiche esclusivamente per scopi militari, di difesa o di sicurezza nazionale, indipendentemente dal tipo di entità che svolge tali attività.
L’esclusione dei sistemi di IA utilizzati per scopi militari o di sicurezza non è tuttavia assoluta, poiché qualora un sistema di IA, originariamente sviluppato per scopi militari o di sicurezza nazionale, venga utilizzato per finalità diverse, come quelle civili o umanitarie, tale sistema sarà soggetto al Regolamento. In tal senso il legislatore europeo ha inteso prevenire ogni rischio per la sicurezza pubblica o violazioni dei diritti fondamentali derivanti dall’impiego di sistemi di IA originariamente destinati all’uso militare, ma adattati a un contesto civile. Un esempio può essere rappresentato dal caso di un sistema di IA progettato per il monitoraggio e la sorveglianza delle frontiere militari, ma adattato al monitoraggio del flusso di migranti in un contesto umanitario.
Per quanto riguarda la definizione di «scopi militari e di difesa», il considerando n. 24 motiva tale esclusione richiamando sia l’articolo 4, paragrafo 2, TUE, sia la specificità della politica di difesa comune degli Stati membri e dell’Unione di cui al titolo V, capo 2, TUE, che sono soggette al diritto internazionale pubblico. Residuano comunque alcune zone d’ombra in termini di applicazione del Regolamento, ad esempio nel caso di sistemi di IA sviluppati da attori privati e venduti agli Stati per scopi militari, o nell’eventualità in cui uno Stato intraprenda attività di difesa che non implicano l’impiego della forza, come la prevenzione dei conflitti o il sostegno a Paesi terzi nella lotta al terrorismo sul loro territorio.
Il considerando n. 24 afferma poi che l’esclusione dall’applicazione del Regolamento per sistemi di IA impiegati per ragioni di «sicurezza nazionale» è giustificata sia dal fatto che si tratta di una materia di esclusiva competenza degli Stati membri ai sensi dell’articolo 4, paragrafo 2, TUE, sia dalle esigenze operative connesse alle attività di sicurezza nazionale e dalle specifiche norme nazionali applicabili a tali attività.
Per descrivere il rapporto fra sicurezza nazionale e applicazioni di intelligenza artificiale è tuttavia necessario tenere conto della giurisprudenza della Corte di giustizia. Attraverso la sentenza del 6 ottobre 2020 sul caso La Quadrature du Net, la Grande Camera, pronunciandosi in relazione alla Direttiva 2002/58/CE (la cosiddetta Direttiva ePrivacy, su cui si veda, in materia di data retention, P. Bonini, La sicurezza nazionale non giustifica il trattenimento generalizzato dei dati nell’Unione europea e, in materia di strumenti di tracciamento, A. Mascolo, Dal 2022 Google non userà più i cookie di terze parti: più privacy per tutti? e G. Cavalcanti, Privacy vs Profilazione: il punto sulla disciplina relativa a cookie e altri strumenti di tracciamento, a partire dalle nuove linee guida del Garante della privacy), ha affermato che la competenza degli Stati membri in materia di «sicurezza nazionale» corrisponde all’interesse primario di tutelare le strutture costituzionali, politiche, economiche o sociali fondamentali di un paese, salvaguardando le funzioni essenziali dello Stato e gli interessi fondamentali della società (par. 135). Alla luce di ciò, nonostante la definizione degli interessi essenziali della propria sicurezza interna ed esterna, nonché le misure idonee a garantirne l’attuazione, sia un appannaggio esclusivo degli Stati membri, «la mera circostanza che una misura nazionale sia stata adottata a fini di salvaguardia della sicurezza nazionale non può comportare l’inapplicabilità del diritto dell’Unione e dispensare gli Stati membri dal necessario rispetto di tale diritto» (par. 99).
Si profila dunque il rischio che, se uno Stato membro decidesse di invocare ragioni di «sicurezza nazionale», nel settore pubblico potrebbero essere impiegate alcune tecnologie di intelligenza artificiale molto invasive in assenza di particolari limitazioni o salvaguardie, in quanto escluse dal perimetro di applicazione del Regolamento. Potrebbero essere agilmente impiegati per scopi connessi alla sicurezza nazionale anche sistemi di IA che presentano livelli di rischio «inaccettabili» e quindi vietati dall’AI Act, come nel caso dei sistemi di identificazione biometrica (RBI) in tempo reale in spazi accessibili al pubblico se impiegati per la prevenzione di un attacco terroristico imminente.
Ulteriori incertezze circa l’ambito di applicazione del Regolamento emergono dall’esclusione di sistemi di IA o modelli di IA, compresi i loro output, specificamente sviluppati e messi in servizio al solo scopo di ricerca e sviluppo scientifici. L’AI Act inoltre non trova applicazione in rapporto all’attività di ricerca, prova o sviluppo relative a sistemi di IA o modelli di IA prima della loro immissione sul mercato o messa in servizio. Nonostante la Commissione europea promuova un impiego responsabile dell’IA nell’attività di ricerca, tali disposizioni si rivelano vulnerabili se considerate in relazione alle norme europee in materia di diritto d’autore.
Il 27 settembre 2024, il Tribunale distrettuale di Amburgo si è pronunciato sulla causa Robert Kneschke v. LAION, che verteva sulla legittimità dell’utilizzo di opere protette dal diritto d’autore da parte di un’organizzazione senza scopo di lucro per l’addestramento di modelli di IA generativi con finalità commerciali. Il giudice ha ritenuto che l’attività svolta da LAION potesse beneficiare del regime previsto all’articolo 3 della Direttiva sul diritto d’autore nel mercato unico digitale (Directive on copyright and related rights in the Digital Single Market, CDSMD), che permette l’estrazione di testo e di dati per scopi di ricerca scientifica (text and data mining o TDM) a organismi di ricerca e istituti di tutela del patrimonio culturale.
La sentenza è di notevole rilievo, poiché consente di evidenziare un profilo di criticità nel regime delle esclusioni dall’ambito di applicazione dell’AI Act. L’articolo 2(6) del Regolamento non si applica infatti a modifiche effettuate su un modello di intelligenza artificiale che viene commercializzato in un secondo momento rispetto alla sua realizzazione o a modelli basati su intelligenza artificiale generativa che sono resi disponibili sul mercato successivamente rispetto al loro addestramento. Di conseguenza, un’organizzazione senza scopo di lucro potrebbe beneficiare del regime di esclusione di cui all’articolo 2(6) e impiegare tecniche di data mining in conformità all’articolo 3 CDSMD nello sviluppo di sistemi di IA destinati alla ricerca scientifica, per poi cederli ai fini di una immissione sul mercato.
Se, da un lato, il Regolamento mostra un ambito di applicazione particolarmente ampio, sottolineando la volontà dell’Unione europea di ricoprire un ruolo di standard setter nella produzione normativa del settore, dall’altro, l’AI Act non intende pregiudicare le competenze degli Stati membri in materia di sicurezza nazionale, non applicandosi ai sistemi di IA sviluppati per scopi militari, di difesa o di sicurezza nazionale, indipendentemente dal tipo di entità che svolge tali attività, nonché alle attività di ricerca e sviluppo che precedono l’immissione sul mercato o ai soggetti che utilizzano l’IA per motivi non professionali. Al netto delle ragioni legate alle esclusioni, potrebbero emergere degli ambiti di fragilità del regime giuridico, come in relazione all’applicazione di IA nell’uso letale della forza e altre attività belliche (in merito alle applicazioni dell’intelligenza artificiale al settore militare, A. Renzi, Slaughterbots e il futuro della guerra automatizzata).
Osservatorio sullo Stato Digitale by Irpa is licensed under CC BY-NC-ND 4.0