Abstract: Recentemente, la Federal Trade Commission (FTC), ossia l’Agenzia governativa statunitense deputata alla tutela dei consumatori e alla prevenzione di pratiche commerciali scorrette (per ricorrere a un parallelismo domestico, una “sorta” di AGCM), ha preannunciato di essere in procinto di avviare l’operazione “AI Comply”, per mezzo della quale provvederà a contrastare tutte le situazioni in cui verranno utilizzati sistemi di AI, o affermazioni da questi create, volti a porre in essere attività frodatorie, ingannevoli e scorrette a detrimento dei cittadini statunitensi. Lo spirito di questo “giro di vite” si può ben evincere dalle parole pronunciate della Presidente Lina M. Khan, la quale ha avuto modo di affermare che“reprimendo le pratiche sleali o ingannevoli nei mercati digitali, la FTC sta assicurando che le imprese e gli innovatori onesti possano avere giuste opportunità, proteggendo anche i consumatori”.
La FTC ha avviato un’imponente operazione di contrasto agli usi impropri e distorti dell’intelligenza artificiale e dei suoi derivati denominata “Operation AI Comply”, con il dichiarato intento di tutelare i consumatori – che, nel mercato e nel settore digitale, sono sempre più, inevitabilmente, numerosi – da comportamenti ingannevoli, sleali e da pratiche commerciali scorrette e predatorie.
A tutta prima, si può scorgere un “catalogo” di usi malevoli dei sistemi di intelligenza artificiale alquanto vasto e vario(pinto); infatti, i casi analizzati dalla FTC spaziano da un’impresa che promuoveva un software per elaborare recensioni non veritiere, a un’altra che sosteneva di poter rimpiazzare in toto, con un semplice bot, i servizi dell’avvocatura, a diverse altre realtà imprenditoriali che promettevano ai consumatori di poter ricorrere all’utilizzo dell’intelligenza artificiale per introiettare ingenti cifre (senza alcuno sforzo) con il settore dell’e-commerce.
Prima di scendere maggiormente nel dettaglio della massiccia azione svolta dalla FTC, sobbalza subito allo sguardo un evidente considerazione, e cioè che l’Intelligenza Artificiale (IA) – al pari di qualsiasi altro strumento – in termini di benefici, è soggetta all’uso che ne fa il fruitore.
In altre parole, non sono mai i sistemi tecnologici, intrinsecamente in sé, ad avere funzioni e connotazioni positive o negative (difatti, è un’evidenza lapalissiana che la tecnologia sia di per sé stessa “neutra”), ma è l’utilizzatore degli stessi che, a sua discrezione, sceglie a quali utilizzi destinarli.
Sulla scorta di questa logica e basilare rilevazione, non appare minimamente revocabile in dubbio il fatto che l’IA, al pari di altre innovazioni tecnologiche, sia in grado di apportare evidenti – e tangibili – benefici quotidiani (basti pensare alle sue applicazioni in campo medico-scientifico), ma, come emerge sempre più spesso, se utilizzata con fini malevoli (quale la manipolazione di sistemi IA al fine di condurre attacchi informatici), anche, per converso, palpabili nocumenti sociali (come nei casi di cui si dirà infra).
Una delle azioni avviate dalla FTC ha come destinatario “DoNotPay”, una società statunitense attiva nel settore dei servizi digitali, che sostiene di aver implementato il primo “avvocato robot” al mondo (di fatto, un semplice e comune chatbot), in grado, con un abbonamento mensile di soli 36 dollari, di sostituire completamente un professionista forense (umano) per intentare cause legali (i.e. per giungere all’annullamento di sanzioni derivanti dalla circolazione stradale) e per ottenere consulenze giuridiche (e documenti legali) dedicate.
La FTC ha rilevato, in merito a quanto sopra, all’esito di un’approfondita istruttoria, come DoNotPay non abbia mai condotto alcuna sperimentazione – e, dunque, non vi sia alcun dato scientifico attestante la circostanza che il proprio servizio basato sull’IA potesse realmente surrogare un avvocato.
Pertanto, in esito all’attività di indagine della FTC, DoNotPay ha accettato, al fine di far neutralizzare le accuse a suo carico, di corrispondere una somma pari a 193.000 dollari alla Commissione, oltre a fornire un chiaro e evidente disclaimer iniziale a tutti i suoi consumatori e abbonati (dal 2021 al 2023) circa la portata e l’effettività del proprio servizio (che, dunque, non può considerarsi sostitutivo di un professionista “in carne ed ossa”).
Altre Società, le cui condotte sono state poste sotto l’attenta lente di ingrandimento della FTC, operavano secondo schemi tipici e simili, promettendo di offrire strumenti di intelligenza artificiale in grado di far guadagnare ingenti somme di danaro a chi se ne sarebbe avvalso, mediante l’apertura e la gestione di attività, e dei relativi, business model di e–commerce.
I Players, e i nomi dei servizi, coinvolti nell’attività di indagine (e attinti dalle sanzioni dell’Autorità statunitense) sono Aescend Ecom, Empire Builders, Rytr e FBA Machine.
In buona sostanza, tutte queste Società, e i loro relativi servizi offerti, “propalavano” ingannevolmente ai consumatori che se ne sarebbero serviti, di generare notevoli proventi economici, grazie al ricorso a sistemi di intelligenza artificiale che avrebbero gestito, per conto dei consumatori stessi, molteplici attività di vendita sul web.
Più nel dettaglio, Ascend Ecom si serviva di uno schema gestito dell’IA, grazie al quale prometteva di avviare spazi di vendita su note piattaforme quali Amazon e Walmart, dietro il versamento iniziale di svariate migliaia di dollari, garantendo notevoli e rapidi introiti; il medesimo “modus procedendi” si riviene anche nelle condotte tenute dalle Società Empire Builders e FBA Machine (che, addirittura prefiguravano agli sventurati guadagni milionari), mentre, per ciò che riguarda Rytr, quest’ultima aveva configurato un software generato dall’IA in grado di “fabbricare” automaticamente recensioni ad attività commerciali sulla base degli input inseriti dagli utilizzatori.
Sennonché, le recensioni così create risultavano tutto tranne che il frutto dei dati inseriti, concretizzandosi, invece, in descrizioni ingannevoli e capziose, in grado di falsare la concorrenza sul mercato, a tutto detrimento delle attività coinvolte, causando, inoltre, evidenti vulnus e “spaesamenti” agli ignari consumatori.
Inoltre, ciò che accomuna tutti questi casi, oltre al (quasi) medesimo meccanismo ricorsivo, è il fatto che, a seguito dell’attività istruttoria/ispettiva della FTC, non si sia giunti, di comune accordo con le Società oggetto di accertamento, alla definizione di impegni condivisi per porre fine alle vicende sopra – sinotticamente – descritte.
Di talché, a causa della pericolosità effettiva per i consumatori di queste condotte e pratiche, i Tribunali federali territorialmente competenti hanno emesso alcune ordinanze cautelari, al fine di inibire (anche mediante il sequestro degli strumenti di IA, e dell’attività complessiva) la reiterazione di tali eventi.
Al di là dei casi di specie sopra concisamente esposti, e in attesa delle pronunce di merito che verranno rese dai Tribunali federali aditi, sembrano emergere almeno due meritori spunti di riflessione (in disparte alla notazione generale di cui in apertura circa la neutralità dei sistemi tecnologici) degni di sottolineatura; in primis, anche oltre oceano, si può notare come le Authorities svolgano un ruolo quanto mai cardinale e decisivo (Per l’Osservatorio sullo Stato digitale, G. Delle Cave si è occupato anche del tema della governance, “La tutela da e per l’I.A.: prime riflessioni sulla governance dell’I.A. Act e sulla (nuova?) Autorità di vigilanza”), e non solo di enforcement, nell’affrontare le (sempre più frequenti e complesse) problematiche derivanti dall’incessante sviluppo del settore tecnologico e dei mercati digitali.
Ma, ancor di più, si evidenzia, con grande vigoria, l’esigenza di affrontare tali aspetti regolandoli (negli USA le proposte di legge, sia federali, che nazionali, sono molteplici, ma il Paese non si è ancora dotato di una vera e propria regolazione effettiva e organica), a livello globale e coordinato (omogeneo ed organico), in maniera sapiente, in modo tale da governarne lo sviluppo (Per l’Osservatorio sullo Stato digitale se ne è occupata M. B. Armiento, “Regolare l’intelligenza artificiale a livello globale: dopo l’Europa, è la volta di Stati Uniti e Regno Unito?”), facendo sì che questo sia etico e sostenibile, cercando di tutelare i diritti dei consumatori, senza però introdurre regolazioni esasperatamente restrittive e minuziose che, potrebbero causare, come effetto, solamente quello di “neutralizzare” importanti innovazioni e asset tecnologici (spingendo il Vecchio continente in un quanto mai non necessario “cul de sac”).
A tal proposito, il “trilemma” sapiente regolazione, concorrenza (e competitività di sistema) e sviluppo tecnologico, vero e proprio “nodo di Gordio” dell’AI (oltre che dei settori e dei mercati tecnologici), sempre più oggetto di attenzione globale (anche alla luce dell’esplosione di Società quali OpenAI e Anthropic), è ben stato sviluppato da un recente report – redatto dallo IAI (Istituto Affari Internazionali) – denominato “Fostering AI Innovation and Competition”.
Tale studio, presentato “a latere” del G7 delle Autorità antitrust, svoltosi a Roma durante la prima settimana di ottobre, partendo da un assunto notorio – ossia che l’IA. sta profondamente trasformando molti settori economici e sociali, quali sanità, finanza, trasporti ed educazione – e rimarcando ancora una volta il ruolo chiave delle Authorities (quelle europee dei singoli Stati membri, ancora fin troppo “remissive”), ha evidenziato come modelli di regolazione troppo rigidi, specie in fase embrionale, potrebbero seriamente compromettere lo sviluppo dell’IA.
Di guisa che, ciò comporterebbe gravi detrimenti sul piano dell’innovazione e degli investimenti a livello europeo e mondiale.
Parimenti, si chiarifica, correttamente, come non sia possibile non regolamentare il fenomeno, in quanto, anche così facendo, si correrebbe il serio rischio, non solo di disperdere un patrimonio tecnologico prezioso e fondamentale per l’umanità, bensì, le imprese tecnologiche potrebbero sfruttare la loro posizione dominante di mercato (di fatto, allo stato attuale, sono ben poche, e di grandi dimensioni, le imprese che operano in questo settore) per restringere l’accesso collettivo a risorse critiche, limitando le opportunità per la collettività, i competitor con dimensioni minori e le start-up innovative.
Di talché, il rapporto suggerisce, sapientemente, ai regolatori, di intervenire operando un – necessario e doveroso – bilanciamento di interessi tra istanze di tutela dei diritti dei singoli, sviluppo tecnologico e preservamento della concorrenzialità dei mercati, grazie ad un’azione sinergica tra i vari attori coinvolti (specialmente se si giungerà al fondamentale e auspicabile risultato di istituire un’unica autorità eurounitaria), da inserirsi in un peculiare modello di governance, che contemperi e ponderi tanto le esigenze di tutela consumeristiche e antitrust, quanto lo sviluppo tecnologico e sociale dell’IA.
Osservatorio sullo Stato Digitale by Irpa is licensed under CC BY-NC-ND 4.0