Recensione: F. Annunziata – Artificial intelligence and market abuse legislation. A European Perspective – Elgar, 2023

In questo volume viene approfondito il tema dei possibili impieghi dell’intelligenza artificiale nel settore finanziario, avendo particolare riguardo a due profili: il processo di formazione, identificazione e (eventuale) pubblicazione di un’informazione privilegiata, da un lato; le attività di trading svolte da algoritmi avanzati, che possono tradursi in condotte manipolative del mercato, dall’altro. Si analizzano, in sostanza, due diverse ‘facce’ dell’intelligenza artificiale: un suo possibile impiego virtuoso e un altro, al contrario, abusivo e distorto.

 

 

Dopo una parte iniziale dedicata alla descrizione dell’ambito di applicazione del Regolamento europeo sugli abusi di mercato – Regolamento UE n. 596/2014 c.d. MAR (Capitolo 2) – nonché del dibattito attuale sulle applicazioni dell’intelligenza artificiale al mercato dei capitali (Capitolo 3), l’Autore, nei capitoli 4 e 5, riporta i principali esiti delle attività di studio e ricerca condotte.

L’analisi, in particolare, può essere suddivisa in due parti. Una prima parte, in cui l’Autore si sofferma sugli impieghi ‘virtuosi’ dell’intelligenza artificiale, avendo particolare riguardo all’adempimento da parte degli emittenti degli obblighi di comunicazione al pubblico delle informazioni privilegiate, previsti dal Regolamento europeo. Una seconda parte, invece, in cui si prendono in considerazione gli impieghi ‘patologici’ dell’IA e, nello specifico, il suo utilizzo per scopi distorsivi del mercato e le problematiche che si presentano in termini di detection di questi fenomeni, nonché di imputazione della responsabilità.

Per quel che concerne il rapporto tra IA e obblighi di comunicazione al pubblico, si ricorda come l’art. 17 del Regolamento MAR imponga agli emittenti di rendere pubbliche, as soon as possible, le informazioni privilegiate che li riguardano. Tale obbligo ha delle ripercussioni significative sull’organizzazione interna dell’emittente ed è proprio in tale ambito che, ad avviso dell’Autore, l’intelligenza artificiale può svolgere una funzione di supporto di rilievo. Infatti, come evidenziato nel testo, “the duty to disclose inside information is, first and foremost, a matter of proper data and information management within the entities subject to MAR”; è, dunque, essenziale ai fini dell’adempimento degli obblighi di disclosure, che l’emittente sia in grado di identificare celermente e, di conseguenza, rendere pubblica l’informazione privilegiata.

Il compito di monitorare, identificare e pubblicare un’informazione privilegiata diviene vieppiù arduo nelle realtà di grandi dimensioni, in cui vi sono molteplici società controllate, spesso localizzate in paesi se non continenti diversi. Inoltre, occorre considerare che la formazione di un’informazione privilegiata si verifica spesso nell’ambito di processi prolungati, essendo solo di rado immediata, ciò che rende ancor più complicato adempiere all’obbligo di disclosure.

Secondo l’Autore, l’intelligenza artificiale può venire in soccorso in questo ambito, costituendo un valido strumento di supporto sia per la fase di identificazione delle informazioni rilevanti, sia in quella in cui quelle informazioni vengono ad assumere le caratteristiche che le rendono privilegiate.  L’IA potrebbe supportare gli organi di amministrazione nel processo di identificazione di una potenziale informazione privilegiata, facendo leva sui processi self-driven o self-learning. Ad esempio, potrebbe effettuare un’analisi comparata di casi simili, sia interni che esterni, al fine di fornire indicazione sul possibile impatto che la pubblicazione di una data informazione avrebbe sul mercato; ciò sarebbe utile al fine di valutare la price-sensitivity di una data informazione.

Per quel che concerne, invece, l’attività di vera e propria disclosure al pubblico dell’informazione, l’Autore sostiene che l’utilizzo dell’AI in tale contesto non possa arrivare a sostituire l’intervento umano, rendendo il processo completamente automatizzato. Ciò, infatti, non sembrerebbe possibile, non tanto da un punto di vista tecnologico (Chatgbt, ad avviso dell’Autore, probabilmente già sarebbe in grado di svolgere tale compito) quanto da uno giuridico e, in particolare, quello dell’attribuzione di responsabilità in caso di mancato/non corretto adempimento dell’obbligo di disclosure.

Con riferimento alle applicazioni patologiche dell’IA, l’Autore – dopo aver descritto una tipologia di algoritmi, gli high frequency trading (HFT) particolarmente utilizzati per le attività di negoziazione – si incentra sulle possibili condotte abusive realizzabili attraverso tali strumenti. Difatti, gli HFT costituiscono una delle modalità attraverso cui una manipolazione di mercato – condotta vietata dal Regolamento MAR – può essere attuata; modalità peraltro espressamente presa in considerazione dal legislatore europeo all’interno del Regolamento (si veda in proposito l’articolo 12). L’Autore passa quindi in rassegna alcuni esempi di strategie di trading particolarmente aggressive realizzate tramite HFT, che potrebbero essere associate e/o sfociare in condotte manipolative, come il flash trading e la liquidity detection. Tali situazioni pongono all’interprete problemi di non poco conto, come viene puntualmente descritto dall’Autore. Il più rilevante riguarda l’attribuzione di responsabilità nei casi in cui il sistema di AI agisca indipendentemente dal controllo umano ed elabori delle proprie strategie di trading, che possono risultare in condotte manipolative. In proposito l’Autore evidenzia come le regole attualmente vigenti non consentano di risolvere il problema dell’imputazione di responsabilità. Viene quindi descritto il dibattito attuale sul punto, che vede diverse soluzioni proposte che vanno da quella più estrema, di mettere al bando l’intelligenza artificiale, al considerarla come un’entità con personalità giuridica, cui attribuire la responsabilità, al mantenere sempre e comunque un controllo umano, che diverrebbe invece responsabile in caso di condotte abusive. Un suggerimento particolarmente interessante è quello di strutturare l’algoritmo stesso con misure preventive: al verificarsi di determinate condizioni, cioè, l’algoritmo dovrebbe astenersi dall’operare (si tratterebbe, come sottolinea l’Autore, di una misura risk-based, in linea con l’approccio regolatorio dell’IA).

L’analisi si chiude con una riflessione sul mutamento che necessariamente deve investire le attività di vigilanza e di indagine delle authorities, al fine di poter individuare e reprimere celermente le condotte abusive realizzate tramite strumenti di intelligenza artificiale. L’utilizzo delle nuove tecnologie nell’esercizio di poteri di supervisione, anche noto con il termine Suptech, è già sperimentato da alcune autorità di vigilanza, come descritto dall’Autore.

Da ultimo l’Autore, pur escludendo la necessità di una revisione completa del Regolamento MAR, come da alcuni auspicato, offre alcuni interessanti spunti di riflessione relativamente ad alcuni aggiustamenti che potrebbero essere operati dal legislatore europeo per tener conto degli sviluppi tecnologici più recenti, come ad esempio l’espressa previsione per cui gli emittenti, ai fini dell’identificazione di informazioni privilegiate, si dotino di strumenti di intelligenza artificiale. Una previsione siffatta potrebbe infatti costituire uno stimolo affinché gli emittenti ricorrano a tali strumenti.

Osservatorio sullo Stato Digitale by Irpa is licensed under CC BY-NC-ND 4.0