Il Tribunale di Bologna ritiene che la piattaforma Deliveroo discrimini indirettamente i riders per il tramite dell’algoritmo con cui organizza i flussi di lavoro. La decisione evidenzia quanto il rispetto dei diritti delle persone nella società digitale debba essere attenzionato sin dalle prime fasi di sviluppo di modelli decisionali autonomi, in un’ottica “By Design”.
Il Tribunale di Bologna, con una ordinanza di inizio anno, ha affrontato una questione peculiare, legata al modello organizzativo adottato dalla famosa compagnia di consegna di cibo a domicilio “Deliveroo Italy S.r.l.”.
Il giudice di merito si è in particolare chiesto se la distribuzione del lavoro tra i fattorini (riders) dell’azienda, operata per il tramite di un algoritmo, possa determinare una violazione del principio di uguaglianza sostanziale.
L’algoritmo FRANK impiegato dalla piattaforma Deliveroo può essere definito come un algoritmo di scoring basato su due elementi fondamentali: l’indice di affidabilità e l’indice di partecipazione dei riders.
Il primo indice viene calcolato sulla base dei log dei riders all’interno della piattaforma di prenotazione messa a disposizione dall’Azienda: tali log, per poter essere considerati validi, devono avvenire 15 minuti prima del turno prenotato e all’interno della zona di lavoro prescelta dal rider. Il secondo indice viene invece calcolato sulla base del numero di volte in cui il rider si renda disponibile per gli orari più rilevanti per il consumo di cibo a domicilio.
Attraverso il calcolo di tali elementi, la piattaforma definisce le statistiche del rider, assegnandogli un punteggio che, come chiarito nella pronuncia di merito, potrà costituire “elemento di preferenza per le sessioni di prenotazione successive”.
I riders con un punteggio più elevato avranno dunque la possibilità di prenotare con priorità le sessioni di lavoro; sessioni di lavoro che man mano si satureranno e diverranno non più disponibili per i riders con una valutazione minore.
Tra i vari elementi che possono incidere negativamente nel calcolo di tali indici, vi figura la mancata cancellazione del turno almeno 24 ore prima dell’inizio dello stesso. In tale sistema l’elemento di discriminazione è determinato dal fatto che un rider che aderisca ad uno sciopero, o che non partecipi al turno per via di questioni legittime (malattia, handicap, cura dei figli minori) e non sia in grado di cancellare la sessione prenotata almeno 24 ore prima dell’inizio della stessa, rischia di veder peggiorare le sue statistiche e di perdere la posizione eventualmente ricoperta nel gruppo prioritario, con gli annessi vantaggi.
Come rilevato dai giudici, “in tutti questi casi il rider vede penalizzate le sue statistiche indipendentemente dalla giustificazione della sua condotta e ciò per la semplice motivazione, espressamente riconosciuta da Deliveroo, che la piattaforma non conosce e non vuole conoscere i motivi per cui il rider cancella la sua prenotazione”. Non considerare i motivi della mancata partecipazione alla sessione prenotata o della cancellazione tardiva della stessa implica, secondo il giudice di merito, necessariamente che a diverse situazioni sia riservato lo stesso trattamento, determinando una forma di discriminazione indiretta, che pone “una determinata categoria di lavoratori (quelli partecipanti ad iniziative sindacali di astensione dal lavoro) in una posizione di potenziale particolare svantaggio”.
La sentenza, pur muovendosi su un terreno diverso rispetto al suo ambito di applicazione, sembra riprendere quanto affermato dal Regolamento Generale sulla Protezione dei Dati (RGDP, 679/2016), per quanto attiene alla necessità, in sede di programmazione di un algoritmo, di valutare non solo l’efficacia del modello di calcolo, ma anche una serie di ulteriori elementi contingenti che possano condurre ad un pregiudizio nel corso dell’utilizzo di tale sistema automatizzato. Tale principio definito di Privacy by design, è stato introdotto in particolare con l’art. 25, par. I: esso impone ai titolari del trattamento dei dati l’obbligo di adottare un approccio proattivo nei confronti della protezione dei dati stessi sin dalle prime fasi di progettazione, con specifica attenzione all’adozione di misure tecniche ed organizzative che siano volte a garantire una tutela effettiva dei diritti dell’interessato. La formulazione adottata dall’art. 25, par. I è ben specifica: essa fa riferimento ai diritti all’autodeterminazione informativa del singolo, quali, ad esempio, il diritto di accesso ai propri dati, il diritto di opposizione al loro trattamento, nonché il diritto alla cancellazione degli stessi. Il principio non può dunque essere esteso a tutti gli altri diritti riconosciuti nella Carta dei Diritti Fondamentali dell’Unione Europea (tra cui, per quanto qui rileva, il diritto di non discriminazione).
Come rilevato dalla Commissione Europea nel white paper “On Artificial Intelligence – A European approach to excellence and trust” (su cui si veda il post di S. Del Gatto, Una regolazione europea dell’AI come veicolo di eccellenza e affidabilità. Gli obiettivi del Libro bianco della Commissione europea sull’intelligenza artificiale), nonostante gli sviluppatori e i distributori di sistemi di decisione automatizzata siano già soggetti alla legislazione europea in materia di diritti fondamentali (ad es. protezione dei dati, privacy, non discriminazione), alcune caratteristiche specifiche di tali sistemi (e, meglio, alcuni dei problemi che a tali caratteristiche conseguono, come l’opacità delle decisioni assunte -su cui si veda il post di N. Posteraro Come rendere trasparenti gli algoritmi utilizzati dalle città per offrire servizi pubblici migliori: Amsterdam ed Helsinki adottano i registri dell’Intelligenza Artificiale-) potrebbero in concreto rendere difficile l’applicazione della normativa a tutela dei diritti fondamentali dell’uomo.Nel caso di specie, il principio leso attiene alla tutela del lavoro in tutte le sue forme, riconosciuto dall’art. 35 della Costituzione, ma sono diversi i casi in cui l’impiego di tali sistemi ha determinato un pregiudizio a norme costituzionalmente garantite (tra questi, si veda la lesione del principio di buon andamento dell’attività amministrativa di cui all’art. 97 della Costituzione, rilevata dal Consiglio di Stato in una recente sentenza di cui si è dato conto in questo osservatorio (https://www.irpa.eu/procedimento-amministrativo-e-decisione-amministrativa-robotizzata-gli-orientamenti-della-giurisprudenza-amministrativa/).
La sentenza del tribunale di Bologna si pone in linea con tale necessità di una maggiore attenzione ai diritti costituzionalmente garantiti su cui tali algoritmi potrebbero avere un effetto dirompente, confermando l’inefficienza dell’attuale normativa in materia di regolamentazione dei sistemi di Intelligenza Artificiale. Gli elementi di rischio posti da algoritmi di decisione automatica richiedono un’evoluzione dell’approccio legato alla progettazione di sistemi di decisione automatica: attraverso la definizione di un meccanismo preventivo di tutela, occorre garantire uno sviluppo che sia coerente con i diritti fondamentali dell’uomo e che tenga altresì conto di tutte le possibili implicazioni etiche che sono legate all’impiego di modelli di calcolo (occorre, cioè, che si segua pure, nel progettare, il modello ethics by design).
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 4.0 Internazionale.