Un recente paper della Deutsche Forschungsgemeinschaf, nota associazione tedesca di finanziamento di ricerche nazionali e internazionali, pone l’accento sulle modalità di utilizzo dei dati raccolti da parte degli editori presenti nel settore accademico. Trattasi di pratiche commerciali di tracciamento ed estrazione dei dati del tutto analoghe a quelle delle Big Tech. Il paper esamina così sia le principali tecniche di trattamento dei dati adoperabili dagli editori, sia le possibili ripercussioni sulla libertà di ricerca conseguenti alla concentrazione di informazioni in mano ad un numero sempre più circoscritto di operatori.
In un recente paper il Committee on Scientific Library Services and Information Systems of the Deutsche Forschungsgemeinschaf ha evidenziato come il tracciamento e l’estrazione dei dati siano, oramai, prerogativa non solo delle Big Tech, ma anche dei principali editori operanti nel settore accademico; delle Big Tech si è già più volte scritto, in particolare qui, qui, qui, e qui.
La si potrebbe ritenere un’osservazione ovvia, se non banale, tuttavia è evidente che il tema richiede una maggiore attenzione da parte della comunità scientifica. D’altronde, chi è più esposto alla raccolta e commercializzazione dei propri dati, a causa delle proprie scelte sull’utilizzo dei cookie, si sarà sicuramente accorto che non vi è soltanto Amazon a sponsorizzare annunci parametrati ai propri ultimi acquisti e ricerche.
Lo scopo dichiarato del paper è, dunque, quello di promuovere un dibattito ai fini di una condotta sempre più consapevole dei ricercatori e di una più puntuale regolamentazione del settore. Trattasi di obbiettivi non del tutto lontani da quelli che hanno portato alla fondazione di quest’Osservatorio sull’amministrazione digitale, qui evidenziati dalla Professoressa Torchia che sottolinea la necessità di un continuo studio sulla diffusione della tecnologia e dei suoi effetti, ivi compresi i nuovi problemi posti dalla tutela della privacy sulle piattaforme digitali.
Tanto premesso, il paper è stato predisposto da un comitato del Deutsche Forschungsgemeinschaf, associazione privata tedesca che finanzia ricerche nazionali e internazionali, e di tale rapporto è possibile richiamare sinteticamente i diversi temi trattati, ovverosia: a) le principali tecniche di “data mining” – estrazione di dati – adoperabili dagli editori accademici; b) il possibile impatto sulla libertà di ricerca conseguente alle nuove pratiche commerciali degli editori; c) le strade da intraprendere per una più attenta tutela della libertà di ricerca.
In primo luogo, rispetto alla estrazione dei dati e, quindi, alla raccolta e conservazione degli stessi, il paper elenca alcune delle tecniche di cui possono avvalersi gli editori accademici: il third-party data through microtargeting, i bidstream data, il port scanning e lo spyware.
Il Third-party data through microtargeting consiste nella personalizzazione di annunci rivolti a target di utenti piuttosto ristretti grazie ai dati raccolti dagli editori e trattati anche da soggetti terzi, principalmente le Big Tech.
Quanto ai bidstream data e il port scanning, i primi sono quei dati raccolti in tempo reale mediante una bid request, ossia la richiesta di una serie di informazioni contenenti i dati degli utenti (es. IP, pixel, tag, cookie). Il port scanning risiede, invece, nella ricerca delle porte aperte di un device al fine, a seconda dei casi, di verificare le politiche di sicurezza delle reti e rafforzarle grazie ad appositi software ovvero, nell’ipotesi di hacker, di sfruttarne le vulnerabilità ed introdurre dei malaware. Lo spyware, infine, è un malaware che monitora l’attività di navigazione degli utenti, raccogliendone i relativi dati, ad insaputa degli stessi.
In secondo luogo, le nuove pratiche di raccolta e trattamento dei dati se da un lato consentono di offrire ai ricercatori servizi sempre più efficienti e veloci, dall’altro aprono a diverse criticità che vengono sinteticamente richiamate dal paper. L’associazione tedesca paventa, in particolare, una concentrazione di informazioni e dati nelle mani di un numero sempre più ridotto di operatori privati, con il conseguente rischio di un oligopolio de facto. Oligopolio quest’ultimo che potrebbe determinare sia maggiori difficoltà di ingresso nel mercato per nuovi operatori, sia il rischio di un ridimensionamento del ruolo esercitabile dalla ricerca pubblica.
Inoltre, prosegue l’associazione, un tracciamento dei dati non sufficientemente regolamentato ovvero, in ogni caso, scorretto potrebbe altresì condurre ad una violazione della privacy dei diversi ricercatori e, nelle ipotesi più gravi, financo ad un pericolo alla loro incolumità qualora i relativi dati personali siano resi a disponibili anche a regimi autoritari.
Il paper fotografa così un processo che, pur essendo ancora in divenire, rischia di pregiudicare la stessa libertà di ricerca, per la cui tutela viene suggerita la promozione dell’open access, che non richiede credenziali d’accesso, e l’adozione di linee guida per un’informativa più trasparente circa l’effettivo utilizzo dei dati raccolti.
Le riflessioni che emergono dal paper tedesco e dagli articoli ivi richiamati si rinvengono anche nel dibattito, giuridico e non solo, presente nel nostro paese. Tanto è vero che l’attenzione di diverse università è oggi diretta alla promozione dell’open access e dell’open science; intendendosi per open access il libero accesso al sapere scientifico genericamente inteso, mentre per l’open science si fa riferimento più propriamente alla sola accessibilità ai dati e risultati delle ricerche accademiche.
Ad ogni modo, è evidente che la natura transnazionale del settore accademico e dei diversi editori richiede inevitabilmente una risposta congiunta a livello europeo. Va, pertanto, guardata con favore la recente iniziativa della Commissione europea per la promozione di un nuovo sistema di valutazione della ricerca che si soffermi anche sui temi dell’open science e del trattamento dei dati.
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale