Un attuale e interessantissimo libro di Juan Carlos de Martin (Contro lo smartphone. Per una tecnologia più democratica, ADD, 2023, disponibile anche gratuitamente) offre l’occasione per delineare alcuni punti di sviluppo centrali nel discorso pubblico sulla tecnologia.
Lo smartphone viene setacciato a fondo, ne vengono messi gli aspetti funzionali, strutturali e descritti gli effetti collaterali: dalla ricerca dei materiali allo sfruttamento di persone e territori, dalla creazione di app che raccolgono molti più dati di quelli necessari al consolidamento delle posizioni economiche e di potere connesse alla loro creazione e alla loro crescente centralizzazione. Il libro è un percorso di conoscenza, che dalla struttura tecnologica conduce ai problemi tecnici e sociali (la spasmodica ricerca di terre rare, il problematico smaltimento dei rifiuti digitali, l’etichettatura dei contenuti); sottolinea come il suo uso stia divenendo obbligatorio, anche in base a determinate scelte legislative (lo vediamo anche oggi con il portafoglio digitale). Un uso imposto prima de facto, dunque, e poi de iure. Il lavoro non manca di delineare possibili soluzioni. Venti proposte, infatti, vengono formulate alla fine del volume per trovare una soluzione ai problemi che l’utilizzo di uno strumento – che usiamo e vediamo usare quotidianamente – pone in modo non rinviabile.
I più avveduti sanno da anni cosa sta avvenendo e, senza cadere nella trappola dell’inevitabilità e del soluzionismo tecnologico (definito “una follia” da Eugeny Morozov), optano diversamente o, se impegnati in ambito scientifico, politico o sociale, indicano la strada da seguire per un cambiamento generale (collettivo e non personalistico).
Proprio quest’ultimo punto segnala che le riflessioni che un oggetto come il telefono “intelligente” sollecita sono di ordine più generale. Interessi di vasta scala si celano dietro l’uso delle tecnologie digitali. Questi interessi devono destare l’attenzione di decisori e interpreti: è ormai evidente la correlazione con problemi istituzionali e di politica del diritto. Se non si può tornare indietro (come scrive Gustavo Zagrebelsky nell’introduzione al volume di de Martin, ricordando le vicende legate alla televisione, alla massificazione, alla tutela dei diritti e ai rischi per la libertà di informazione), occorre riscrivere il presente per modificare il futuro. Utilizzando il passato non in chiave mnemonica e ripetitiva, ma al fine farne il “concime” di un oggi più solare, per citare Goliarda Sapienza.
Questo giorno soleggiato deve riportare a una riconsiderazione dello strumento, per dismetterne la funzione di un mezzo di sorveglianza, di invasione della vita privata, di cessione abusiva e opaca di dati per elaborare informazioni strutturate (a vari fini, non solo commerciali). Va ritrovato un uso aperto della tecnologia, che sia un ausilio e non un incatenamento: la direzione presa non è inevitabile ed è possibile, se solo lo si voglia, ripristinare una condizione in cui vengano combattuti i fenomeni estremi e sia fermata la crescente compressione dei diritti (facilitata dalla sempre maggiore centralizzazione che la tecnologia digitale realizza). Alcuni aspetti sono già individuati dalle normative europee: a titolo di (minimo) esempio, il DMA introduce l’obbligo di apertura di determinati mercati, la trasmissione dei dati, la contendibilità dei nuovi spazi. Il DGA cerca un modello europeo di circolazione e uso dei dati. Tuttavia, la loro dimensione effettiva, prima ancora della loro efficacia, pone molte domande. L’indirizzo, infatti, è corretto, ma non è certo sin dove si potrà arrivare. Lo stesso vale per l’AI Act, ove l’enorme sforzo compiuto ancora non è sufficiente a una piena tutela dei diritti e a un uso aperto della tecnologia.
Questi problemi sono entrati a pieno titolo nell’agenda pubblica e suscitano interrogativi in ordine alla convivenza civile (i danni causati sui rapporti sociali, sulla perdita di concentrazione, sullo sviluppo dei minori sono oggetto di studi sempre più consistenti) e al funzionamento delle istituzioni democratiche (ogni giorno assistiamo a prassi di infiltrazioni indebite, con casi che hanno coinvolto e continuano a coinvolgere anche le massime cariche istituzionali).
Sono problemi che non si limitano ai singoli device (il punto da cui si è partiti), ma toccano la scelta e la gestione degli apparati, dei software e delle infrastrutture su cui poggia l’intera architettura di connessione. Per affrontarli occorre ritornare alla base e ripercorrere i concetti fondamentali e le tappe storiche dell’informatica (l’Osservatorio ha lanciato un corso per comprendere i fondamenti della materia e comprenderne anche i risvolti generali, sociali e democratici, in un “passeggio” guidato da Enrico Nardelli).
In questo scenario, si nota una risposta istituzionale spesso ambigua, non coerente o insoddisfacente. Generiche affermazioni di principio non risolvono (ma nemmeno individuano) questioni profonde che si connettono alla citata concentrazione di potere, alla formazione di oligopoli ormai noti e alla correlazione con le attività governative — configurando quell’apparato militare-industriale indicato da Eisenhower, di cui osserviamo oggi gli effetti lampanti nei conflitti in corso. Se non si comprende che è la struttura di base, su cui poggiano questi fenomeni, a determinare precise conseguenze, non saremo in grado di definire politiche digitali adeguate.
Per le amministrazioni pubbliche è una sfida quotidiana. Diversi problemi sono ancora irrisolti e giacciono nelle pieghe normative. Il rischio, più che la capacità d’uso e di scelta dei sistemi (che spesso producono errori manifesti nell’attività decisoria: palese il caso delle graduatorie scolastiche), è delle scelte di indirizzo e degli elementi infrastrutturali. La battaglia è già stata persa in passato, con la colonizzazione degli apparati da parte di determinati sistemi informatici. Il pericolo di lock-in è dietro le porte. Oggi la partita si fa ancora più difficile: molte “innovazioni” possono complicare l’attività amministrativa (e quella lavorativa in generale), più che semplificarla. La tecnologia informatica non garantisce nemmeno maggiore velocità né valutazioni più obiettive: un tribunale inglese ha giudicato legittima la scelta del Cabinet Office di non utilizzare la c.d. intelligenza artificiale a fronte di un’istanza di accesso eccessivamente onerosa, in quanto non è stato dimostrato che avrebbe condotto a una scelta coerente, motivata e corretta dei documenti da ostendere. La stessa sicurezza cibernetica può diventare un rischio, se ci si affida a strumenti di protezione che possono causare una paradossale eterogenesi dei fini (come mostra il caso di Crowdstrike) e rovesciarsi contro i singoli, grazie alla loro capillarità.
Non chiarire le conseguenze di ogni singola scelta non farà che accentuare fenomeni e problemi già manifesti. Ciò che ancora manca e che deve essere ricercato è una maggiore consapevolezza e una maggiore fermezza da parte dei decisori. La consapevolezza deve operare sia all’interno, per chi decide, affinché sappia cosa sta decidendo e quali sono le conseguenze generali (ad esempio, privilegiando soluzioni aperte, in grado di non sottoporre le amministrazioni e, con esse, i cittadini, a meccanismi opachi e a un loro uso distorto), sia all’esterno, nel promuovere una formazione che non sia solo di uso della tecnologia (compito piuttosto banale) ma di conoscenza dei meccanismi che risiedono dietro alla tecnologia. Le procedure di acquisto non devono rispondere a un’applicazione formale, che rischia di divenire un simulacro, ma toccare la sostanza del fenomeno, le sue ricadute e il rapporto con i fornitori terzi, ridiscutendo o attualizzando le stesse categorie giuridiche. La maggiore fermezza risiede nella capacità di opporsi a prassi commerciali e finanziarie che perseguono interessi peculiari, e ritrovando una bussola più precisa. In epoca di programmazione statistica, comunemente e commercialmente definita “intelligenza artificiale” in base a una precisa narrazione, che muove i propri passi da ingenti investimenti legati ai capitali di rischio, questi aspetti divengono sempre più centrali e finora il dibattito è andato nella direzione sbagliata. Non affrontarli ci esporrà a un domani allarmante. Sarebbe preferibile non doverci arrivare, anche mediante un rinnovato ruolo di ricerca delle università, che dovrebbero essere rafforzate e contribuire con maggior coraggio alla ideazione (e all’uso interno) di strumenti di nuova concezione, che riscrivano parte dell’informatica e costruiscano apparati e reti improntate al rispetto dei diritti e alla comprensione delle conseguenze del loro utilizzo.
Gli schermi, nella storia, hanno condizionato, plasmato, e anche migliorato la vita quotidiana delle persone: il grande schermo ha prodotto nuovi lavori, idee, cultura, creando e rivoluzionando un settore. Il piccolo schermo ha prodotto di tutto, è divenuto l’emblema di contenuti scadenti, ma talvolta ha unificato le popolazioni (è il caso della lingua italiana, delle lezioni di Alberto Manzi) o contribuito a mettere in evidenza temi di grande impatto sociale. Oggi è messo in crisi dalle reti e dalle piattaforme sociali (soprattutto per la ricerca di notizie). La lezione su “apocalittici e integrati” forse non è del tutto acquisita, ma si è assistito alla nascita di problemi sempre più complessi e a nuove esigenze da soddisfare. I “mini schermi” attuali, di sempre più facile gestione, nascondono in realtà sfide più difficili. Sono connessi e non isolati: la loro analisi impone di non limitarsi a pensare al singolo elemento, ma alla loro interrelazione e all’infrastruttura su cui poggiano. A questi problemi, complessi, sono chiamate a rispondere le politiche digitali, se ancora vogliono essere definite tali. E per questo arduo compito, in prima linea servono le istituzioni: sono sempre le istituzioni a consentire (o a frenare) lo sviluppo, come insegna da anni il neo vincitore (meglio, uno de tre) del premio Nobel per l’economia.
Osservatorio sullo Stato Digitale by Irpa is licensed under CC BY-NC-ND 4.0