A passeggio con l’informatica – 19. Intelligenza delle macchine: è vera intelligenza?

 

Ventesima puntata del nostro viaggio

Continuando il discorso sulle macchine cognitive iniziato nel post precedente, osserviamo che si tende a considerare i dati elaborati dalle macchine cognitive come un qualcosa di oggettivo e assoluto, sulla base dell’etimologia di “dato” (che deriva dal latino datum = ciò che è stato dato) quando in realtà esso, in quanto rappresentazione di un fenomeno, ne costituisce solo un modello, uno dei tanti possibili. Quindi, nell’atto di scegliere un dato c’è già un’idea di interpretazione, che è soggettiva e che guida le modalità con le quali chi poi leggerà il dato gli darà un senso. L’esempio che tutti conoscono è quello della bottiglia, che può essere mezza vuota o mezza piena. Anche se usiamo un linguaggio più scientifico, posso descrivere questa bottiglia come un recipiente del volume di un litro contenente mezzo litro di acqua (bottiglia mezza piena) o contenente mezzo litro di aria (mezza vuota). Sto descrivendo lo stesso fenomeno, ma focalizzo il lettore su due interpretazioni differenti. La selezione di un certo insieme di dati è quindi l’atto fondamentale su cui si basa la successiva interpretazione. Si tratta di un meccanismo ben noto sia ai professionisti dell’informazione, che spesso lo usano per guidare chi legge verso una certa interpretazione, sia a chi per mestiere cerca di capire cosa sia davvero accaduto in certe occasioni, che si trova spesso di fronte resoconti contrastanti di una stessa vicenda da parte dei testimoni oculari.

Una seconda osservazione rilevante è che, data l’enorme quantità di dati digitali utilizzabili e la disponibilità di sofisticate tecniche di apprendimento automatico (machine learning), sembra non ci sia più bisogno di teorie, ovvero di quadri interpretativi coerenti per i fenomeni, perché l’opera di invenzione di queste teorie può essere sostituita dall’attività di macchine cognitive che, macinando senza fatica terabyte e terabyte di dati con sofisticate analisi statistiche, scopriranno per noi tutte le teorie necessarie. Quest’opinione, lanciata nel 2008 da Chris Anderson, direttore responsabile di Wired (una delle prime riviste che hanno affrontato il tema dell’impatto del digitale sulla società), sosteneva appunto che con il diluvio di dati disponibili non ci sarebbe più stato bisogno della teoria. L’ipotesi ha avuto nel 2016 una netta confutazione scientifica da parte degli informatici Christian Calude e Giuseppe Longo, che hanno matematicamente dimostrato come al crescere della quantità dei dati aumenta il numero di correlazioni che possono essere trovate in essi. Dal momento che questo è vero anche se i dati sono stati generati in modo casuale, ne discende che una correlazione trovata semplicemente applicando tecniche statistiche senza essere guidata da un modello interpretativo (cioè, da una teoria) non ha un significato intrinseco. Le macchine cognitive quindi, con le loro enormi capacità di analisi dati, possono certamente arricchire il metodo scientifico, ma non potranno mai sostituirlo.

Le macchine cognitive sono sicuramente utili al progresso della società umana e, data la velocità di avanzamento della tecnologia, è ragionevole aspettarsi che su un piano cognitivo puramente razionale le loro capacità analitico-deduttive saranno presto insuperate. Questo, però, non vuol dire che la cosiddetta “singolarità tecnologica” verrà presto raggiunta. Con questo termine si intende il momento in cui una macchina cognitiva diventa più intelligente di un essere umano, prefigurando quindi la sottomissione della nostra specie. Si tratta di una paura ancestrale, quella della macchina che si ribella al suo creatore, presente nella letteratura fin dal medievale mito ebraico del “golem”, passando per il racconto di Karel Capek, che ha dato origine al moderno uso della parola “robot”, per arrivare alla fantascienza e ai moderni resoconti sui mass media, originati, questi ultimi, da personaggi molto noti in ambito tecnologico quali Ray Kurzweil ed Elon Musk.

La realtà è ben diversa. L’intelligenza delle macchine e l’intelligenza umana sono due cose piuttosto differenti, anche se hanno una qualche sovrapposizione. Il problema è che usando il termine intelligenza, che per tutta la storia dell’umanità ha sempre indicato quella umana, accoppiato all’aggettivo artificiale, tendiamo a evocare l’idea che si tratti di intelligenza umana artificialmente realizzata mediante automi. In altre parole, il termine “intelligenza artificiale” induce a credere che esso descriva più di quello che effettivamente è. Invece, come detto, si tratta solo dell’aspetto legato alle capacità analitico-deduttive puramente razionali, ovvero alla possibilità di calcolare nuovi dati logicamente implicati dai dati sotto esame. Ho articolato questa riflessione in un articolo in cui ho suggerito (in modo un po’ provocatorio, perché non penso che, a questo punto, si possa davvero cambiare modo di dire) di usare l’espressione “intelligenza meccanica” invece che “intelligenza artificiale”, per meglio concentrare l’attenzione sul fatto che si sta parlando comunque di capacità meccaniche, anche se estremamente sofisticate. In quest’ambito, come abbiamo già avuto prova nel campo dei giochi da tavolo, le macchine cognitive sono superiori alle capacità umane, così come le macchine industriali hanno superato l’uomo per quanto riguarda le capacità fisiche.

Discuteremo nel prossimo post alcune caratteristiche dell’intelligenza umana che appaiono difficilmente ottenibili mediante le macchine.

 

( I post di questa serie sono basati sul libro dell’Autore La rivoluzione informatica: conoscenza, consapevolezza e potere nella società digitale, al quale si rimanda per approfondimenti. I lettori interessati al tema possono anche dialogare con l’Autore, su questo blog interdisciplinare, su cui i post vengono ripubblicati a partire dal terzo giorno successivo alla pubblicazione in questa sede. )