GENTE DI TROPPA FEDE
Nel libro Paura della scienza Enrico Pedemonte racconta che nel Kentucky, a Petersburg, il pastore australiano Ken Ham ha investito 27 milioni di dollari per costruire un parco tematico in cui la storia della Terra viene esposta secondo il punto di vista della Bibbia. Dalla sua fondazione, nel 2007, il Creation Museum ha accolto oltre 3 milioni e mezzo di visitatori, che hanno potuto vedere con i loro occhi come il nostro pianeta non conti più di 6.000 anni di vita, e come i dinosauri esistessero ancora durante il Medioevo – quando San Giorgio e gli altri cavalieri li hanno sterminati, scambiandoli per draghi. Ai tempi di Dante il WWF avrebbe raffigurato la minaccia di estinzione con un povero tirannosauro, bullizzato da giovanotti di buona famiglia in armatura rilucente – altro che panda.
Una porzione molto ampia dell’opinione pubblica coltiva un rapporto con l’intelligenza artificiale paragonabile a quello che gli abitanti della «Bible Belt» americana nutrono nei confronti della storia: una fede che libera da ogni fatica di studio e approfondimento. Solo che gli imbonitori delle fantasticherie tecnologiche non hanno nemmeno bisogno di cimentarsi nella fatica di costruire parchi a tema per persuadere i loro spettatori: non mancherebbero i mezzi, visto che tra le loro fila si schierano personaggi come Elon Musk e Sam Altman. Nel film fantasy di portata universale che propone l’AGI come un evento imminente, i ruoli sembrano invertiti: il computer che raggiungerà l’intelligenza artificiale generale viene descritto come un vero drago di talento e raziocinio, con personalità propria, autonomia di giudizio, memoria illimitata, conoscenze smisurate, lucidità strategica, sottigliezza logica, e (perché no?) cinismo teso al dominio sull’uomo e sull’universo. Cosa potrà fare un San Giorgio moderno, negli abiti di un programmatore nerd, o di un eroico poeta in carne e ossa, o di un chirurgo che si prodiga per la salute dei suoi pazienti, o di un giudice che brama difendere la giustizia quanto Giobbe davanti a Dio – cosa potranno questi santi laici di fronte a un mostro simile?
Nick Bostrom ha avvisato più di dieci anni fa che se dovesse comparire questa forma di intelligenza, per tutti noi e i nostri santi sarebbe già troppo tardi, perché la macchina che raggiungesse le prestazioni dell’AGI non si fermerebbe al nostro livello di razionalità, ma crescerebbe a intensità esponenziale, conquistando gradi di perspicacia tali da impedire la scoperta delle sue manovre, e da inibire l’interruttore di spegnimento.
TOSTAPANI CON TALENTO PER LA STATISTICA
Ma è davvero così?
L’AGI è grande, e ChatGPT è il suo profeta: molti lo considerano tale. Il software di OpenAI è stimato l’avanguardia nel settore dell’intelligenza artificiale, grazie al marketing che gli ex e gli attuali soci fondatori hanno animato intorno alle sue prestazioni: il licenziamento di Sam Altman da CEO nel novembre 2023, rientrato dopo meno di una settimana, e le polemiche con Elon Musk, hanno contribuito ad amplificare il clamore intorno ai prodotti dell’azienda californiana. Ma se proviamo ad aprire l’armatura che protegge la macchina, ed esaminiamo l’euristica del suo funzionamento, troviamo un dispositivo che calcola quale dovrà essere la prossima parola da stampare nella sequenza sintattica della frase, sulla base del grado maggiore di probabilità che il lemma possiede nel campo semantico in cui compare il suo predecessore. I campi semantici sono strutture matematiche in cui ogni parola è convertita in un vettore che misura la frequenza delle sue occorrenze accanto alle altre parole, nel corpus di testi che compongono il database di training. Per esempio, il lemma finestra compare con maggiore frequenza vicino a casa, strada, balcone; la sua presenza è meno probabile dopo transustaziazione o eucaristia.
Naturalmente ChatGPT è un prodigio di ingegneria, perché calcola (al momento) 1.500 miliardi di parametri ad ogni parola che viene aggiunta nella sequenza proposizionale; ma in ogni caso non ha la minima idea di cosa stia dicendo, non sa nemmeno di stare parlando, non ha alcuna percezione di cosa sia un interlocutore e che esista un mondo su cui vertono i suoi discorsi. Lo provano i «pappagalli stocastici» che ricorrono nelle sue composizioni: gli errori che possono apparire nelle sue dichiarazioni non violano solo le verità fattuali (quali possono essere inesattezze di datazione, citazioni false, e simili), ma aggrediscono la struttura delle «conoscenze di Sfondo», la logica trascendentale che rende possibile l’esperienza stessa. Per i testi redatti da ChatGPT un libro pubblicato nel 1995 può citare saggi usciti nel 2003 o descrivere una partita di Go avvenuta nel 2017: l’eloquio del software è infestato da allucinazioni che provano l’assenza di comprensione, in qualunque senso del termine intelligente, di ciò che significa la sequenza dei significanti allineati dal suo chiacchiericcio. Un dispositivo che non mostra alcun intendimento dell’esistenza del mondo, e delle sue configurazioni più stabili, non è nemmeno in grado di perseguire obiettivi autonomi, di giudicare, stimare, volere, decidere. ChatGPT è un software con l’intelligenza di un tostapane, e uno smisurato talento per il calcolo della probabilità nella successione delle parole.
COSA DICE L’I.A. SUGLI UMANI
Come se la passano i fratelli, i cugini e i parenti vicini e lontani di ChatGPT?
Consideriamo il caso esemplare, descritto da Gerd Gigerenzer, del software COMPAS adottato dai tribunali americani per collaborare con i giudici nella valutazione della libertà sulla parola. Ogni anno la polizia degli Stati Uniti arresta circa dieci milioni di persone, e il magistrato deve stabilire se convalidare l’imprigionamento o lasciare libero il cittadino, sulla base della convinzione che non reitererà il reato. COMPAS ha contribuito ad emanare circa un milione di sentenze, dopo essere stato formato sull’intera giurisprudenza depositata nei provvedimenti di ogni ordine e grado dei tribunali americani. L’analisi delle sue proposte ha evidenziato una serie di pregiudizi che discriminano per colore della pelle, genere, età e censo, sfavorendo gli uomini neri, giovani, che provengono da quartieri poveri. Tuttavia la penalizzazione a sfondo razziale che è implicita nelle decisioni del software non proviene dal carattere ghettizzante dell’intelligenza artificiale: la macchina non ha autonomia di giudizio, ma sintetizza le opinioni catalogate nell’archivio delle ordinanze dei magistrati in carne e ossa, che sono i reali agenti dei preconcetti e dell’intolleranza di cui il dispositivo digitale è solo il portavoce. La convinzione che la sospensione del ricorso all’IA, in favore dell’autonomia di delibera da parte dei giudici umani, possa mettere a tacere l’intolleranza che serpeggia tra le valutazioni del software, è un’illusione come l’Eden del Creation Museum: gli autori dei testi da cui COMPAS ha appreso il funzionamento del suo mestiere continueranno ad applicare i principi – più o meno inconsapevoli – del razzismo che innerva la società americana e l’upper class giuridica.
Al pregiudizio concettuale i magistrati umani aggiungono anche le deviazioni dettate dalla loro fisiologia. Uno studio congiunto della Columbia Business School e della Ben-Gurion University pubblicato nel 2011 ha dimostrato che i giudici scelgono con la pancia – e lo fanno in senso letterale, poiché i verdetti diventano sempre più severi quanto più ci si allontana dall’orario dei pasti. Almeno i software non sono sensibili ai morsi della fame.
Nemmeno vale la pena di coltivare illusioni sul miglioramento del trattamento dei candidati per le selezioni dei posti di lavoro: gli uffici del personale che abbandonano la lettura dei curricula ai dispositivi di IA (che a loro volta hanno imparato a discriminare nel training sul database delle assunzioni precedenti) non sarebbero pronti a compiere valutazioni migliori – con ogni probabilità si limiterebbero a non leggere i CV.
RATING UNIVERSALE E ALTRI ANIMALI FANTASTICI
Gigerenzer invita a verificare con cura i numeri divulgati dagli uffici marketing e dai giornalisti affamati di sensazionalismo: ne abbiamo già parlato in un altro articolo su Controversie.
La convinzione che qualche nazione sia in grado di gestire un calcolo del rating sociale di ciascuno dei suoi cittadini appartiene al repertorio degli effetti dei mass media per la generazione del panico. L’opinione che la Cina sia in grado di praticarlo, con quasi 1,4 miliardi di abitanti, è ancora meno credibile. Per allestire un processo di portata così vasta occorre una potenza di calcolo che al momento non può essere gestita da alcuna infrastruttura tecnologica. La realtà di questo progetto è assimilabile a qualcuno degli animali del bestiario del Creation Museum, qui a beneficio della propaganda del regime di Pechino e della sua aspirazione a gonfiare muscoli informatici inesistenti. Il governo cinese razzia dati sui cittadini anche dalle imprese che rilasciano servizi di comunicazione e di ecommerce, con l’obiettivo di armare sistemi di controllo di larga scala, che l’Unione Europea ha già vietato con l’AI Act entrato in vigore lo scorso luglio. Senza dubbio è una giusta preoccupazione prevenire simili tentazioni di amministrazione della distribuzione delle utilità sociali; ma il focus su questa minaccia sembra al momento meno urgente della normativa che obblighi i produttori di software a pubblicare le euristiche con cui funzionano i dispositivi di intelligenza artificiale. La consapevolezza che l’euristica alla base di ChatGPT è il calcolo della parola con maggiore probabilità di trovarsi subito dopo quella appena stampata, avrebbe liberato il pubblico dall’ansia e dall’euforia di marciare sulla soglia di un’AGI pronta a rubare il lavoro e a giudicare gli imputati, imminente al prossimo cambio di stagione. Avrebbe anche sterminato le occasioni per Musk e Altman di favoleggiare risultati miracolosi nel marketing dei loro prodotti – più spietatamente di quanto San Giorgio massacrasse dinosauri.
I rischi più realistici riconducibili all’intelligenza artificiale riguardano proprio la trasparenza delle euristiche, la bolla finanziaria indotta da società prive di un modello di business (come OpenAI), le attese senza fondamento alimentate da società di consulenza e da formatori improvvisati, il monopolio sui modelli fondamentali già conquistato da pochi giganti della Silicon Valley, il tentativo di accaparrarsi lo sviluppo dell’intero settore da parte di personaggi con finalità politiche ed economiche come Musk e Altman.
Chi costruisce Creation Museum di ogni tipo non ha mai come scopo la divulgazione; dovrebbe essere compito degli intellettuali tornare a smascherare i draghi di questi impostori, come coraggiosi San Giorgio della ragione.
BIBLIOGRAFIA
Bostrom, Nick, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, Oxford 2014.
Bottazzini, Paolo, La fine del futuro – I.A. e potere di predizione, «Controversie», 10 settembre 2024.
ChatGPT-4, Imito dunque sono?, Bietti Edizioni, Milano 2023.
Danziger, Shai; Levav, Jonathan; Avnaim-Pesso, Liora, Extraneous factors in judicial decisions, «Proceedings of the National Academy of Sciences», vol. 108, n.17, 2011.
Gigerenzer, Gerd, How to Stay Smart in a Smart World Why Human Intelligence Still Beats Algorithms, Penguin, New York 2022.
Pedemonte, Enrico, Paura della scienza, Treccani Editore, Torino 2022.
Autore
-
laureato in filosofia, si occupa di media digitali dal 1999: è co-fondatore di Pquod e VentunoLab, società specializzate nella comunicazione web e nell’analisi di dati. Parallelamente ha svolto attività di docenza sui temi della comunicazione digitale per il Politecnico di Milano, per il Corep presso il Politecnico di Torino, per il Dipartimento di Filosofia dell’Università degli Studi di Milano. Descrive i modelli cognitivi emergenti dai nuovi media nella monografia pubblicata nel 2010: Googlecrazia. Dal febbraio 2011 testimonia la loro evoluzione negli articoli pubblicati sulle testate Linkiesta, pagina99, Gli Stati Generali.