1. Terapie del discorso

«La predizione è difficile, specie se riguarda il futuro», è un’arguzia attribuita al fisico Niels Bohr, ad altri fisici, ma anche a letterati come Mark Twain. La riflessione che Gerd Gigerenzer elabora nel libro Perché l’intelligenza umana batte ancora gli algoritmi riguarda l’efficacia dei sistemi di intelligenza artificiale e i costi sociali che siamo disposti a sostenere per svilupparli e utilizzarli. Questo compito si traduce in due strategie di terapia del pensiero: una è rivolta al modo in cui percepiamo i risultati dei software, l’altra alla comprensione delle policy dell’infosfera, al fine di comprendere i modi e i fini della razzia di dati personali che alimenta le banche dati delle AI. 

Il titolo del saggio sembra suggerire che sia in corso un’aggressione, o almeno una sfida, da parte delle macchine. Lo sviluppo dell’argomentazione invece non segue questa traccia, perché sotto la lente dell’analisi finiscono le promesse del marketing (e le attese del pubblico) sulle potenzialità dei software, senza che a questi venga attribuita alcuna intenzione di competizione: unici protagonisti sono i discorsi che gli uomini si scambiano sui dispositivi digitali. Gli interventi di terapia sono condotti anzitutto sul nostro linguaggio e sull’archivio di enunciati con cui vengono descritti i servizi digitali: si sarebbe potuto scegliere come titolo del libro Perché si può sempre tentare di curare l’intelligenza umana dalla propria stupidità, ma in questo modo sarebbe mancata l’evocazione del Golem elettronico, che nelle vetrine delle librerie esercita sempre il suo (stupido) fascino.

2. Prevedere il passato

Gigerenzer illustra al lettore una galleria di attività realizzate dall’AI, dalla selezione dei partner sessuali alla guida autonoma, dalla traduzione automatica alla polizia predittiva, dal riconoscimento dei volti alla profilazione marketing. In tutte queste pratiche le narrazioni dei produttori (spesso poi rilanciate dai media istituzionali) tendono a esagerare i risultati raggiunti dal software sulla base di una costruzione argomentativa che viene etichettata «fallacia del cecchino texano». Immaginiamo un cowboy che spari da grande distanza sulla parete del fienile, e vada poi a disegnare i cerchi del bersaglio attorno all’area in cui si raggruppa buona parte dei fori che ha prodotto nel muro. L’adattamento dell’obiettivo ai buchi dei proiettili comporta un’ammirazione nei confronti della mira del cecchino che è molto inferiore a quella che avrebbe conquistato se i fori si fossero concentrati dentro il perimetro di un bersaglio già tracciato. Quello che accade nella descrizione delle prestazioni delle macchine è molto simile: i risultati che vengono divulgati e commentati riguardano la capacità del software di adeguare la capacità predittiva a fatti avvenuti in passato: gli eventi trascorsi sono gli unici di cui si conoscono già gli effetti, sui quali può essere condotto il training delle AI, e su cui può essere misurata la loro efficacia. 

I modelli di calcolo riuscirebbero però garantire la replica della loro accuratezza profetica sui casi futuri soltanto se si potesse verificare che gli ambiti delle relazioni umane, quello dei comportamenti individuali, quello della storia, persino quello del traffico stradale, obbedissero sempre agli stessi parametri di decorso. Se l’amore tra le persone scoccasse sempre per le stesse ragioni, se il piano di una rapina o di un omicidio derivasse sempre dagli stessi moventi, se la circolazione di mezzi e pedoni ripetesse sempre le stesse traiettorie e non violasse mai il codice – il grado di successo registrato dalle I.A. in fase di test sarebbe una promessa affidabile per il futuro. Ma nelle situazioni di complessità, quali sono quelle sviluppate dalle azioni degli uomini, l’adattamento di un modello agli effetti del passato tramite la selezione e l’interpretazione dei parametri opportuni, e il talento profetico per il futuro, non si sovrappongono con alcuna ragionevole certezza. Il mondo dovrebbe essere di una stabilità (e di una noia) meccanica per corrispondere a requisiti simili; invece la realtà sociale continua a essere mutevole, e la predizione dei software molto meno affidabile di quanto venga propagandato. 

I giochi come gli scacchi, la dama e il Go, inquadrano alcune condizioni ideali per il miglior funzionamento dell’I.A.. Le situazioni cambiano sempre, ma l’ontologia dentro i confini delle partite è stabile come quella dei pianeti e delle stelle, di cui si calcolano le orbite con determinismo assoluto: le dimensioni e la forma della plancia, il valore dei pezzi, le regole di movimento, le finalità degli spostamenti, rimangono costanti. Non ci sono bambini che attraversano la scacchiera all’improvviso, alfieri caratteriali che decidono di muovere in verticale, regine con appetiti segreti che mangiano il proprio re. Per decenni si è ritenuto che l’abilità nel giocare a scacchi esprimesse l’essenza dell’intelligenza, ma le prove empiriche sembrano smentire questo assunto: le doti per vincere una partita contro il campione del mondo non permetterebbero alla macchina di sopravvivere nel traffico delle vie di Milano – o di assicurare l’incolumità dei milanesi. Una delle soluzioni del problema potrebbe essere quella di riservare le strade alla sola circolazione delle automobili guidate da I.A., ma non sembra un’ipotesi percorribile a breve. Le attese non migliorano quando si passa all’assortimento di coppie con lo scopo che non divorzino entro un anno, o al riconoscimento di volti sospetti senza il rischio di arrestare innocui passanti – o ancora peggio, la divinazione di profili psicologici per le sentenze di libertà sulla parola (o per la personalizzazione dei messaggi marketing).

3. Euristiche e stabilità del mondo

Gigerenzer insiste sull’opportunità di confidare in software costruiti su euristiche trasparenti. Il successo delle I.A. è stato sostenuto da due pregiudizi che ciascuno di noi coltiva in favore della complessità e dell’opacità, visto che ci sentiamo più sicuri dei risultati di una macchina complicata e incomprensibile. Invece una «lista di decisione» con poche regole permette di ottenere predizioni che, nel confronto empirico, funzionano meglio delle I.A.: Angelino et al. (2018) mostra che è quanto che accade con i tre parametri e le tre clausole del software CORELS, in grado di prevedere se l’imputato sarà arrestato nei prossimi due anni con un’accuratezza del 65%, la stessa dell’I.A. COMPAS acquistata dal governo americano, che calcola innumerevoli combinatorie su 137 parametri.

L’autorità di Kahnemann ha squalificato le euristiche equiparandole al «pensiero veloce», che tende ad affrettarsi verso soluzioni inquinate da errori e pregiudizi, pur di trovare un criterio per la condotta nell’immediatezza della situazione. Gigerenzer invece consacra il repertorio delle nostre regole pratiche come una «cassetta degli attrezzi» che ha superato la selezione dell’ambiente in cui viviamo, ed è quindi adeguata alla razionalità dei compiti che ci attendono. Una delle sue missioni più importanti è cementare la stabilità del mondo, che le intelligenze artificiali faticano a evincere tra i molti pattern di relazioni che si allacciano nei dati con cui si svolge il loro training. Le reti neurali peraltro amano nascondersi, come la natura di Eraclito, e dopo poche generazioni di addestramento diventa impossibile anche ai loro sviluppatori comprendere quali siano i segnali intercettati ed elaborati: si può scoprire solo con test empirici sugli output se il software ha imparato a riconoscere i tank russi, o se li distingue da quelli americani  perché nel dataset delle foto per caso il cielo sullo sfondo dei mezzi corazzati slavi è sempre nuvoloso mentre è soleggiato negli scatti USA. Ancora più difficile è spiegare perché l’introduzione di pochi pixel colorati converta la percezione di uno scuolabus in quella di uno struzzo. Se il mondo deve essere noiosamente stabile, anche per il bene dei bambini che viaggiano sugli scuolabus, almeno che la noia sia quella dei nostri pregiudizi, e non quella di un mondo possibile sorteggiato a caso.

 

Bibliografia

Angelino, E., Larus-Stone, N., Alabi, D., Seltzer, M., Rudin, C., Learning certifiably optimal rule lists for categorical data, «Journal of Machine Learning Research», n. 18, 2018, pp. 1-78.

Gigerenzer, Gerd, How to Stay Smart in a Smart World Why Human Intelligence Still Beats Algorithms, Penguin, New York 2022.

Kahnemann, Daniel, Thinking, Fast and Slow, Farrar, Straus and Giroux, New York 2011

Autore

  • Paolo Bottazzini

    laureato in filosofia, si occupa di media digitali dal 1999: è co-fondatore di Pquod e SocialGraph, società specializzate nella comunicazione web e nell’analisi di dati. Parallelamente ha svolto attività di docenza sui temi della comunicazione digitale per il Politecnico di Milano, per il Corep presso il Politecnico di Torino, per il Dipartimento di Filosofia dell’Università degli Studi di Milano. Descrive i modelli cognitivi emergenti dai nuovi media nella monografia pubblicata nel 2010: Googlecrazia. Dal febbraio 2011 testimonia la loro evoluzione negli articoli pubblicati sulle testate Linkiesta, pagina99, Gli Stati Generali.