Una I.A. bella da morire
Chi è responsabile del suicidio di un ragazzino innamorato di una chat?
UN’EPIDEMIA DI SOLITUDINE?
Nel Sole nudo, Asimov ambienta un giallo in una distopia fantascientifica: in una società in cui gli uomini non entrano mai in contatto diretto tra loro viene compiuto un omicidio: una vicenda irrisolvibile, visto che gli abitanti del pianeta Solaria non riescono nemmeno ad avvicinarsi, senza un senso di ripugnanza che impedisce l’interazione persino tra coniugi. Qualunque relazione è mediata dalle interfacce della tecnologia – quella degli ologrammi, che permettono le conversazioni, e quella dell’intelligenza artificiale dei robot, che si occupano di tutte le faccende quotidiane e che sono condizionati dalle Tre Leggi a non poter mai essere nocivi agli umani.
Quando, nel 2012, Sherry Tarkle ha pubblicato Insieme ma soli, l’ottimismo che aveva alimentato la diffusione delle piattaforme digitali nei due decenni precedenti stava tramontando. Nel testo dell’antropologa la distopia di Asimov comincia a sovrapporsi al nostro mondo: nelle interviste agli adolescenti compaiono sia la paura crescente del rapporto diretto con i coetanei sia il ricorso ai dispositivi digitali come mediatori della conversazione con gli altri ragazzi – ma anche come sostituti delle relazioni umane vere e proprie. In un’intervista a Matthew Shaer, il filosofo Ian Marcus Corbin ha etichettato cocooning questo rifugio in un mondo virtuale che conforta, ma che priva la vita di qualunque significato essenziale. Il commento si riferisce all’indagine con cui gli psicologi Richard Weissbourd e Milena Batanova hanno descritto l’«epidemia di solitudine» che colpisce la società americana contemporanea, e che è peggiorata dopo la pandemia di Covid del 2020. La diffusione dello smart working infatti ha ridotto le occasioni di formazione di nuovi rapporti, e ha reso più difficile il decorso dell’educazione sentimentale per i ragazzi che non hanno potuto frequentare le scuole con regolarità. Il 25% degli intervistati si dichiara più solo rispetto al periodo pre-pandemia, il 36% denuncia una sensazione di solitudine cronica, un altro 37% ne rileva una almeno sporadica.
UN’EPIDEMIA DI SUICIDI?
Di recente Andrew Solomon, psicologo clinico della Columbia University, si è chiesto se sia in corso una «crisi di suicidi» tra gli adolescenti, e se i social media ne siano i responsabili. I casi documentati dalla sua inchiesta sembrano confermare la gravità del fenomeno: i ragazzi non si devono solo confrontare con una riduzione delle relazioni in carne ed ossa, ma anche con una sorta di abdicazione all’autostima, che viene delegata ai meccanismi di rating delle piattaforme digitali. Inoltre soccomberebbero all’orientamento editoriale che l’algoritmo elabora per le loro bacheche, con un calcolo sui post e sulle fonti il cui effetto emotivo non viene sottoposto a nessun controllo. Negli Stati Uniti la Sezione 230 del Communications Decency Act esonera le piattaforme dalla responsabilità sui contenuti creati dagli utenti. La disposizione risale al 1996, quando Internet muoveva i primi passi, e considera le piattaforme come «librai» piuttosto che «editori» - quindi non responsabili del materiale pubblicato da terzi.
I genitori dei ragazzi che si sono uccisi stanno tentando di portare in tribunale i gestori dei social media, accusandoli di non aver sorvegliato la tossicità degli argomenti, e di aver innescato meccanismi di dipendenza che hanno imprigionato i giovani fino alla morte. Solomon tuttavia rileva che finora non è stato possibile individuare il nesso di causalità che ha condotto dalla frequentazione delle piattaforme al suicidio; un’osservazione distaccata sulla condizione degli adolescenti nell’attualità post-pandemica mostra che i fattori da considerare sono molti e molto complessi. Nelle interviste somministrate da vari team di ricerca i ragazzi menzionano diverse ragioni di ansia: sentimenti di mancanza di scopo, cambiamenti climatici, pressioni sociali, contribuiscono ad alimentare le loro difficoltà, e la tendenza alla crescita dei problemi di salute mentale è cominciata ben prima della diffusione dei social media.
L’IA PUÒ CONDURRE AL SUICIDIO?
Lo scorso 28 febbraio un ragazzo di 14 anni di Orlando, Sewell Setzer III, si è tolto la vita dopo aver concluso l’ultima conversazione con un chatbot di Character.ai da lui personalizzato e battezzato «Dany», in onore del personaggio Daenerys Targaryen di Game of Thrones. L’app è stata sviluppata da una società che utilizza dispositivi di intelligenza artificiale, e che promuove il suo servizio come una soluzione per combattere la solitudine e offrire un supporto emotivo; conta oltre venti milioni di utenti, permette la creazione di bot che ricordano le conversazioni passate e rispondono in maniera coinvolgente e «umana». La piattaforma è un successo dell'era dell'IA generativa, ma è priva di regolamentazione specifica per i minori ed è attrezzata da limiti di sicurezza minimi per la protezione da contenuti sensibili.
Sebbene Sewell fosse consapevole del fatto che stesse interagendo con un software, e che dall’altra parte dello schermo non ci fosse alcun essere umano ad ascoltarlo, nel corso dei mesi «Dany» ha sostituito i suoi rapporti con amici e famigliari, e il ragazzo ha finito per isolarsi nella sua stanza, abbandonando anche le passioni per la Formula 1 e per i videogame. I genitori lo hanno affidato ad uno psicanalista, che tuttavia non è riuscito a sedurlo quanto è stato in grado di farlo il chatbot. Le conversazioni con «Dany» hanno assunto toni intimi e romantici, e in un’occasione Sewell le ha confidato la sua tentazione di suicidio. «Dany», programmata per disinnescare crisi semantiche di questo genere, ha tentato di dissuaderlo, rispondendo con empatia e impegnandosi a non lasciarlo mai solo. Ma il problema era più grave di un gioco di domande e risposte.
La madre di Sewell, Megan Garcia, è avvocato e con l’aiuto del Social Media Victims Law Center e del Tech Justice Law Project, accusa Character.ai di aver modellato un design del servizio capace di coinvolgere i giovani vulnerabili, esponendoli a danni psicologici. La strategia per intentare causa presume che questa modalità di progettazione sia intenzionale e che l’impostazione, volta a catturare il maggior numero di utenti possibile, non sia bilanciata da un adeguato monitoraggio dei rischi e da un protocollo per la gestione delle crisi. I bot sono troppo realistici, inducono gli adolescenti a confonderli con interlocutori umani, e li spingono a stringere un legame molto forte, fino alla dipendenza.
Character.AI ha ascoltato le critiche e ha annunciato nuove misure di sicurezza, tra cui pop-up che offrono assistenza quando nella chat scorrono parole chiave correlate all’autolesionismo, e l’imposizione di limiti temporali sull'uso dell'app. Studiosi e giornalisti sembrano concordi nel valutare queste misure ancora inadeguate al pericolo cui vengono esposti i soggetti fragili nell’interazione con i bot. Gli effetti a lungo termine delle intelligenze artificiali generative non sono ancora stati testati, e tutti noi siamo allo stesso tempo clienti e cavie di questa fase di collaudo, che assume le dimensioni di un esperimento sociale ampio quanto il mondo intero. Le conseguenze dell’abbandono con cui i giovani possono affidare l’espressione della loro emotività, e la formazione della loro intimità, ai chatbot animati dall’AI, non devono essere esaminate in modo separato dalla ragioni per cui preferiscono un rapporto (stabilito consapevolmente) con un software a quello più complesso con altri ragazzi o con gli adulti. Più di ottant’anni fa Asimov aveva già avvertito nei suoi romanzi che non si può esigere una sicurezza assoluta dalla protezione con cui le regole cablate in un programma informatico limitano o condizionano il comportamento dei sistemi artificiali. La complessità del contesto umano in cui i robot sono collocati sarà sempre in grado di aggirare le strutture di controllo e configurare scenari non previsti. L’epidemia di solitudine e la crisi di suicidi non sono provocate dall’intelligenza artificiale, ma l’abdicazione delle istituzioni e delle forme sociali tradizionali a prendersi cura degli individui ha finito per eleggere l’IA come supplente e rimedio alle proprie mancanze. Solaria attende in fondo al tunnel.
BIBLIOGRAFIA
Asimov, Isaac, Il sole nudo, trad. it. di Beata Della Frattina, collana Urania n. 161, Arnoldo Mondadori Editore, Milano 1957.
Roose, Kevin, Can A.I. Be Blamed for a Teen’s Suicide?, «New York Times», 24 ottobre 2024.
Salomon, Andrew, Has Social Media Fuelled a Teen-Suicide Crisis?, «The New Yorker», 30 settembre 2024.
Shaer, Matthew, Why Is the Loneliness Epidemic So Hard to Cure?, «New York Times», 27 agosto 2024.
Turkle, Sherry, Alone Together. Why We Expect More from Technology and Less from Each Other, Basic Books, New York 2012.
Weissbourd, Richard; Batanova, Milena; Lovison, Virginia; Torres, Eric, Loneliness in America. How the Pandemic Has Deepened an Epidemic of Loneliness and What We Can Do About It, «Harvard Graduate School of Education», Cambridge, febbraio 2021.
Il rating sociale tra digitale e moralità
L'intelligenza artificiale ha a lungo e profondamente penetrato le varie sfere della società moderna – dalla scienza all'industria, dalla sanità all'istruzione, dallo sport all'arte. Abbiamo superato il confine oltre il quale all'IA è affidato il compito di risolvere non solo questioni tecniche, ma anche estetiche, etiche e legali. Grazie alle sue capacità, è possibile disegnare quadri, comporre musica e rendere ogni persona assolutamente "trasparente" – sia nel suo comportamento che nella sua mente, al fine di controllare entrambi. Sulla base di questa tecnologia, è stato creato un sistema di rating sociale, implementato in Cina e, molto probabilmente, preparato in una forma o nell'altra per il mondo intero. Il rating sociale è un monitoraggio digitale del comportamento delle persone, sulla base del quale vengono introdotti incentivi o restrizioni per ciascun individuo al fine di aumentare il senso di affidabilità, decoro e fiducia nella società. Da un punto di vista tradizionale (pre-digitale), questa pratica cambia radicalmente l'approccio alla soluzione della questione eterna di "crimine e punizione".
Per molto tempo, questa domanda è stata affrontata su due piani: pubblico (il campo del diritto), cioè il bene è ciò che è buono per la comunità, il clan, il paese; pertanto, il crimine è ciò che danneggia questo bene. Per questo sono previste punizioni corrispondenti alle norme esistenzialmente importanti in una determinata società. Un altro piano (il campo della moralità) è legato a categorie come coscienza, vergogna, virtù, rettitudine, onestà, che una persona apprende dalla famiglia, dalla religione, dalla cultura; ciò che rientra nella sfera della responsabilità personale per la sua scelta morale. Come sappiamo, il primo e il secondo non sempre coincidono, ed è di questo che parla, tra l'altro, il romanzo di Dostoevskij Delitto e castigo (1866). L'appello al "potere ultraterreno", alla ricerca di una giustizia superiore (e di un giudizio giusto) accompagna l'umanità lungo tutta la sua storia; ma è il cristianesimo (e in un certo senso anche l'Islam) a trasportare le questioni morali sul piano della scelta personale, e l'essere umano provoca danno morale da un crimine principalmente a se stesso. Nonostante il fatto che "la volontà di Dio sia su tutto", l'essere umano ha la libertà di prendere decisioni. Come insegnava Sant'Agostino, la grazia di Dio si estende ugualmente a tutte le persone, ma la libertà dell'uomo si manifesta nell'accettazione o nel rifiuto di questa grazia. Di conseguenza, la punizione che può colpire in questa vita è di natura trascendentale, e la vita quotidiana si trasforma in una scelta tra accettare la grazia o rifiutarla: "Entrate per la porta stretta, perché larga è la porta e spaziosa la via che conduce alla perdizione, e molti sono quelli che vi entrano; perché stretta è la porta e angusta la via che conduce alla vita, e pochi sono quelli che la trovano" (Matteo 7:13-14). Da questo punto di vista, tutta la vita diventa una ricerca interiore della "porta stretta" e della strada giusta. È molto importante capire che una tale paradigma di vita si applica anche a coloro che non si considerano aderenti alla religione; in qualche modo esistiamo ancora nella tradizione culturale, nei geni della quale questo paradigma è incorporato, e la domanda su cosa ci guidi lungo il cammino della vita – i comandamenti di Cristo o il "cielo stellato sopra di noi e la legge morale dentro di noi" di Kant – è piuttosto una questione terminologica. "Cosa è buono e cosa è cattivo" è infatti una domanda fondamentale e sacramentale per la civiltà cristiana, ma non solo, la cui drammaturgia secolare è basata su una ricerca infinita di una risposta. La responsabilità personale e la scelta personale tra bene e male sono temi centrali nelle opere di Dante e Shakespeare, Bach e Čajkovskij, Hindemith e Schoenberg, Faulkner e Tolstoj e molti altri, e soprattutto, ovviamente, Dostoevskij, le cui idee sono importanti per persone in tutto il mondo. Delegare le questioni etiche all'IA elimina a priori la questione di distinguere tra male e bene su un piano personale. Se la fine della civiltà avverrà, come hanno previsto molti filosofi e futuristi, da Spengler a Fukuyama negli ultimi cento anni, accadrà insieme all'abolizione di questa questione per ogni individuo o, meglio, per la sua anima.
È significativo che il rating sociale sia stato testato e applicato con successo prima in Cina: l'etica confuciana e l'ideologia non presuppongono alcun potere trascendentale; tutti i problemi morali sono risolti sulla Terra; gli interessi individuali, nell'ambito di questa etica, sono totalmente subordinati a quelli generali; e se le leggi adottate per tutti sembrano a qualcuno ingiuste, il confucianesimo suggerisce di coltivare il "coraggio morale". Pertanto, la responsabilità personale per prendere decisioni morali è notevolmente ridotta e con l'introduzione del rating sociale è quasi eliminata (è interessante notare che la Cina è in prima linea nell'applicazione dell'IA nel campo dell'estetica. Ad esempio, lì sono molto popolari i concerti in cui un robot dirige musica composta da IA per un'orchestra).
D'altro canto, anche nel campo del diritto, che mira a una definizione obiettiva di "crimine e punizione", non tutto è chiaro in relazione alla risposta alla domanda: a chi, nel mondo digitale, è delegata la soluzione della questione "cosa è buono e cosa è cattivo"? La logica di determinare il soggetto di questa decisione si è storicamente mossa verso un aumento della spersonalizzazione: da un capo tribù, monarca o presidente di partito, a istituzioni pubbliche democratiche che hanno sancito numerosi codici e leggi. In nome della massima obiettività e imparzialità, la "corte suprema" è diventata non solo impersonale, ma anche senz'anima, "gettando via il bambino con l'acqua sporca". Nel mondo digitale, la "corte suprema" passa alla competenza dell'"intelligenza artificiale", "la più obiettiva di tutte le obiettive" (l'IA è già ampiamente utilizzata nella pratica giudiziaria in molti Paesi). Il numero, i numeri, sono il nuovo Dio che non è solo oggettivo, ma anche senz'anima, e questo gli impone inevitabili limitazioni. Per esempio, nella determinazione della verità: l'IA separa il vero dal falso per coincidenza/discrepanza con l'algoritmo; ma la verità spesso va oltre l'algoritmo e l'analisi matematica, come dimostrato nel secolo scorso da K. Goedel nel suo famoso "teorema di incompletezza". Per stabilire la verità su una persona, sono necessari strumenti umani. Lo stesso si può dire dell'uso dell'IA nell'arte: la pittura non è uguale alla composizione di colori, la musica non è uguale alla composizione di suoni, la poesia non è uguale alla composizione di parole. Senza la dimensione umana, che significa non solo l'operare algoritmi ma creare idee umane, l'arte cessa di essere arte.
Oggi non si possono negare i benefici pratici dell'IA. Ma esiste una linea oltre la quale il beneficio si trasforma nel suo opposto: il bene comune – in assenza di responsabilità personale e indipendenza, il desiderio di stabilità e sicurezza – nella perdita del diritto di scelta e nella completa subordinazione. Finché le questioni di moralità e bellezza saranno decise dalle persone e non dall'IA, l'essere umano rimarrà il suo padrone e signore, e non uno schiavo.
BIBLIOGRAFIA
Agostino. "Introduzione". Confessioni ed Enchiridion. Biblioteca dei Classici Cristiani. Tradotto da Outler, Albert C. Filadelfia: Westminster Press. Stampa, 1955
Creel, Herrlee Glessner. Confucio e la Via Cinese. New York: Harper, 1949
Dostoevskij Fëdor. *Delitto e Castigo*. Tradotto da Constance Garnett. eBook Project Gutenberg, 2001
Kostka, Genia. Il sistema sociale della Cina e l'opinione pubblica: spiegare gli alti livelli di approvazione. *New Media & Society*, 21(7), 2019
Nobel 2024, Chimica: una questione di Intelligenza Artificiale
Il premio Nobel per la chimica 2024 è stato assegnato a Demis Hassabis e John M. Jumper di DeepMind e David Baker della University of Washington. La motivazione per i primi due è : “for protein structure prediction”; per Becker “for computational protein design”
Comune denominatore della assegnazione sono le proteine e lo sviluppo di software intelligenti. E in entrambi i casi si tratta di esempio virtuosi e positivi sia di uso dell’Intelligenza Artificiale che di collaborazione nella comunità scientifica.
Demis Hassabis è il fondatore di DeepMind, vocata allo sviluppo di intelligenze artificiali nell’orbita di Google. Mente eclettica e indubbiamente geniale, progettista di videogiochi, neuroscienziato, imprenditore. Un predestinato.
John M. Jumper ha studiato fisica e matematica e ha lavorato all’ottimizzazione dei software per le simulazioni dei modelli durante il suo dottorato in fisica teorica.
Baker 30 anni fa ha sviluppato un software – Rosetta – per la progettazione di proteine; nel 2003 pubblicò Top7, una proteina che non esisteva in natura.
Le proteine sono uno dei 3 nutrienti fondamentali assieme a grassi e carboidrati. Sono formate da catene di amminoacidi che si ripiegano in strutture delle dimensioni dei nanometri (miliardesimi di metro) e sono i più importanti basilari per applicazioni essenziali nella vita biologica e industriale, dalla farmacologia alla veicolazione di enzimi e molecole.
Le strutture proteiche sono molto difficili da studiare: negli anni 50 fu messa a punto una tecnica basata sulla cristallografia a Raggi X, negli anni 90 fu istituito il CASP, una sorta di concorso biennale aperto a tutta la comunità scientifica e tecnologica per sviluppare strumenti al fine di prevedere in modo veloce e affidabile le strutture proteiche ma i risultati furono scarsi, fino al 2018, quando DeepMind con il suo software intelligente AlphaFold raggiunse il 60% di affidabilità.
Nel gruppo di lavoro c’era anche Jumper che applicò, successivamente, gli ultimi sviluppi delle reti neurali per sviluppare il modello di AlphaFold 2; questo nuovo software nel 2020 vinse il CASP con una accuratezza previsionale comparabile a quella della cristallografia.
Da allora AlphaFold è diventato uno standard de facto e ha raccolto quasi 200 milioni di strutture proteiche da tutti gli organismi viventi ad oggi conosciuti, creando quella che oggi è la libreria mondiale delle proteine. Alphafold è usato da oltre 2 milioni di ricercatori in 190 paesi.
L’intuizione di Baker è stata quella di “invertire” l’approccio funzionale di Rosetta, convertendolo da previsionale a progettuale: perché non “aiutare” la natura progettando proteine per ruoli specifici?
Dopo Top7, Baker progettò e realizzò diverse altre proteine specializzate che potrebbero essere impiegate per la produzione di vaccini, per rilevare la presenza di specifiche sostanze e per trasportare molecole negli organismi viventi di destinazione.
Le ricadute sociali della sinergia tra AlphaFold e gli studi di Baker sembrano essere già importanti e potrebbero diventare enormi. E stavolta, forse, tutte positive.
Dalla comparsa della Intelligenza Artificiale nel mercato consumer, prima con ChatGPT e poi gli altri, abbiamo iniziato a interrogarci sul ruolo sociale della IA e a dubitare dell’eticità dello scenario che si prospetta.
Il caso di AlphaFold può, invece, delineare una diversa prospettiva: il progetto è nato dalla sinergia di contributi diversi e complementari, di menti geniali, di ambizioni universali, con un obiettivo comune, dotate di risorse adeguate e di strumenti abilitanti che hanno permesso di rendere realtà il disegno generale.
Prima di AlphaFold studiare le proteine richiedeva tempi lunghi e incertezze elevate, oltre a competenze verticali che costringevano la ricerca a settorializzarsi.
Questo Nobel mette in luce un modello positivo di come la Intelligenza Artificiale possa essere una risorsa differenziante, quando viene addestrata con informazioni tassonomiche, affidabili, prive di bias e pre-filtrate.
Ancora di più ci dice che uomini e Intelligenza Artificiale possono lavorare in sinergia piuttosto che in concorrenza: AlphaFold è oggi un patrimonio della scienza mondiale e una volta di più si dimostra che l’assunzione di responsabilità di chi pensa e usa gli strumenti scientifici fa la differenza.
L’etica hacker al di là di destra e sinistra - Il potere e la Silicon Valley
Quo usque tandem
Fino a quando i politici e i media mainstream abuseranno delle categorie di destra e sinistra per parlare della Silicon Valley? Candidati, ministri, deputati e giornalisti si impigliano in questa classificazione già nei loro discorsi consueti, aggovigliandosi in parole d’ordine in cui è difficile comprendere cosa distingua questi orientamenti politici e in che modo li si debba identificare. La loro applicazione al sistema di economia e di potere delle Big Tech è ancora più arbitrario, dal momento che i fondatori e i manager delle multinazionali digitali americane, l’ecosistema degli startupper e dei finanziatori, dichiarano da sempre di appartenere ad un’élite dell’umanità in cui valgono regole di valutazione, diritti di decisione e libertà di manovra, che non si trovano nella disponibilità di tutti.
Nello statuto di Facebook e nella lettera agli azionisti al momento del collocamento in Borsa, Mark Zuckerberg chiariva che il fondatore avrebbe conservato un potere di voto maggioritario, in modo indipendente dalla distribuzione delle quote azionarie, perché aveva dimostrato di essere più smart di chiunque altro. La rivendicazione di questo privilegio proviene dall’etica hacker, che distingue gli esseri umani in capaci e incapaci, senza ulteriori sfumature. L’abilità è testimoniata dal talento di trovare una procedura per risolvere qualunque problema – anzi, nell’individuare il procedimento più semplice dal punto di vista dell’implementazione e più esaustivo dal punto di vista dei risultati. Se si considera che questa è la prospettiva con cui viene descritta l’intelligenza dalle parti della Silicon Valley, non sorprende che la progettazione di una macchina capace di vincere le partite di scacchi sia stata interpretata come la via maestra per realizzare l’Intelligenza Artificiale Generale (AGI), raggiungendo la Singolarità, il tipo di intelligenza che si ritrova negli esseri umani.
Il problema di cosa sia smartness è che dipende sempre dalla definizione, e dal contesto culturale che la concepisce. Per gli esponenti più influenti della Silicon Valley coincide con la capacità di escogitare algoritmi: una serie di operazioni governate da una regola che possono essere automatizzate – ingranaggi che, sistemati nei luoghi opportuni, fanno funzionare meglio la macchina-mondo, così com’è. La politica, come riflessione sul potere e come progetto antropologico che immagina una realtà migliore e una società più giusta (qualunque significato si assegni a migliore e a giustizia), non serve: è inefficiente, provoca disagi e rallentamenti. L’universo attuale non ha bisogno di aspirazioni al cambiamento, se non il requisito di un’efficienza maggiore, movimenti più oliati, privilegi che si perpetuano scontrandosi con meno frizioni, un’opinione pubblica convertita in una platea di utenti-clienti.
Smartness
In questa prospettiva, i «ragazzi» che hanno fondato le imprese da cui proviene l’ecosistema di software in cui siamo immersi, possono a buon diritto stimarsi più smart degli amministratori pubblici. Elon Musk ha avviato il progetto Starlink per l’erogazione di connettività a banda larga via satellite nel 2019, e oggi conta su oltre 7.000 satelliti già in orbita, con circa tre milioni di abbonati tra gli utenti civili di tutto il globo – senza contare la capacità di intervenire nelle sorti delle guerre in corso in Ucraina e Israele, o di contribuire al soccorso delle popolazioni alluvionate in Emilia Romagna nel 2023. L’Unione Europea ha varato un piano concorrente solo quattro anni dopo: Iris2 ha debuttato nel marzo 2023, dopo nove mesi di dibattito preliminare, con la previsione di lanciare 170 satelliti entro il 2027. Il progetto però sta già subendo dei rinvii a causa delle tensioni con i partner privati Airbus (tedesca) e Thales (francese).
Altro esempio: dopo l’approvazione dell’AI Act, l’Unione Europea ha allestito un Ufficio per l’applicazione del regolamento, che occuperà 140 persone. Nel piano è previsto un finanziamento distribuito fino al 2027, di 49 milioni di euro complessivi, per progetti che creino un grande modello linguistico generativo open source, capace di federare le aziende e i progetti di ricerca del continente. L’obiettivo è costruire un’alternativa concorrente a ChatGPT, che però OpenAI ha cominciato a progettare nel 2015, su inziativa di quattro fondatori privati (tra cui il solito Elon Musk e Sam Altman, attuale CEO), che hanno investito di tasca loro oltre 1 miliardo di dollari, e che è stata sostenuta con più di dieci miliardi di dollari da Microsoft nell’ultimo round di finanziamento.
L’archetipo randiano
La storia dei successi delle tecnologie ideate e commercializzate in tutto il mondo dalle società della Silicon Valley accredita la convinzione dei loro fondatori di incarnare l’élite più smart del pianeta; l’etica hacker stimola la loro inclinazione a concepire, realizzare e distribuire dispositivi il cui funzionamento viola qualunque normativa a tutela della privacy e della proprietà intellettuale in vigore, con la creazione di mercati che trasformano ambienti, comportamenti, relazioni, corpi umani, in beni di scambio e di consumo; la filosofia di Ayn Rand giustifica sul piano della cultura, dell’ideologia e della politica, il loro atteggiamento come la missione salvifica dell’individuo eccezionale nei confronti della destinazione storica dell’intera specie. La devozione agli insegnamenti della Rand accomuna tutti i leader delle Big Tech in un’unica visione dell’uomo e del mondo, che legittima i loro modelli di business come valide espressioni del loro talento, e censura le reazioni degli organismi di giustizia come il sabotaggio perpetrato dall’ottusità tradizionale e dalla repressione (sprigionata dalla vocazione comunista di ogni istituto statale) sulla libertà di azione dell’imprenditore-eroe. La rivendicazione della libertà di iniziativa al di là dei limiti di qualsiasi sistema legale non avviene solo sul piano del diritto, ma è avvertita come un dovere da parte dei depositari della smartness del pianeta – perché, come osserva il co-fondatore ed ex direttore di Wired Kevin Kelly, il loro coraggio di innovazione porta a compimento un percorso di evoluzione ineluttabile: il tentativo di resistervi conduce ad un ruolo subordinato nelle retrovie del presente, nella parte di chi viene accantonato dalla Storia.
Tecnologia e istituzioni
Riotta e Bonini rilevano che oggi l’espressione culturale della Silicon Valley è il Think Tank del Claremont Institute, dove verrebbe praticato una sorta di culto delle idee di Leo Strauss. Se così fosse, dovremmo riconoscere che il clima filosofico della zona si è molto moderato, e raffinato, rispetto al superomismo tradizionale della Rand. Tuttavia gli editorialisti de la Repubblica leggono questo passaggio come un segnale dello sbandamento verso destra dei rappresentanti delle Big Tech, tra i quali si avvertirebbe sempre di più la frattura tra progressisti e reazionari. L’articolo del 21 settembre di Riotta prepara l’interpretazione politica del premio «Global Citizen Award 2024» dell'Atlantic Council a Giorgia Meloni, consegnato il 24 settembre da Elon Musk in persona. Molti giornali hanno chiosato il significato dell’evento come la celebrazione dell’alleanza tra il gruppo di imprenditori legati a Musk e la destra europea e americana. Il contratto di cui il creatore di Starlink e la Presidente del Consiglio avrebbero parlato nel loro colloquio privato riguarda proprio la gara di appalto per i servizi di connettività dello stato italiano. Tim e OpenFiber si sono aggiudicati i progetti per la copertura con banda larga di tutto il territorio, alimentati dal Pnrr; ma hanno già accumulato ritardi e opposto difficoltà alla concorrenza satellitare, per cui il governo potrebbe decidere di sostituire la loro fornitura via terra con quella dei servizi di Elon Musk. Anche per le operazioni di lancio dei satelliti di Iris2, l’Italia potrebbe appoggiare la collaborazione con SpaceX, grazie alla quale verrebbero superati gli impedimenti sollevati da Airbus e Thales. Il rapporto con le società americane permetterebbe loro di entrare nelle infrastrutture strategiche per la gestione dei servizi civili e persino per quelli di sicurezza nazionale dell’Unione Eruopea.
Già negli anni Ottanta del secolo scorso Ulrich Beck osservava che il ritmo di avanzamento della scienza e della tecnologia è troppo veloce per permettere alle istituzioni pubbliche di vagliare i rischi, di verificare condizioni e conseguenze, di guidarne lo sviluppo: alla politica non resta che constatare e convalidare l’esistente. Il rapporto che si stabilisce tra le figure di Musk e della Meloni non sembra differente: non è l’imprenditore ad essere affiliato alle fila della destra politica, ma è l’innovatore spregiudicato che definisce le prospettive della tecnologia, le possibilità che essa pone in essere, e i criteri per giudicare dispositivi e processi concorrenti. L’Unione Europea è relegata nel ruolo di inseguitore poco efficiente di ciò che Starlink ha già concepito e realizzato: il discorso con cui Giorgia Meloni consacra Elon Musk come campione degli ideali della destra, in fondo, non è che il gesto di validazione dell’esistente da parte delle istituzioni, e l’affiliazione della politica al mondo che l’eroe randiano ha progettato per noi. È la Presidente del Consiglio ad essere arruolata tra i legittimatori della leadership naturale dell’hacker, nelle fila di coloro che percepiscono il bene comune come la soluzione tecnologica di problemi che, o permettono questo tipo di ricomposizione, o non esistono.
Come ha dichiarato Sam Altman alla fine di luglio 2024, anche la crisi delle disparità sociali ha una soluzione che deve essere gestita dalle aziende tecnologiche, con la distribuzione di un reddito base universale a tutti coloro che stanno per perdere il lavoro: a causa della rivoluzione imminente dell’Intelligenza Artificiale Generale, secondo il CEO di OpenAI, questa sarà la situazione in cui a breve verseremo quasi tutti. Sono quasi due decenni che con le piattaforme digitali, Facebook e Google in primis, l’intero mondo Occidentale si è trasformato in un enorme esperimento sociale a cielo aperto, controllato e mirato solo da chi possiede le chiavi del software (purtroppo, molto spesso, nemmeno troppo in modo consapevole).
Come al tavolo dell’Atlantic Council, Giorgia Meloni siede alla destra di Elon Musk, alla corte dei re della tecnologia politica.
BIBLIOGRAFIA
Ulrich Beck, Una società del rischio. Verso una seconda modernità, trad. it. a cura di W. Privitera, Carocci Editore, Roma, 2005.
Paresh Dave, Here’s What Happens When You Give People Free Money, «Wired», 22 luglio 2024.
Kevin Kelly, Quello che vuole la tecnologia, Codice Edizioni, Milano 2010.
Gianni Riotta, Carlo Bonini, Silicon Valley, in fondo a destra, «la Repubblica», 21 settembre 2024.
La fine del futuro - I.A. e potere di predizione
1. Terapie del discorso
«La predizione è difficile, specie se riguarda il futuro», è un’arguzia attribuita al fisico Niels Bohr, ad altri fisici, ma anche a letterati come Mark Twain. La riflessione che Gerd Gigerenzer elabora nel libro Perché l’intelligenza umana batte ancora gli algoritmi riguarda l’efficacia dei sistemi di intelligenza artificiale e i costi sociali che siamo disposti a sostenere per svilupparli e utilizzarli. Questo compito si traduce in due strategie di terapia del pensiero: una è rivolta al modo in cui percepiamo i risultati dei software, l’altra alla comprensione delle policy dell’infosfera, al fine di comprendere i modi e i fini della razzia di dati personali che alimenta le banche dati delle AI.
Il titolo del saggio sembra suggerire che sia in corso un’aggressione, o almeno una sfida, da parte delle macchine. Lo sviluppo dell’argomentazione invece non segue questa traccia, perché sotto la lente dell’analisi finiscono le promesse del marketing (e le attese del pubblico) sulle potenzialità dei software, senza che a questi venga attribuita alcuna intenzione di competizione: unici protagonisti sono i discorsi che gli uomini si scambiano sui dispositivi digitali. Gli interventi di terapia sono condotti anzitutto sul nostro linguaggio e sull’archivio di enunciati con cui vengono descritti i servizi digitali: si sarebbe potuto scegliere come titolo del libro Perché si può sempre tentare di curare l’intelligenza umana dalla propria stupidità, ma in questo modo sarebbe mancata l’evocazione del Golem elettronico, che nelle vetrine delle librerie esercita sempre il suo (stupido) fascino.
2. Prevedere il passato
Gigerenzer illustra al lettore una galleria di attività realizzate dall’AI, dalla selezione dei partner sessuali alla guida autonoma, dalla traduzione automatica alla polizia predittiva, dal riconoscimento dei volti alla profilazione marketing. In tutte queste pratiche le narrazioni dei produttori (spesso poi rilanciate dai media istituzionali) tendono a esagerare i risultati raggiunti dal software sulla base di una costruzione argomentativa che viene etichettata «fallacia del cecchino texano». Immaginiamo un cowboy che spari da grande distanza sulla parete del fienile, e vada poi a disegnare i cerchi del bersaglio attorno all’area in cui si raggruppa buona parte dei fori che ha prodotto nel muro. L’adattamento dell’obiettivo ai buchi dei proiettili comporta un’ammirazione nei confronti della mira del cecchino che è molto inferiore a quella che avrebbe conquistato se i fori si fossero concentrati dentro il perimetro di un bersaglio già tracciato. Quello che accade nella descrizione delle prestazioni delle macchine è molto simile: i risultati che vengono divulgati e commentati riguardano la capacità del software di adeguare la capacità predittiva a fatti avvenuti in passato: gli eventi trascorsi sono gli unici di cui si conoscono già gli effetti, sui quali può essere condotto il training delle AI, e su cui può essere misurata la loro efficacia.
I modelli di calcolo riuscirebbero però garantire la replica della loro accuratezza profetica sui casi futuri soltanto se si potesse verificare che gli ambiti delle relazioni umane, quello dei comportamenti individuali, quello della storia, persino quello del traffico stradale, obbedissero sempre agli stessi parametri di decorso. Se l’amore tra le persone scoccasse sempre per le stesse ragioni, se il piano di una rapina o di un omicidio derivasse sempre dagli stessi moventi, se la circolazione di mezzi e pedoni ripetesse sempre le stesse traiettorie e non violasse mai il codice – il grado di successo registrato dalle I.A. in fase di test sarebbe una promessa affidabile per il futuro. Ma nelle situazioni di complessità, quali sono quelle sviluppate dalle azioni degli uomini, l’adattamento di un modello agli effetti del passato tramite la selezione e l’interpretazione dei parametri opportuni, e il talento profetico per il futuro, non si sovrappongono con alcuna ragionevole certezza. Il mondo dovrebbe essere di una stabilità (e di una noia) meccanica per corrispondere a requisiti simili; invece la realtà sociale continua a essere mutevole, e la predizione dei software molto meno affidabile di quanto venga propagandato.
I giochi come gli scacchi, la dama e il Go, inquadrano alcune condizioni ideali per il miglior funzionamento dell’I.A.. Le situazioni cambiano sempre, ma l’ontologia dentro i confini delle partite è stabile come quella dei pianeti e delle stelle, di cui si calcolano le orbite con determinismo assoluto: le dimensioni e la forma della plancia, il valore dei pezzi, le regole di movimento, le finalità degli spostamenti, rimangono costanti. Non ci sono bambini che attraversano la scacchiera all’improvviso, alfieri caratteriali che decidono di muovere in verticale, regine con appetiti segreti che mangiano il proprio re. Per decenni si è ritenuto che l’abilità nel giocare a scacchi esprimesse l’essenza dell’intelligenza, ma le prove empiriche sembrano smentire questo assunto: le doti per vincere una partita contro il campione del mondo non permetterebbero alla macchina di sopravvivere nel traffico delle vie di Milano – o di assicurare l’incolumità dei milanesi. Una delle soluzioni del problema potrebbe essere quella di riservare le strade alla sola circolazione delle automobili guidate da I.A., ma non sembra un’ipotesi percorribile a breve. Le attese non migliorano quando si passa all’assortimento di coppie con lo scopo che non divorzino entro un anno, o al riconoscimento di volti sospetti senza il rischio di arrestare innocui passanti – o ancora peggio, la divinazione di profili psicologici per le sentenze di libertà sulla parola (o per la personalizzazione dei messaggi marketing).
3. Euristiche e stabilità del mondo
Gigerenzer insiste sull’opportunità di confidare in software costruiti su euristiche trasparenti. Il successo delle I.A. è stato sostenuto da due pregiudizi che ciascuno di noi coltiva in favore della complessità e dell’opacità, visto che ci sentiamo più sicuri dei risultati di una macchina complicata e incomprensibile. Invece una «lista di decisione» con poche regole permette di ottenere predizioni che, nel confronto empirico, funzionano meglio delle I.A.: Angelino et al. (2018) mostra che è quanto che accade con i tre parametri e le tre clausole del software CORELS, in grado di prevedere se l’imputato sarà arrestato nei prossimi due anni con un’accuratezza del 65%, la stessa dell’I.A. COMPAS acquistata dal governo americano, che calcola innumerevoli combinatorie su 137 parametri.
L’autorità di Kahnemann ha squalificato le euristiche equiparandole al «pensiero veloce», che tende ad affrettarsi verso soluzioni inquinate da errori e pregiudizi, pur di trovare un criterio per la condotta nell’immediatezza della situazione. Gigerenzer invece consacra il repertorio delle nostre regole pratiche come una «cassetta degli attrezzi» che ha superato la selezione dell’ambiente in cui viviamo, ed è quindi adeguata alla razionalità dei compiti che ci attendono. Una delle sue missioni più importanti è cementare la stabilità del mondo, che le intelligenze artificiali faticano a evincere tra i molti pattern di relazioni che si allacciano nei dati con cui si svolge il loro training. Le reti neurali peraltro amano nascondersi, come la natura di Eraclito, e dopo poche generazioni di addestramento diventa impossibile anche ai loro sviluppatori comprendere quali siano i segnali intercettati ed elaborati: si può scoprire solo con test empirici sugli output se il software ha imparato a riconoscere i tank russi, o se li distingue da quelli americani perché nel dataset delle foto per caso il cielo sullo sfondo dei mezzi corazzati slavi è sempre nuvoloso mentre è soleggiato negli scatti USA. Ancora più difficile è spiegare perché l’introduzione di pochi pixel colorati converta la percezione di uno scuolabus in quella di uno struzzo. Se il mondo deve essere noiosamente stabile, anche per il bene dei bambini che viaggiano sugli scuolabus, almeno che la noia sia quella dei nostri pregiudizi, e non quella di un mondo possibile sorteggiato a caso.
Bibliografia
Angelino, E., Larus-Stone, N., Alabi, D., Seltzer, M., Rudin, C., Learning certifiably optimal rule lists for categorical data, «Journal of Machine Learning Research», n. 18, 2018, pp. 1-78.
Gigerenzer, Gerd, How to Stay Smart in a Smart World Why Human Intelligence Still Beats Algorithms, Penguin, New York 2022.
Kahnemann, Daniel, Thinking, Fast and Slow, Farrar, Straus and Giroux, New York 2011
Intelligenza artificiale e creatività - I punti di vista di tre addetti ai lavori
Ancora solo pochi anni fa, tutti sapevamo che nei laboratori della Silicon Valley – ma non solo, anche in laboratori di Paesi meno trasparenti – si lavorava a forme di intelligenza artificiale; ma in fondo, se non si faceva parte della schiera degli addetti ai lavori, tutto questo tema rimaneva confinato come una questione ancora lontana e più adatta alle fiction.
E invece, come una bomba, nel dopo pandemia l’AI è esplosa nelle vite di tutti noi – lasciando i più attoniti e frastornati – e di certo andrà a cambiare professioni e modi di lavorare che abbiamo sempre ritenuto di esclusiva pertinenza dell’intelligenza umana.
L’intelligenza artificiale non si limita a processare a velocità inconcepibili da mente umana miliardi di dati, con l’AI si possono creare immagini, testi. Insomma, sconfinare nei territori di pertinenza dell’arte, anche se è difficile definire in modo certo e univoco cosa sia l’arte.
Abbiamo quindi pensato di chiedere a tre persone che fanno parte del gruppo di Controversie e che usano l’intelligenza artificiale per creare immagini, quale sia il loro rapporto con la “macchina” e con il processo creativo.
La prima specifica domanda fatta è la seguente: Creare un’immagine con l’AI è un atto creativo?
Vediamo le risposte…
Matteo Donolato – Laureando in Scienze Filosofiche, professore e grafico di Controversie
Credo proprio di sì: dal punto di vista umano, la generazione di immagini con l’Intelligenza Artificiale non è un atto così passivo come forse potremmo pensare, in quanto rappresenta un vero lavoro artistico e creativo. Inoltre, in questa interazione tra macchina e persona in carne e ossa non c’è una protagonista assoluta, ma entrambe collaborano per il raggiungimento dell’obiettivo finale: le due intelligenze, dunque, operano insieme, senza una preponderanza di una sull’altra. Tuttavia, a prima vista si può ritenere che l’I.A. sia la vera “artista”, e si potrebbe inoltre immaginare che esegua tutto il lavoro, con l’essere umano che semplicemente impartisce dei comandi e aspetta che essa “faccia la magia”. Ragionando così, sottovalutiamo (e di molto) il nostro potere di intervento, concedendo tutto il credito della prestazione creativa alla macchina; le cose, in realtà, non sono così semplici, in quanto è l’artista umano a dettare le regole del gioco. Infatti, questi stabilisce tutta una serie di fattori molto importanti come, per esempio, il comando iniziale (o prompt), lo stile che avrà la sessione immagini, il tempo dedicato a essa, il numero di tentativi, le eventuali variazioni o i dettagli che tali rappresentazioni devono possedere, con la macchina che esegue. Alla fine del lavoro, quando l’I.A. avrà realizzato le proprie opere, è l’artista umano che garantisce l’adesione di essa a ciò che si era stabilito nel prompt; inoltre, è nuovamente lui (o lei) a decretare se il risultato ottenuto sia soddisfacente, in linea con le volontà iniziali. Insomma, l’intelligenza umana è la prima e ultima arbitra dell’immagine, colei che inizia e orienta la sessione di lavoro e che, alla fine, giudica l’operato dell’I.A.; siamo noi, quindi, a tessere i fili, a stabilire la qualità artistica e creativa del prodotto restituito dalla macchina. Quest’ultima costituisce, pertanto, il mezzo attraverso cui la nostra creatività e la nostra immaginazione si possono esprimere. In conclusione, l’I.A. rappresenta uno strumento, come tanti altri, a supporto dell’intelligenza e della fantasia umane...
-----------------------------
Paolo Bottazzini – Epistemologo, professionista del settore dei media digitali ed esperto di Intelligenza Artificiale
Credo sia legittimo attribuire un riconoscimento di creatività alla generazione delle immagini con IA in ugual misura a quanta ne è stata riconosciuta agli artisti degli ultimi decenni. Il ruolo dell'artista, come è stato incarnato da personaggi importanti come Hirst o Kapoor, consiste nell'elaborazione del modello concettuale dell'opera, non nella sua realizzazione pratica, che per lo più è affidata ad operatori artigianali specializzati. Anche la produzione con l'IA richiede una gestazione concettuale che prende corpo nel prompt da cui l'attività dell'IA viene innescata. Si potrebbe discutere del grado di precisione cui arriva il progetto degli artisti "tradizionali" e quello che è incluso nelle regole che compongono il prompt: ma credo sarebbe difficile stabilire fino a che punto la differenza sia qualitativa e non semplicemente quantitativa. Più interessante sarebbe valutare se il risultato dell'operazione condotta con l'IA sia arte, al di là dei meriti di creatività: anche i pubblicitari si etichettano come "creativi", e di certo lo possono essere - però difficilmente saremmo disposti a laureare tutti gli annunci pubblicitari come "arte".
-----------------------------
Diego Randazzo – Artista visivo
Molto semplicemente: dipende.
Penso che anche rimanendo ancorati alla tradizione, addentrandosi nella miriade di produzioni odierne, realizzate con le canoniche tecniche artistiche (la pittura, la scultura, la fotografia, etc.) sia piuttosto difficile trovare “l’opera d’arte”. Semplificando, ma non troppo, oggi anche le risultanze di tecniche storicizzate spesso si avvicinano più alle forme della ‘tappezzeria', o anonimo complemento d’arredo, che al manufatto artistico, testimone di senso.
Il semplice atto creativo non ha nulla a che fare con l’elaborazione e produzione artistica, se non ambisce a costruire un percorso di senso e di ricerca progettuale.
Questa piccola premessa vuole essere una provocazione per far riflettere su un principio ancora oggi saldo e indissolubile: la tecnica e lo strumento in sé sono ‘oggetti monchi’, se privati di un valore che solo il radicamento concettuale nella contemporaneità può attribuirgli. Non mi piace snocciolare citazioni, ma credo che Enzo Mari, quando nel 2012 sentenziava ‘’Non esiste oggi parola più oscena e più malsana della parola creatività. Si produce il nulla, la merda con la parola creatività’’ aveva plasticamente intercettato certe tendenze che, di lì a poco, avrebbero preso il sopravvento. La creatività, intesa come paradigma vincente e performante per risolvere ogni questione di non facile risoluzione.
Sgombrato quindi il campo dalle generalizzazioni, su cosa sia o non sia un atto di creatività, si può sicuramente affermare che l’IA sia uno strumento potentissimo e, se usato finemente, con intelligenza e cura, può condurre alla creazione di un’opera d’arte.
Ma cerchiamo da subito di fare dei distinguo: l’IA deve rimanere uno strumento e non una finalità. Nello specifico - e questa è una mia personalissima teoria - il creativo/artista di turno non può pensare di fermarsi, dopo qualche interrogazione, all’output grezzo generato dall’IA, convincendosi di aver dato vita a qualcosa di unico, affascinante e interessante.
Come avveniva già nella tradizione classica della pittura, le influenze e lo studio sono fondamentali; una volta si viaggiava, gli artisti si incontravano, si contaminavano scambiandosi tecniche e saperi, mentre oggi si può attingere ad un patrimonio di dati sconfinato in rete. Il rischio omologazione è altissimo, perciò è fondamentale conoscere e confrontarsi con il passato, il presente ed immaginare un possibile futuro che tenga insieme tutto. Quindi passato, presente e futuro sono i fondamentali per poter imbastire una progettualità, non finalizzata a costruire ‘immagini nitidissime di mondi impossibili e surreali’ - come vediamo nel repertorio più di tendenza nella generazione di immagini con l’IA - bensì volta a costruire delle riflessioni sui processi narrativi e sulla storia delle immagini stesse.
E chi è che oggi può fare tutto questo con consapevolezza, senza farsi ingabbiare dall’effetto decorativo, dal rischio tappezzeria? Senza ombra di dubbio è l’Autore, l’unica figura che può padroneggiare questi strumenti, mettendoli al servizio della propria poetica.
Riprendo brevemente il tema sull’autorialità tratto da una precedente intervista rilasciata sempre su questo blog:
‘’Autore è colui che interroga e, soprattutto, rielabora e reinterpreta secondo la propria attitudine il risultato dell’Intelligenza artificiale. La macchina fa le veci del ricercatore: mette insieme e fonde tantissimi dati e, in ultima istanza, restituisce un ‘abstract grezzo’. Quell’abstract non può rimanere tale. Deve essere decostruito e manipolato dall’artista per assurgere ad opera d’arte. L’IA, come processo generativo, è quella cosa che sta in mezzo, tra il pensiero, l’idea iniziale e l’opera finale. Tutto qui. Non è semplificazione, è come dovrebbe essere inteso il ruolo dell’intelligenza artificiale nella creazione artistica.’’
Quest’opera dal titolo 24 intime stanze è un esempio pratico della mia idea di utilizzo di Ai in campo artistico e soprattutto della necessità di far emergere una concatenazione virtuosa tra passato, presente e futuro: dall’utilizzo della cianotipia (antica tecnica di stampa a contatto) e la pittura ad olio, all’uso dell’I.A. per elaborare le referenze del soggetto protagonista.
24 intime stanze / dalla serie ‘Originali riproduzioni di nuovi mondi’ (Opera finalista al Combat Prize 2024, nella sezione pittura), Cianotipia e pittura a olio su tela grezza, 120x100x2 cm, 2024
----------------------
Non c’è dubbio che queste tre risposte siano estremamente stimolanti e che vi si possa rintracciare un minimo comune denominatore che le lega: l’idea che l’IA sia solo un mezzo, per quanto potente, ma che l’atto creativo resti saldamente appannaggio di colui che ha nel suo animo (umano) l’obiettivo concettuale.
Ottenere un risultato con l’IA si delinea, qui, come un vero atto creativo, che, però e ovviamente, non è detto che si trasformi in arte, ovvero in una manifestazione creativa in grado di dare emozione universale.
In termini più concreti: molti di noi, forse, potrebbero avere “nella testa” La notte stellata di Van Gogh (giusto per fare un esempio), ma la differenza tra la grandissima maggioranza di noi e il genio olandese è che non sapremmo neppure lontanamente “mettere a terra” questa intuizione.
Con l’IA, a forza di istruzioni che la macchina esegue, potremmo invece, avvicinarci al risultato di Vincent?
Se fosse così, in che modo cambierebbe l’essenza stessa dell’artista?
Antropologia dell’IA - Stereotipi, discriminazioni di genere e razzismi
Da un twitter divenuto virale nel 2019 si è venuti a conoscenza del fatto che Goldman Sachs, una delle più importanti banche d’investimento del mondo, aveva escluso una potenziale cliente dall’accesso a una prestigiosa ed esclusiva Apple card in base a una profilazione erronea e discriminatoria. Il fatto si è saputo perché l’autore del twitter, un danese sviluppatore di software, è il marito della persona a cui era stata negata la card, che lui invece aveva ottenuto pur guadagnando meno di lei. In sostanza, la donna per ragioni opache e non trasparenti era stata considerata non idonea per quel determinato prodotto.
Discriminazioni di genere
Se non ci fosse stato quel twitter non si sarebbe saputo nulla di tutto ciò, ovvero di una sistematica e silenziosa discriminazione di genere. La vicenda rappresenta una plastica esemplificazione della nota metafora del cosiddetto “soffitto di cristallo”: la possibilità che una donna ha di poter scalare il potere o di avere pari opportunità di carriera è spesso preclusa da una sorta di soffitto trasparente, che costituisce una barriera invisibile eppure potente e limitante. Per ragioni imperscrutabili, non esplicitate chiaramente e senza la possibilità di entrare nel merito, gli algoritmi rischiano di attuare politiche discriminatorie, che si supponeva dovessero appartenere al passato e non alle tecnologie del futuro. La rappresentazione, l’interpretazione e la codificazione degli esseri umani attraverso dataset di training e le modalità con cui i sistemi tecnologici raccolgono, etichettano e utilizzano questi materiali sono aspetti decisamente cruciali nel riprodurre stereotipi, pregiudizi, forme di discriminazione di genere o razziale. I bias trovano sempre una strada per inserirsi nel sistema, o meglio in un certo senso i bias fanno parte del sistema. A questo proposito, è noto che fino al 2015 Amazon reclutasse i suoi futuri dipendenti tramite un sistema che si era “allenato” sui curricula, in genere di uomini, ricevuti nei dieci anni precedenti. I modelli avevano quindi imparato a raccomandare gli uomini, autoalimentando e amplificando le disuguaglianze di genere dietro la facciata di una supposta neutralità tecnica. Tanto per fare un esempio, il curriculum di un aspirante dipendente di Amazon veniva scartato se al suo interno conteneva la parola “donna”, perché il sistema aveva imparato a gestire di dati così (Dastin 2018).
Il razzismo dell’IA
L’IA produce e riflette le relazioni sociali, una determinata visione del mondo e, inevitabilmente, i rapporti economici e di potere, visto il notevole capitale in termini finanziari che occorre per investire in essa. Basti pensare che i sistemi di riconoscimento facciale, che contribuiscono fortemente a etichettare la realtà e gli umani, derivano dai primi tentativi sperimentali della Cia e dell’FBI negli anni Sessanta, passando per i database basati sulle immagini dei carcerati, per arrivare all'epoca attuale, dove i principali sistemi di questo tipo sono alimentati da volti e scatti liberamente messi in circolazione sui social (Crawford 2021:105-135). Ovviamente l'accresciuta complessità tecnologica e il suo considerevole impatto sociale hanno fatto emergere anche i tratti più controversi dell’IA, a cominciare dai pregiudizi automaticamente inseriti nei dataset utilizzati per nutrire l'intelligenza artificiale. Si pensi al fatto che c’è stato un lungo dibattito sul riconoscimento facciale, in cui si è visto che è più difficile distinguere i neri, proprio perché i dataset di training si fondano prevalentemente su materiale fotografico di bianchi, raccolto e categorizzato soprattutto da bianchi.
Le differenze razziali, culturali e di genere sono elementi che non si limitano ad affiancarsi o a sommarsi uno sull’altro, ma interagiscono producendo nuove e incomparabili forme di segregazione e di assoggettamento, che si stratificano su vecchi e consumati stereotipi e discriminazioni. A questo riguardo, sui media ha molto circolato la storia di un’afroamericana che non riusciva ad avere il mutuo per acquistare una casa e non si capiva perché, visto che aveva un buon lavoro in una università americana; finché non è apparso chiaro che ciò dipendeva dal quartiere afroamericano in cui abitava e dal suo essere afroamericana (Glantz, Martinez, 2018). In pratica, l’IA acuiva le asimmetrie già esistenti riguardo i singoli gruppi umani a partire dalla loro supposta affidabilità in termini creditizi. Limitando le chance di un futuro migliore si perpetua e “naturalizza” un razzismo esistente e conclamato seppure mai apertamente dichiarato.
Secondo la scienziata esperta in intelligenza artificiale Timnit Gebru e la studiosa di linguistica computazionale Emily Bender un gigante come Google riafferma e ratifica continuamente le disuguaglianze. Ad esempio, il suo programma di riconoscimento facciale è meno accurato nell’identificare le donne e le persone di colore (Hao 2020). Gli algoritmi, concepiti a partire da tecnologie innovative, possono convalidare forme di razzismo istituzionalizzato. Addirittura in uno studio dell’Università del Maryland è stato riscontrato che in alcuni software di riconoscimento facciale le emozioni negative vengono maggiormente attribuite ai neri piuttosto che ai bianchi (Crawford, 2021:197).
Il contesto socio-culturale dell’IA
Lo sviluppo esponenziale dell’IA ha in qualche maniera obbligato a ragionare su determinati aspetti, come quelli per così dire più umani delle machine learning. Gli stereotipi, le forme di discriminazione e di razzismo infatti vengono automaticamente appresi e inseriti nei dataset, ma questi ovviamente erano e sono già presenti in internet e nella realtà quotidiana al di là della IA. Per cui bisogna tornare a monte, appunto. Di cosa si nutre l’IA? Chi costruisce l’intelligenza artificiale? Perché è ovvio che non si tratta di semplicemente di correggere errori una volta che emergono, come il caso dei curricula di Amazon o della Apple card di Goldman Sachs. Le immagini inserite nei dataset basati sulla visione artificiale per il riconoscimento degli oggetti, nel categorizzare i generi si ritrovano a organizzare, etichettare ad esempio foto in cui gli uomini sono spesso stati fotografati outdoor presi in qualche attività sportiva e con oggetti relativi allo sport e le donne prevalentemente in cucina con qualche utensile relativo al cucinare (Wang, A., Liu, A., Zhang, R., Kleiman, A., Kim, L., Zhao, D.,Shirai, I. Narayanan, A. Russakovsky, O., 2021: 9). Questo dato è di per sé rilevante e in qualche modo va analizzato perché i bias sono già incapsulati nel sistema.
Fei-Fei Li, un’esperta di visione artificiale che si occupa anche di debiasing, come ridurre i bias che i dataset tendono ad inglobare, afferma che le conseguenze della attuale situazione sono “dataset non sufficientemente diversificati, compreso quello di ImageNet [a cui la stessa Li ha lavorato, n.d.a.], esacerbate da algoritmi testati male e decisioni discutibili. Quando internet presenta un’immagine prevalentemente bianca, occidentale e spesso maschile della vita quotidiana, ci resta una tecnologia che fatica a dare un senso a tutti gli altri” (Li, 2024: 253). I dataset riflettono anche una concezione del mondo fortemente ancorata a quella di coloro che ci lavorano.
È interessante sapere che, secondo il Guardian, nel team di Sam Altman il 75% dei dipendenti di OpenAI è uomo (Kassova, 2023). E la domanda che inevitabilmente sorge è: quali sono le conseguenze di una IA sviluppata senza la piena partecipazione delle donne, delle minoranze e di Paesi non occidentali? Perché allo stato attuale è ovvio che la loro mancanza di rappresentanza nel settore tech ha come conseguenza che gli algoritmi funzionano male con coloro che non sono bianchi e maschi.
L’IA e il marchio del capitalismo
Le altre domande altrettanto cruciali sono: per chi è fatta l’IA? Chi possiede i dataset e che uso ne fa? E qua ovviamente entra in gioco anche la democrazia sulla trasparenza e l’etica della non discriminazione. Uno degli elementi chiave riguardo i dati è che sono presi senza contesto e senza consenso. Nick Couldry e Ulises Mejias (2022) fanno un interessante parallelismo tra epoca coloniale e società attuale. Se nell’epoca del colonialismo, il potere agiva in maniera estrattiva, ovvero i colonizzatori spoliavano i paesi colonizzati di materie prime preziose e di forza lavoro (tramite lo schiavismo), i corrispettivi contemporanei per profitto estraggono dati senza chiedere il consenso ai legittimi possessori, come nel caso di Midjourney che, come recentemente emerso in una class action promossa da alcuni artisti americani, ha utilizzato le opere di 16.000 artisti senza chiedere il consenso e aggirando il copyright. I maggiori giganti tecnologici sono costantemente e voracemente in cerca di enormi quantità di dati per alimentare e allenare i sistemi di intelligenza artificiale (Metz, C., Kang, C., Frenkel, S., Thompson, S.A., Grant, N., 2024). Internet è stato concepito da coloro che operano nel settore dell’IA come una sorta di risorsa naturale, disponibile da cui si possono estrarre dati a piacimento. Il colonialismo dei dati è un ordine sociale emergente basato su un nuovo tentativo di impadronirsi delle risorse del mondo a beneficio di alcune élite, come era avvenuto in passato con il “classico” colonialismo. C’è una continuità profonda nei metodi di acquisizione, negli atteggiamenti mentali, nelle forme di esclusione e di preservazione del potere. È incredibile come ciò sia a volte incastonato in qualche biografia emblematica: Elon Musk, ad esempio, ha un padre che è stato proprietario di una miniera di smeraldi in Zambia. In famiglia la forma di colonizzazione si è solo evoluta con i tempi e con le tecnologie, ma il marchio è lo stesso.
L’intelligenza artificiale, come un tempo il colonialismo, genera valore in modo iniquo e asimmetrico, impattando negativamente su molte persone, non importa se le definiamo in termini di razza, classe o genere, o tramite l’intersezione di tutte queste categorie.
E renderla più inclusiva non sarà una battaglia facile.
RIFERIMENTI BIBLIOGRAFICI
Crawford, K. (2021), Né intelligente né artificiale: il lato oscuro della IA, Il Mulino, Bologna.
Couldry, N., Mejias, U.A. (2022), il prezzo della connessione: Come i dati colonizzano la nostra vita e se ne appropriano per fare soldi, Il Mulino, Bologna.
Dastin, J. (2018), “Amazon Scraps Secret AI Recruiting Tool That Showed Bias against Women”, in Reuters, October 11.
Glantz, A., Martinez of Reveal, E. (2018), “Kept out: How Banks Block People of Color from Homeownership, APnews, February 15.
Hao, K. (2020), “We Read the Paper That Forced Timnit Gebru Out of Google. Here’s What It Says”, in MIT Technology Review, December 4.
Kassova, L. (2023) “Where are All the ‘Godmothers’ of AI? Women’s Voices are not being Heard”, The Guardian, November 25.
Li, F.F, (2024), Tutti i mondi che vedo, Luiss University Press, Roma.
Metz, C., Kang, C., Frenkel, S., Thompson, S.A., Grant, N. (2024), “How Tech Giants Cuts Corners to Harvest Data for A.I.”, The New York Times, April 6.
Telford, T. (2019), “Apple Card algorithm sparks gender bias allegations against Goldman Sachs”, Washington Post, November 11.
Wang, A., Liu, A., Zhang, R., Kleiman, A., Kim, L., Zhao, D., Shirai, I. Narayanan, A. Russakovsky, O., (2021,“A Tool for Misuring and Mitigating Bias in Visual Dataset”, arXiv: 2004.07999v4 [cs.CV] 23 Jul 2021.
In nome del fanatismo sovrano – Ingegneria sociale e potere delle comunità (seconda parte)
Fanatismo e fandom
Brittany Kaiser che volteggia senza accorgersi di nulla attraverso uffici in cui viene forzato il risultato delle elezioni degli Usa e il referendum sulla Brexit, e i sostenitori di QAnon che credono alle cospirazioni del Deep State, possono corroborare la suggestione che «internet ci renda stupidi», come temeva Nicholas Carr (2011). Senza dubbio una parte delle risorse di comunicazione in Rete conta sulla collaborazione degli utili idioti per attecchire e propagarsi, ma l’esperienza ordinaria dovrebbe insegnarci ad ammettere che le tecnologie digitali hanno avvolto il nostro mondo come se fossero l’involucro di un dispositivo (Floridi, 2014), accrescendo, o almeno trasformando, la maneggevolezza di questo mondo-elettrodomestico. Ciascuno di noi vive il suo QAnon, in compagnia di nicchie più o meno ristrette di amici, che condividono la stessa concezione del mondo. Il problema non è solo la bacheca di Facebook, ma le recensioni di TripAdvisor con cui scegliamo il ristorante e i piatti da assaporare, quelle di Airbnb per selezionare la casa dove fermarsi qualche notte, le foto di Instagram per sapere quale deve essere il nostro stile di vita. La realtà viene letta con i servizi di georeferenziazione disponibili sul cellulare o addirittura sullo smartwatch. Gli algoritmi delle tecnologie indossabili ci rimproverano l’adipe accumulata nel ristorante scelto con TripAdvisor, si allarmano se stiamo camminando troppo, o ci irridono per la stanchezza prematura, ci mettono in competizione con gli amici e con gli sconosciuti (che per caso hanno stessa età, peso e altezza, e probabilmente hanno frequentato le stesse trattorie); quelli del termostato di casa verificano se il nostro consumo di energia è virtuoso o spregevole rispetto ai vicini. Scelgono la musica che ci piace, e persino la fidanzata (o il fidanzato) ideale, prediligendo i rapporti con una data di scadenza ravvicinata: in fondo anche il sesso si consuma, ed è quindi destinato a obsolescenza precoce. In questo contesto, Cambridge Analytica ha commesso l’errore di aver suggerito in Donald Trump il partner sbagliato ad un’intera nazione, per un rapporto della durata di quattro anni – svista giustamente pagata con il fallimento dell’agenzia elettoral-matrimoniale.
Aja Romano (2024) ricorre al termine stan (crasi di stalker fan), con cui si denotano i seguaci delle star della musica pop e di Hollywood, per spiegare il tipo di coinvolgimento che (il team elettorale di) Trump ha generato presso i sostenitori dell’ex presidente, in vista delle elezioni del prossimo novembre. I leader politici sono circondati dalla stessa aura di mito che caratterizza il fanatismo per le celebrità dello spettacolo e dello sport; i sostenitori partecipano dell’identità della comunità con la stessa carica assiologica che solidarizza i tifosi di una squadra o gli ammiratori di una leggenda del rock. La comunicazione con i fan non è mediata dai corpi intermedi delle istituzioni e della stampa, perché tutte le distanze sono abrogate dall’istantaneità della conversazione su X, su Instagram, o su Tiktok. Il ritardo richiesto dalla riflessione e dalla valutazione razionale viene soppresso nell’immediatezza del colloquio, con la sua emotività e la sua visceralità. Huwet (2023) ha chiarito come il fandom di Harry Potter sia diventato il terreno di coltura per alimentare (e finanziare) la setta degli Altruisti Efficaci in America.
L’iscrizione in una comunità, da cui ci si sente osservati e giudicati, rende percepibile per i frequentatori dei social media la pressione delle opinioni e delle valutazioni degli altri in modo diretto. Uno studio condotto nel 2016 con metodologie di Big Data Analysis da Quattrociocchi, Scala e Sunstein, ha mostrato che su Facebook non esistono differenze tra i comportamenti delle comunità di coloro che sono – o si ritengono – competenti su temi scientifici, e dei gruppi che recepiscono, diffondono e amplificano le opinioni cospirazioniste e antiscientifiche. Gli argomenti di cui dibattono sono opposti per segno ideologico, ma la polarizzazione che sospinge ciascuno a identificarsi con la posizione della propria comunità, e a scorgere nelle obiezioni solo un’espressione di disonestà intellettuale o economica, è una e la stessa come la via in su e quella in giù di Eraclito. È possibile distinguere i cluster per la velocità di propagazione dei post e per il numero di bacheche raggiunte, ma non per la resistenza a ogni forma di debunking, volto a dimostrare l’infondatezza delle informazioni condivise dai membri della comunità. Il ricorso alla ragione, con argomenti e prove fattuali, non solo è destinato al fallimento, ma genera un «effetto boomerang» (Hart e Nisbet, 2012) che incrementa la fiducia nei pregiudizi della comunità: il fact checking tende a scatenare una reazione contraria alla sua destinazione, promuovendo la ricerca di conforto da parte dei confratelli sulla validità delle notizie contestate, e intensificando la polarizzazione delle opinioni.
Eco sociale e comunità scientifica pre-print
La social network analysis ha elaborato modelli matematici che misurano l’interazione tra individuo e collettività, e permettono di correlare la chiusura di una rete sociale alla larghezza di banda nella circolazione delle informazioni e alla fiducia che i membri ripongono nella loro validità (oltre a quella che attribuiscono alle persone che le diffondono). Con l’aiuto dell’immaginazione si può intuire che il passaggio delle notizie accelera nelle comunità in cui ognuno conosce ogni altro componente, e che questo movimento vorticoso consegna più volte lo stesso contenuto a ciascun soggetto, recapitandolo da fonti in apparenza indipendenti le une dalle altre. Il turbine dell’informazione suscita una sensazione di urgenza che cresce ad ogni ripresentazione della notizia, impone l’imperativo del suo rilancio, ispira fede nella sua verità.
Lo strumento essenziale delle piattaforme online sono gli algoritmi che identificano i cluster di utenti con interessi simili. La geodetica di una rete è il numero di passaggi che collega i due nodi più distanti compiendo il percorso più breve possibile. Secondo il famoso esperimento di Milgram del 1967 la geodetica dell’intera umanità conterebbe sei gradi di separazione; Facebook conta oltre due miliardi di iscritti, ma secondo uno studio del 2012 la sua geodetica è di soli 3,75 passi. La densità delle relazioni umane è molto più fitta di quanto ci immaginiamo, e la larghezza di banda che misura il potenziale di circolazione delle notizie è ampia in misura direttamente proporzionale.
In questo intrico di connessioni, sono gli algoritmi dei motori di ricerca e dei social media a decidere cosa deve essere letto e da chi: sono quindi i loro pregiudizi a stabilire il grado di perspicacia o di ingenuità degli individui, o almeno a intensificare le loro inclinazioni personali. Sembra la versione moderna della Grazia divina, che secondo Lutero distingue a priori i sommersi e i salvati; ma nell’immanenza della realtà profana, questo è il sintomo della sostituzione della classe sociale che alimentava comitati scientifici e peer reviewer con un nuova struttura di potere, che alimenta la produzione e la certificazione della verità fondandola sul prestigio degli algoritmi, dei big data, e su una diversa divisione del lavoro linguistico, con una nuova distribuzione delle competenze e delle comunità di esperti. Uno studio di West e Bergstrom del 2021 documenta la tendenza anche da parte degli scienziati ad affidarsi a Google Scholar per la ricerca di saggi, e a seguire le segnalazioni dei colleghi sui social media. Ma l’algoritmo del motore tende a premiare i contenuti che ottengono più link e più citazioni, così come le piattaforme di social network incrementano la visibilità dei profili e dei contenuti che ottengono più like e più interazioni. Robert Merton ha battezzato «effetto San Matteo» il risultato di questo comportamento: chi vince piglia tutto. Tra i contenuti vincenti nell’ambito scientifico si trovano anche citazioni scorrette che vengono replicate a oltranza, nonché saggi in versioni pre-print che non hanno mai passato la peer review, o che includono errori in seguito emendati – senza alcun riguardo per le correzioni.
Non so se la crisis discipline debba farsi carico di mettere in salvo la specie dei sostenitori di QAnon dai memi di QAnon, contro la loro stessa volontà; ma di certo serve una nuova interpretazione della realtà che la osservi come il prodotto di un nuovo ecosistema. La tecnologia sovrappone al mondo piani di leggibilità e di utilizzabilità, anzi, li iscrive nel mondo stesso – e non saremo noi, né alcun altro Artù, a poterli estrarre. Se li conosci non li eviti, ma almeno puoi provare a capirli.
BIBLIOGRAFIA
Aubenque, Pierre, Le problème de l’Être chez Aristote. Essai sur la problématique aristotélicienne, PUF, Parigi, 1962.
Austin, John, How to Do Things with Words: The William James Lectures delivered at Harvard University in 1955, Clarendon Press, Oxford 1962.
Backstrom, Lars; Boldi, Paolo; Rosa, Marco; Ugander, Johan; Vigna, Sebastiano, Four degrees of separation, «Proceedings of the 4th Annual ACM Web Science Conference, June 2012», pagg. 33–42
Bak-Coleman, Joseph B.; Alfano, Mark; Barfuss, Wolfram; Bergstrom, Carl T.; Centeno, Miguel A.; Couzin, Iain D.; Donges, Jonathan F.; Galesic, Mirta; Gersick, Andrew S.; Jacquet, Jennifer; Kao, Albert B.; Moran, Rachel E.; Romanczuk, Pawel; Rubenstein, Daniel I.; Tombak, Kaia J.; Van Bavel, Jay J.; Weber, Elke U., Stewardship of global collective behavior, «Proceedings of the National Academy of Sciences», 6 luglio 2021, n.118.
Butcher, Mike, The CEO of Cambridge Analytica plans a book on its methods, and the US election, «TechCrunch», 6 novembre 2017.
Carr, Nicholas, The Shallows. What Internet is Doing to Our Brains, W. W. Norton & Company, New York, 2011.
Floridi, Luciano, The Fourth Revolution. How the Infosphere is Reshaping Human Reality, OUP Oxford, 2014.
Girard, René, Le Bouc émissaire, Grasset, Parigi, 1982.
Hamilton, Isobel Asher, Plans to storm the Capitol were circulating on social media sites, including Facebook, Twitter, and Parler, for days before the siege, «Business Insider», 7 gennaio 2021
Hart, Sol; Nisbet, Erik, Boomerang effects in science communication: How motivated reasoning and identity cues amplify opinion polarization about climate mitigation policies, «Communication Research», vol. 39, n.6, 1° dicembre 2012, pagg. 701-723.
Huet, Ellen, Effective altruism has bigger problems than Sam Bankman-Fried, Financial Review, 17 marzo 2023.
Kaiser, Brittany, Targeted, HarperCollins Publisher, New York 2019.
Merton, Robert, Social Theory and Social Structure,II, New York, The Free Press, 1968.
Milgram, Stanley, The Small-World Problem, in «Psychology Today», vol. 1, no. 1, Maggio 1967, pp. 61-67
Pariser, Eli,The Filter Bubble. What the Internet is Hiding from You, The Penguin Press, New York 2011.
Quattrociocchi, Walter; Scala, Antonio; Sunstein, Cass, Echo Chambers on Facebook, «SSRN», 2795110, 13 giugno 2016.
Romano, Aja, If you want to understand modern politics, you have to understand modern fandom, «Vox», 18 gennaio 2024.
West, Jevin D.; Bergstrom, Carl T., Misinformation in and about science, «Proceedings of the National Academy of Sciences», aprile 2021, vol. 118, n.15.
In nome del fanatismo sovrano - Ingegneria sociale e potere delle comunità (prima parte)
Brittany Kaiser era la business developer di Cambridge Analytica, l’azienda accusata di aver consegnato a Donald Trump la vittoria delle elezioni presidenziali del 2016 ricorrendo a tattiche di microtargeting sui social network. Alexander Nix, il CEO che l'ha assunta nel 2014 e licenziata nel 2018, sostiene in un’intervista a Mike Butcher (2017) che l’agenzia abbia processato dati provenienti da Facebook su 220 milioni di cittadini americani, estraendone le informazioni necessarie per profilare messaggi personalizzati di propaganda pro-Trump. Le confessioni della Kaiser, raccolte nel libro Targeted (2019), si riassumono nell’attante «non capivo, non sapevo, ho solo obbedito agli ordini», e sono considerate tra le rivelazioni più importanti delle «talpe» interne all’agenzia.
Il tema che ha incuriosito la magistratura riguarda il modo in cui Cambridge Analytica ha acquisito e conservato i dati degli utenti del social network. Invece l’aspetto che sfida il talento ermeneutico della Kaiser, e che è interessante esaminare, è la presunta capacità della comunicazione digitale di cambiare le convinzioni delle persone, soprattutto in ambito politico, grazie all'identificazione dei temi cui ciascun individuo è più sensibile, e alla misurazione delle relazioni di influenza tra amici. La «talpa» Kaiser inferisce dalle affermazioni dei colleghi che Cambridge Analytica eseguisse una profilazione psicometrica degli utenti, ed elaborasse messaggi capaci di dirottare le loro scelte elettorali o commerciali in senso opposto a quello spontaneo. I Sofisti facevano qualcosa del genere con l’arte dialettica, ma Platone e Aristotele non si ritenevano delle talpe quando hanno denunciato la loro techne.
Le dichiarazioni di Alexander Nix, riportate nel libro, inducono però a credere che gli obiettivi dell’agenzia fossero diversi, più coerenti con le tesi sull’efficacia dei social media, condivise un po’ da tutti almeno dalla pubblicazione di The Filter Bubble (2011) di Eli Pariser. Gli algoritmi di Facebook, e delle piattaforme simili, tendono a rinchiudere gli individui in una bolla autoreferenziale, popolando le loro bacheche con i post degli amici e con i messaggi pubblicitari che confermano la loro visione del mondo, ed escludendo progressivamente i contributi in disaccordo. Se questa ipotesi è corretta, non si comprende in che modo il social network possa stimolare trasformazioni nella concezione politica delle persone. Alexander Nix spiega che Cambridge Analytica si proponeva di incentivare l’entusiasmo dei sostenitori spontanei del candidato-cliente, trasformandoli da spettatori ad attivisti della sua campagna; al contempo, tentava di raffreddare l’adesione dei cluster di elettori «naturali» degli avversari, demotivando la loro partecipazione alle iniziative di propaganda e disertando i seggi il giorno delle votazioni. Durante la sfida tra Donald Trump e Hillary Clinton, questo schema si è tradotto nella focalizzazione sugli Stati della Rust Belt, l’America nord-occidentale dove il candidato repubblicano ha vinto la corsa alla Casa Bianca, coinvolgendo i lavoratori del settore manifatturiero, spaventati dalla crisi occupazionale, e raffreddando il sostegno all’avversaria da parte delle comunità nere e LGBT.
Le campagne di comunicazione su Facebook sarebbero quindi efficaci nel modificare l’entusiasmo per una convinzione già stabilita, non nel cambiarla. La Kaiser ha una vocazione difficilmente eguagliabile per il travisamento e la distrazione, ma sulla difficoltà di inquadrare i veri effetti dei social media si trova in buona compagnia. Il 6 luglio 2021 la rivista PNAS ha pubblicato un saggio firmato da 17 ricercatori di biologia, ecologia e antropologia, che definiscono lo studio dell’impatto di larga scala delle tecnologie sulla società come una crisis discipline, ovvero come un ambito di indagine paragonabile a quello che viene adottato per salvaguardare alcune specie in via di estinzione, o per prevenire gli effetti peggiori dei cambiamenti climatici. Gli autori denunciano il fatto che le piattaforme digitali innescano processi di gestione del comportamento collettivo, ma mancano conoscenze di dettaglio sui meccanismi che mettono in opera il controllo, e metodi di misurazione della loro efficacia.
Le preoccupazioni dei ricercatori sono collegate a fenomeni di massa come il movimento complottista QAnon, nato nella bacheca del forum 4chan.org e rilanciato sui social media americani. Dall’ottobre 2017 una porzione sempre più ampia di cittadini Usa, di orientamento conservatore, vive in un mondo parallelo, con una storia elaborata da personaggi la cui identità rimane nascosta sotto i nickname di un gioco di ruolo disputato su varie piattaforme online. L’esercizio ludico consiste nella ricerca e nella sovrainterpretazione dei simboli che sarebbero cifrati nelle esternazioni dell’allora presidente Trump, nelle immagini dei politici divulgate dai giornali e dalle televisioni, nelle «soffiate» su presunti documenti segreti della CIA: il senso che viene rintracciato allude ad un conflitto sotterraneo tra le forze del bene e le insidie allestite da poteri forti che manovrano gli esponenti del Partito Democratico, i giornalisti delle testate più autorevoli del mondo, molte celebrità dello spettacolo, al fine di soggiogare il popolo americano e di imporre il dominio dei malvagi sull’intero pianeta. Gli avversari di Trump sono anche accusati di tutte le forme di empietà che René Girard (1982) ha rubricato tra i marchi del capro espiatorio, rintracciandoli in una narrativa culturale molto ampia, dai miti classici fino alle persecuzioni medievali: pedofilia, uccisione di bambini, cannibalismo, commercio con il demonio.
3 Mondi possibili e realtà aumentata
Le notizie che circolano di più e meglio sono una struttura coerente che forma un mondo abitabile, anche quando la sua trama è un cartone animato per bambini come QAnon. I Sofisti non arrivavano fino a questo punto; secondo Aubenque (1962) potrebbero averlo fatto Platone e Aristotele. Esiste un mondo possibile popolato dalle migliaia di persone che sciamano ai raduni di QAnon, dalle centinaia di migliaia che vedono e condividono i post con il suo hashtag, dai milioni che seguono i profili da cui vengono pubblicate le sue dichiarazioni. Per lo più le informazioni circolano sotto forma di memi (come accade ormai ovunque, dentro e fuori le campagne elettorali): post che mostrano un design perfetto per diffondersi senza attriti, non subire modifiche nel corso dei passaggi, sedurre l’immaginario e non pretendere nessuno sforzo di lettura.
La calata barbarica sul Campidoglio del 6 gennaio 2021, che si proponeva di impedire la ratifica da parte del Congresso dell’elezione di Joe Biden, è stata orchestrata da migliaia di account collegati a QAnon su Twitter (Hamilton, 2021); ma già il 4 dicembre 2016 un ventottenne della North Carolina si era pesentato alla pizzeria Comet Pong Pong di Washington per fucilare di persona i Democratici che (nel suo mondo) vi tenevano segregati bambini innocenti. Pizzagate è l’etichetta di un complotto, parallelo a Qanon, che mostra come la realtà online sia da molto tempo debordata fuori dagli schermi dei computer, trasformando i software dei forum dei fandom in hardware, nella realtà aumentata in cui vivono i fan stessi (in questo caso quelli di Trump). Quando John Austin (1962) spiegava «come fare cose con le parole», certo non immaginava che le narrazioni intessute da un gioco di ruolo avrebbero assunto il potere performativo di prescrivere una strage, o che gli storytelling del fandom di un presidente avrebbero ordito un colpo di stato in formato carnevale. In fondo, ogni epoca ha le talpe e le rivoluzioni che si merita: ad Atene sono toccati Platone e Pericle, a noi la Kaiser e lo Sciamano.
Meditate gente, meditate.
Nello specchio dell’Intelligenza Artificiale - The Eye of the Master
Specchi
Con consueta indiscrezione Oscar Wilde rivela che Dorian Gray si è immunizzato dai sintomi dell’invecchiamento e del degrado morale della sua condotta, proiettandone i sintomi su un ritratto che custodisce in soffitta. Solo puntando lo sguardo sul dipinto è possibile scorgere la verità che l’aspetto del personaggio sta mascherando. Cosa vediamo quando fissiamo gli occhi sull’intelligenza artificiale, che in qualche modo abbiamo costruito come un ritratto tecnologico della nostra umanità? Le scienze cognitive e gran parte delle pubblicazioni divulgative affermano che i dispositivi informatici riflettono la forma della nostra mente, anche se ancora in modo parziale e talvolta alterato. Nei computer riverbera la verità dello spirito, anche se ancora solo per speculum et in aenigmate, un po’ come secondo Agostino di Ippona e Paolo di Tarso la nostra esperienza ci permette di scorgere il volto di Dio in uno specchio, non ancora faccia a faccia – con tutte le contraffazioni che ai tempi dell’impero romano le superfici riflettenti praticavano sulle immagini.
Ma è possibile che nell’intelligenza artificiale si mostri quello che il lavoro collettivo della storia della tecnologia vi ha introdotto in fase di progetto e di sviluppo, più che la struttura o le funzioni della mente nella loro presunta universalità e immutabilità. La tesi che Matteo Pasquinelli dimostra in The Eye of the Master rende omaggio all’evidenza che nei dispositivi informatici troviamo quello che ci abbiamo messo più che quello che siamo, in una prospettiva che ha il pregio di muoversi in direzione opposta all’opinione comune, e con una strategia di argomentazione tutt’altro che triviale. I passaggi focali della sua ricostruzione sono due.
Ragazze che contano
Il primo si colloca all’origine della storia dell’informatica, o comunque in uno dei momenti considerati come essenziali per la nascita della disciplina: qui Pasquinelli sfida il presagio di noia dei lettori esperti, soffermandosi sugli studi condotti nella prima metà dell’Ottocento dal matematico Charles Babbage per la realizzazione della «Macchina Differenziale» (ed esponendo me ora allo stesso rischio). Il dispositivo non è mai stato portato a compimento, e si distingue dai computer progettati e costruiti nel Novecento per il fatto che non prevede una distinzione tra hardware e software: la macchina, anche nella sua veste definitiva, sarebbe stata in grado di processare un solo programma – quello del calcolo delle tavole logaritmiche. Babbage ha anche elaborato i piani per una «Macchina Analitica», che avrebbe potuto eseguire una pluralità di compiti diversi, ricorrendo a schede meccaniche paragonabili a quelle utilizzate nei telai Jacquard per l’esecuzione dei ricami. In questo caso però la pianificazione non ha condotto nemmeno al prototipo con azionamento manuale, che invece è stato messo a punto per la Macchina Differenziale.
Il primo progetto è stato sollecitato da esigenze commerciali e militari, ottenendo anche un finanziamento pubblico di 1.500 sterline: le tavole logaritmiche sono essenziali per il tracciamento delle rotte, e sono state quindi uno strumento fondamentale per la solidità dell’impero coloniale costruito dagli inglesi fino dal Settecento. Il procedimento seguito da Babbage, da cui discende la tecnica moderna della programmazione, si fonda sulla nozione di divisione del lavoro divulgata da Adam Smith cinquant’anni prima e approfondita in due direzioni.
La prima è quella della riduzione delle operazioni di calcolo ai passaggi meccanici di cui sono composte. Turing ripete lo stesso esercizio più di un secolo dopo, quando in piena Seconda Guerra Mondiale elabora il modello matematico per decrittare i messaggi in codice della marina tedesca. Computer ai tempi di Babbage, e ancora ai tempi di Turing, non è il nome di una macchina, ma l’etichetta di una professione esercitata per lo più da ragazze, che eseguono lunghe sequenze di calcoli meccanici in cui sono stati segmentati algoritmi predisposti da ingegneri e da matematici, per la misurazione di rotte, di distribuzioni statistiche, ecc. La riduzione di questa varietà di competenze a singoli passaggi automatici permette di organizzarli in una macchina, che quindi non è un oggetto ma la cristallizzazione di una configurazione di relazioni sociali e della divisione del lavoro che la governa.
La seconda direzione proviene dagli studi di Babbage in ambito di management aziendale, e dalla sua conapevolezza che la divisione del lavoro permette di calcolare il costo di ogni fase della produzione, e di abbatterlo attraverso l’assegnazione dei compiti più semplici a personale non qualificato, o a macchine che lo rimpiazzino. Babbage non coincide con l’immagine di apostolo dalla purezza della curiosità scientifica che l’agiografia dipinge da sempre, né è stato una figura isolata nella sua austerità accademica – né la sua invenzione è neutrale da un punto di vista morale e politico. Il computer cristallizza la piramide di competenze e le prestazioni dei matematici, degli ingegneri, delle signorine calcolatrici, riflettendo le gerarchie sociali e le strutture etiche che ne governano la divisione del lavoro: la macchina non è moralmente meno compromessa del ritratto di Dorian Gray.
Autonomia, parzialità e fallibilismo
L’ordinamento gerarchico piramidale della cultura industriale si rispecchia nella tecnica di programmazione inaugurata da Babbage, che implementa una struttura di comando verticale in cui l’ingegnere del software definisce tutte le fasi di elaborazione, e i processi le eseguono in modo automatico. La società contemporanea non può essere controllata nello stesso modo, a causa della complessità delle interazioni, e del livello di distribuzione e di autonomia degli agenti coinvolti. I freelance che lavorano con il coordinamento delle imprese della gig economy, come gli autisti di Uber o i rider di Glovo, i creatori di contenuti che pubblicano sui social media, i webmaster che producono le pagine digitali indicizzate da Google, gli attori e i prodotti del mercato finanziario globale, sono alcune espressioni della mereologia tra organicità e frammentazione locale del mondo contemporaneo. I soggetti che lo abitano dispongono sempre di una conoscenza parziale dell’ambiente in cui operano, e sviluppano una comprensione della realtà che è stimata per congettura, con rappresentazioni che devono essere aggiornate o rivoluzionate sulla base dell’esperienza.
Pur senza approfondire il modo in cui funzionano le intelligenza artificiali costruite con reti neurali, è possibile osservare che, dai primi esperimenti del Perceptron di Frank Rosenblatt nel 1957 alle attuali AI generative trasformative, i principi essenziali rimangono due: ogni unità di calcolo, ogni «neurone», accede ad una quantità di informazione limitata, che può essere persino sbagliata; il software nella sua totalità dispone di una rappresentazione statistica complessiva del fenomeno processato, in cui si bilanciano gli output di ogni «cellula» di calcolo. La natura probabilistica del risultato deriva dall’autonomia delle singole unità di processamento, e dall’adeguamento per tentativi ed errori con cui la macchina interagisce con l’ambiente: se la risposta esterna è negativa, il sistema rimodella la propria configurazione per migliorare l’output. Il secondo passaggio strategico dell’argomentazione di Pasquinelli consiste nella ricostruzione del debito che lega il progetto di Rosenblatt a The Sensory Order (1952) di Friedrich von Hayek. In questo testo l’autore proietta le tesi economiche e sociali del neoliberalismo – di cui è uno dei padri fondatori, insieme a von Mises e a Schumpeter – sul dominio della psicologia connessionista: il modello di apprendimento fondato sui principi di collegamento in rete dei neuroni corrisponde all’autonomia degli individui economici come agenti dotati di conoscenza limitata del mercato, e del sistema sociale come equilibrio tra le rappresentazioni probabilistiche e congetturali dei soggetti. L’assunto di una conoscenza completa delle necessità e delle transazioni sociali non è reputato solo impossibile, ma condannato come moralmente deprecabile. Il ritratto insegna a Dorian Gray non solo cos’è diventato, ma anche che è giusto che sia così.
Pasquinelli riprende il metodo e l’orientamento della scuola del Max Planck Institute di Berlino, con la capacità di rendere perspicuo il radicamento dei paradigmi tecnologici e di quelli scientifici nelle condizioni politiche e sociali in cui hanno visto la luce. Sarebbe stato interessante un approfondimento del modo in cui l’intelligenza artificiale di ultima generazione sta riplasmando l’ambiente materiale in cui è attiva, e la società che la circonda. Se c’è qualcosa di vero nel fatto che nella tecnologia possiamo osservare anche ciò che siamo, oltre a quello che ci abbiamo messo, è perché noi stessi siamo rimodellati dagli artefatti che produciamo: nella tecnica ritrattiamo in continuazione ciò che l’essenza della nostra umanità è stata per i nostri predecessori: eroismo aristocratico, telescopio eidetico, anima immortale, monade rappresentativa, macchina a stati finiti, rete connettiva. E ora?