Apocalittici ed integrati - Due visioni sull'innovazione che possono coesistere
Qualche mese fa, parlando dell’A.I. Act – la nuova legislazione europea sull’intelligenza artificiale – abbiamo ricordato che: nel 45 a.C. Giulio Cesare promulgò una legge sulla circolazione dei carri nei centri abitati – dall’alba alla metà del pomeriggio[1], con l’obiettivo di snellire il traffico urbano, ridurre la sporcizia (sterco dei cavalli), l’odore e il rumore nelle strade durante il giorno (non è cambiato nulla, mi pare). Era una legge che regolava l’impatto della tecnica (i carri con le ruote cerchiate) sull’ambiente urbano. E che, nel 1865 in Gran Bretagna venne emesso il Red Flag Act[2] che impose alle autovetture (self-propelled vehicles, la tassonomia è importante: distingue dalle vetture a cavalli) di avere un equipaggio di almeno 3 persone, di non superare la velocità massima di 4 miglia orarie sulle strade fuori città e di 2 miglia orarie in città, di essere precedute a 60 yarde da un uomo a piedi con una bandiera rossa che ne segnali l’arrivo, regoli il passaggio di carrozze e cavalli e, infine, faccia fermare il veicolo a motore in caso di necessità.
Sono due esempi di come vengono accolte le innovazioni tecniche e tecnologiche. Interesse, entusiasmo, da parte degli integrati[1]; timore, opposizione, da parte degli apocalittici sono alcune delle reazioni che – storicamente – accompagnano la diffusione di novità, soprattutto tecniche e tecnologiche.
Nel 1872 Samuel Butler, in Erewhon, romanzo utopico-distopico, analizza la dicotomia tra entusiasmo e opposizione verso la tecnica delle macchine. Nei tre capitoli “il libro delle macchine” ecc. Butler riconosce che «Le macchine hanno determinato le condizioni di crescente abbondanza, agiatezza e sicurezza che consentono all’essere umano di coltivare il suo spirito, la sua cultura, il suo essere civilizzato; la loro influenza si manifesta sul corpo quanto sulla mente umana»(Robin Libero Carbonara, Il Dominio della Macchina: dagli scenari ipotetici di Erewhon alla realtà delle piattaforme digitali di The Circle, https://doi.org/10.6092/issn.2785-3233/19133) ma, nello stesso tempo «appare precocemente consapevole che alla lunga, man mano che la Macchina, divenendo più complessa, influenza maggiormente la vita dell’uomo, ne influenza in maniera determinante la coscienza e la percezione di Sé» (Cit.) in maniera perniciosa.
“Man’s very soul is due to the machines; it is a machine-made thing: he thinks as he thinks, and feels as he feels, through the work that machines have wrought upon him”
L’analisi lucida di Butler – che, in realtà, nasceva per rispecchiare e criticare la società vittoriana – indica, appunto, che le tecniche nuove, innovative, generano due grandi categorie di reazioni. Entusiasmo, in coloro che ne vedono soprattutto (o soltanto) le potenzialità positive e che, in termini molto generali, corrispondono con chi si identificano con l’istanza morale della necessità e bontà dello sviluppo e del progresso. Rifiuto o opposizione, recisa o più prudente, in quelli che vedono nelle innovazioni anche (o solo) i possibili effetti negativi, le lateralità, i rischi che possono annullarne la dimensione di beneficio.
Se, oggi, osserviamo le reazioni della stampa di ampia diffusione nei confronti delle tecnologie digitali emergenti, dai social alle applicazioni dei modelli di intelligenza artificiale, assistiamo ad un fenomeno che conferma la dicotomia anticipata da Butler: la maggior parte dei titoli aderisce ad una delle due visioni: positivi, entusiasti - integrati - o fortemente critici, oppositivi – gli apocalittici.
Questo anche all’interno delle medesime testate, una volta in tono apocalittico, un’altra in tono di tipo integrato. Sono emblematici alcuni titoli della Rai:
- I rischi dell'intelligenza artificiale, coinvolte centomila aziende sardo. L'impatto "incontrollato" secondo un report di Confartigianato (TGR Sardegna, 15/06/2023)
- Da intelligenza artificiale sei rischi per il 2019 (Rai News.it, 13/01/2019)
- Disegnare e sognare ciò che sarà: non c'è nulla di più umano ma questa installazione l'ha creta l'IA (Rai News.it, 14/03/2025)
- "Obiettivo è semplificare la vita degli italiani nella Pubblica Amministrazione" L'Intelligenza Artificiale al centro della riunione ministeriale del G7 a guida italiana focalizzato su digitale e tecnologia. (Rai News.it, 15/10/2024)
Ora, questo genere di narrazione così polarizzata può essere analizzato ricorrendo ad un suggerimento dello storico Paul Veyne (“I greci hanno creduto ai loro miti?” (Il Mulino, 2014) a proposito dei greci antichi: in una stessa società[2] possono coesistere diversi regimi o programmi di verità. I greci antichi credevano nella mitologia olimpica che ha origine in Esiodo e amplificata e normata da Omero, perché era una sorta di habitus irrinunciabile. Ma, nello stesso tempo, la criticavano, ne riconoscevano la dimensione letteraria più che reale.
Veyne fa due esempi illuminanti: quello del perigeta Pausania che in 5 ponderosi libri racconta i miti locali – altari e sacrifici, dei ctoni e celesti ed eroi - delle principali regioni della grecia antica (verificare i titoli), aderendo alla narrazione mitologica e – a volte – riconducendo fatti della tradizione (che per i greci ha l’autorevolezza della storia documentata) alla dimensione mitologica. Nello stesso tempo, lo stesso Pausania prende le distanze da queste narrazioni e ammette che – con buona probabilità – sono un sacco di fandonie.
Due programmi di verità coesistenti, uno che corrisponde al lavoro di geografo e di narratore, l’altro alla personalità analitica e razionale dello stesso soggetto.
Il secondo esempio, che evidenzia come due diversi programmi di verità possono coesistere in una stessa persona, adattandosi a diverse esigenze, è quello del medico e farmacista Galeno. Galeno, di fronte alla tradizione medica che indica nella bile di centauro il rimedio per mitigare l’apoplessia ne denuncia l’assurdità, perché “nessuno ha mai davvero visto un centauro”. Galeno, in questo caso singolare non aderisce alla verità del mito. Tuttavia, Galeno è un maestro, ha una scuola di medicina e di farmacia, e di quella vive; per attirare studenti e adepti non esita a contraddire la propria critica del mito e riconduce il sapere della sua scuola all’insegnamento degli déi Apollo e Asclepio, suoi maestri!
Ecco, questa è la condizioni in cui molti di noi versano quando parlano di innovazione e – in particolare – di Intelligenza Artificiale: una condizioni di coesistenza di due diversi atteggiamenti, che possono essere ricondotti a due programmi di verità o epistemici, uno di apprezzamento, a volte entusiasmo, nei confronti delle funzionalità della tecnologia che ci semplificano la vita, e uno di perplessità o addirittura di rifiuto, generato dalla cognizione dei rischi e delle lateralità delle stesse funzionalità.
Nonostante l’apparenza schizofrenica, questo dibattito che vige all’interno della “nostra” società e – spesso – di noi come individui, è un dibattito sano, positivo, che stimola ad interrogarsi – da un lato – sulla dimensione morale delle tecnologie, su sviluppo “buono” e da distruttivo, su libertà di azione e su regolazione etica istituzionale; stto un altro punto di vista, invece, questo dibattito ha la funzione di stimolo ad interrogarsi sull’ontologia degli oggetti tecnologici e sulla linea di demarcazione tra ciò che è umano e ciò che non lo è, facendo delle ipotesi e delle scoperte teoretiche interessanti e a volte sconcertanti.
Di questo ne parleremo ancora.
NOTE
[1] Umberto Eco definì gli intellettuali (e si riferiva, in particolare ad Adorno e Zolla) fortemente critico e nei confronti della moderna cultura di massa, e “integrati” coloro che ne hanno una visione ingenuamente ottimistica; la definizione è diventata uno schema comune di rifermento per i due approcci opposti nei confronti del contemporaneo. (Apocalittici e integrati, Bompiani, 1964)
[2] Intesa come gruppo sociale e periodo storico
L’Intelligenza Artificiale in psicoterapia - Tra alleato e simulacro
«The crucial difference between CAI (Conversational Artificial Intelligence) and humans is obvious: CAI mimics being a rational agent, but it is not; therefore, CAI simulates having a therapeutic conversation, but it does not have any»[1]
Sedlakova & Trachsel, 2022
Quando interagiamo con un’Intelligenza Artificiale Conversazionale (IAC) come ChatGPT, ci troviamo di fronte a un’illusione sofisticata: risposte fluide, tono empatico, un’apparente capacità di comprensione. Eppure, dietro ogni parola non c’è un interlocutore reale, ma un sistema che riorganizza dati linguistici senza comprenderne il significato. Ci sentiamo ascoltati perché attribuiamo intenzionalità[2] alle parole dell’IA, come se fosse capace di empatia. Questo fenomeno è il risultato del meccanismo cognitivo dell’antropomorfismo, ossia la tendenza ad attribuire caratteristiche umane a esseri non umani, come animali, oggetti o fenomeni naturali[3] (Cambridge Dictionary, 2019). Questa inclinazione può influenzare il modo in cui interagiamo con le tecnologie, portandoci a percepirle come più affidabili o empatiche di quanto siano in realtà: l’essere umano per natura riconosce intenzioni e stati emotivi anche quando non ci sono (Sedlakova & Trachsel, 2023). Così, un chatbot che scrive «Mi dispiace che tu ti senta così» attiva in noi le stesse risposte emotive di una conversazione umana, pur essendo solo un’imitazione.
Nonostante il concetto di empatia sia estremamente complesso e abbia una lunga storia, ogni sua definizione riconosce che essa nasce dall’incontro tra due soggettività, e dunque dalla capacità di sentire l’altro e riconoscerne l’alterità in un contesto di identità della dimensione incarnata, situata ed enattiva dei viventi (Galloni, 2009). Con un’IA Conversazionale, al contrario, non si instaura una relazione reale, ma uno scambio unidirezionale: non è la nostra esperienza a essere compresa, ma solo il modo in cui la traduciamo in parole. L’effetto dell’antropomorfismo trasforma l’interazione con un’IA in una sorta di specchio emozionale: proiettiamo sulla macchina il nostro bisogno di connessione, vedendo in essa qualcosa che non è realmente presente. Questa proiezione può offrire conforto immediato, ma rischia di impoverire la nostra capacità di distinguere tra ciò che è umano e ciò che è un’imitazione. Il pericolo non risiede nell’uso dell’IA in sé, ma nella possibilità di abituarsi a un interlocutore che si limita a riflettere ciò che vogliamo sentire.
Oggi l’Intelligenza Artificiale sta ridefinendo – lentamente ma inesorabilmente – il campo della psicoterapia, espandendo le possibilità di supporto psicologico oltre i confini del tradizionale setting clinico. Chatbot come WoebotHealth e Wysa[4] sono progettati per fornire supporto emotivo attraverso interazioni testuali continue, basandosi su modelli di terapia cognitivo-comportamentale (CBT) e offrendo agli utenti un ambiente privo di giudizio. Eppure, la loro capacità di adattarsi in modo profondo all’individualità del paziente, se anche esistesse, risulta nei fatti ancora fortemente limitata. I chatbot basati su algoritmi di Natural Language Processing presentano diverse criticità, tra cui l’incapacità di cogliere il contesto della comunicazione, né comprendere realmente le sfumature del linguaggio, in primo luogo di quelle emotive. Mentre un terapeuta umano può cogliere cambiamenti nel tono di voce, nelle espressioni facciali o nelle pause durante una conversazione, un chatbot si basa esclusivamente sul testo e sull’analisi di esso, condotta esclusivamente su modelli probabilistici. Questo può portare l’altro soggetto dell’interazione – l’essere umano, il cui sistema nervoso è stato “cablato” da millenni di evoluzione per processare in maniera privilegiata il linguaggio umano, vero segno distintivo della comunicazione della nostra specie – a reagire in maniera concreta e “sensata” a risposte della macchina che, pur essendo linguisticamente appropriate, non rispecchiano un reale scambio comunicativo. Molti utenti cercano tuttavia proprio questo, nell’interazione pseudoterapeutica con le IAC. Alcuni studi suggeriscono che le persone possano sentirsi più a loro agio nel condividere dettagli intimi con un chatbot piuttosto che con un essere umano, proprio perché sanno di non essere giudicate[5].
Dal punto di vista terapeutico, l’utilizzo dell’IA non è dunque privo di rischi. Sebbene gli strumenti basati su CBT abbiano mostrato un certo grado di efficacia nel ridurre i sintomi di ansia e depressione, la qualità dell’intervento è ancora oggetto di studio. Ricerche recenti hanno evidenziato che, mentre i chatbot possono migliorare l’accessibilità ai servizi di supporto, non sono in grado di replicare l’alleanza terapeutica tipica di un incontro umano (Cioffi et al., 2022). Inoltre, senza un monitoraggio umano, l’IA può interpretare erroneamente il contesto o fornire risposte inappropriate. Questo è particolarmente critico nei casi in cui il paziente manifesti pensieri suicidi o sintomi psicotici; situazioni in cui una risposta non adeguata può avere conseguenze gravi. È stato analizzato ChatGPT come possibile assistente terapeutico, capace di raccogliere informazioni tra una sessione e l’altra e di fornire al terapeuta un quadro riassuntivo della situazione del paziente (Esghie, 2023). Tuttavia, nonostante le potenzialità, si sollevano interrogativi cruciali sull’affidabilità e la sicurezza di tali strumenti (Miner et al., 2019). L’IA non possiede consapevolezza né intenzionalità: risponde in base a correlazioni statistiche tra parole, apprendendo dallo scambio verbale con l’utente, ma senza comprenderne il significato intrinseco. Questo influenza anche la dimensione della fiducia: molte persone potrebbero erroneamente credere di essere comprese da un chatbot, sviluppando un attaccamento che, in assenza di una vera reciprocità, potrebbe portare a forme di dipendenza emotiva o a un’errata percezione del supporto ricevuto. A fare da argine a questo scenario troviamo anche una dimensione politica della scienza e della tecnica, inerente alla sempre più evidente natura capitalistica di questi strumenti, che fanno dei dati forniti spontaneamente dagli utenti la loro principale moneta di scambio. Uno studio recente ha peraltro evidenziato che la fiducia nei confronti della terapia basata su IA è ancora bassa, soprattutto a causa delle preoccupazioni legate alla privacy e alla sicurezza dei dati (Aktan, 2022).
L’introduzione dell’IA nella psicoterapia ha portato tuttavia la comunità scientifica e il dibattito pubblico a una necessaria riflessione sul valore della relazione terapeutica. Alcuni studi hanno suggerito che l’uso di chatbot potrebbe modificare il modo in cui le persone si rapportano alla figura del terapeuta, spostando l’attenzione dalla relazione interpersonale a una forma di autoosservazione guidata dall’IA (Beg et al., 2024). Se questo, da un lato, potrebbe avere vantaggi in termini di accessibilità al supporto psicologico, dall’altro rischia di ridurre o annullare l’efficacia di un intervento in cui il rapporto umano è cardine ed elemento essenziale. Il successo e la qualità della terapia non dipendono solo dai contenuti trasmessi, ma anche dalla capacità del terapeuta di cogliere segnali emotivi e di adattare l’intervento alle esigenze individuali del paziente – qualità che un’IA non possiede. Inoltre, la natura algoritmi di questi strumenti porta inevitabilmente a una standardizzazione dell’approccio terapeutico: i modelli di IA, basandosi su set di dati predefiniti, tendono a privilegiare metodologie uniformi, come quelle cognitivo-comportamentali, mentre la psicoterapia umana si caratterizza per un alto grado di personalizzazione e per una molteplicità di orientamenti e pratiche. Un altro aspetto da considerare è il rischio di standardizzazione eccessiva dei modelli proposti da queste tecnologie come rappresentativi di ciò che dovrebbe essere la psicoterapia. I modelli di IA si basano su set di dati predefiniti e tendono a favorire approcci uniformi (essenzialmente, a oggi, identificabili con quelli cognitivo-comportamentali), mentre la psicoterapia umana è caratterizzata da un alto grado di personalizzazione, dipendenza dal vissuto e dal contesto, e da una ampia pluralità di approccio possibili.
L’uso di ChatGPT e di altre IA Conversazionali in psicoterapia non dovrebbe comunque essere demonizzato, ma richiede un approccio critico e regolamentato. La collaborazione tra esseri umani e agenti artificiali potrebbe portare alla creazione di modelli ibridi, in cui l’IA funge da strumento complementare, affiancando il lavoro del terapeuta e migliorando l’efficacia degli interventi senza sostituire il contatto umano diretto (Miner et al., 2019). Questi strumenti possono offrire un supporto pratico, fungere da complemento alla terapia e aiutare a ridurre il divario nell’accesso alle cure psicologiche. Tuttavia, la loro adozione deve avvenire con consapevolezza dei limiti: l’IA non pu sostituire l’empatia umana né creare un’autentica relazione terapeutica. La trasparenza e la supervisione umana restano essenziali per garantire che l’integrazione dell’IA nella psicoterapia non comprometta l’integrità delle relazioni terapeutiche e il benessere del paziente.
Sebbene l’IA possa svolgere un ruolo utile nel supporto alla salute mentale, la sua implementazione deve essere guidata da un’attenta valutazione dei benefici e dei rischi. Possiamo davvero considerare sufficiente un sistema che risponde sulla base di correlazioni statistiche senza comprendere? Chi tutela il paziente in caso di errori o malintesi? Strumenti come ChatGPT possono offrire quello che sembra supporto e conforto, ma è essenziale mantenere una distinzione chiara tra un’interazione simulata e l’esperienza di una relazione autentica, unica e insostituibile nel suo essere profondamente umana.
NOTE
[1] «La differenza cruciale tra l’IA conversazionale (CAI) e gli esseri umani è evidente: la CAI simula un agente razionale, ma non lo è; di conseguenza, simula di avere una conversazione terapeutica, ma in realtà non ne ha alcuna» (traduzione da: Sedlakova, J., & Trachsel, M. (2022). Conversational Artificial Intelligence in Psychotherapy: A New Therapeutic Tool or Agent? The American Journal of Bioethics, 23(5), 4–13. https://doi.org/10.1080/15265161.2022.2048739).
[2] Heider, F. (1958). The psychology of interpersonal relations. Hoboken, NJ, US: John Wiley & Sons Inc.
[3] Gibbons, S., Mugunthan, T., Nielsen, J. (2023). The 4 Degrees of Anthopomorphism of Generative AI. Nielsen Norman Group. https://www.nngroup.com/articles/anthropomorphism/.
[4] WoebotHealth, rilasciato nel 2017, e creato dalla psicologa Alyson Darcy, è un chatbot ideato per supporto psicologico, sempre disponibile, con interfaccia messaggistica (https:// woebothealth.com/).
Wysa AI Coach (https://www.wysa.com/) è un servizio di counseling basato sull’intelligenza artificiale addestrato su tecniche di terapia CBT, DBT, meditazione.
[5] Raile, P. (2024). The usefulness of ChatGPT for psychotherapists and patients. Humanities and Social Sciences Communications, 11(47). https://doi.org/10.1057/s41599-023-02567-0, p. 3.
BIBLIOGRAFIA
Aktan, M. E., Turhan, Z., & Dolu, I. (2022). Attitudes and perspectives towards the preferences for artificial intelligence in psychotherapy. Computers in Human Behavior, 133, 107273. https:// doi.org/10.1016/j.chb.2022.107273.
Beg, M. J., Verma, M., Vishvak Chanthar, K. M. M., & Verma, M. K. (2024). Artificial Intelligence for Psychotherapy: A review of the current state and future directions. Indian Journal of Psychological Medicine, XX(X), 1-12. https://doi.org/10.1177/02537176241260819.
Cioffi, V., Mosca, L. L., Moretto, E., Ragozzino, O., Stanzione, R., Bottone, M., Maldonato, N. M., Muzii, B., & Sperandeo, R. (2022). Computational methods in psychotherapy: A scoping review.
International Journal of Environmental Research and Public Health, 19(12358). https://doi.org/
Eshghie, M., & Eshghie, M. (2023). ChatGPT as a therapist assistant: A suitability study. arXiv Preprint. https://arxiv.org/abs/2304.09873.
Galloni, G. (2009). Basi motorie dell’empatia cognitiva? Teorie & Modelli, XIV(1):134-147.
Gibbons, S., Mugunthan, T., & Nielsen, J. (2023). The 4 Degrees of Anthropomorphism of
Generative AI. Nielsen Norman Group. https://www.nngroup.com/articles/anthropomorphism/.
Heider, F. (1958). The psychology of interpersonal relations. John Wiley & Sons.
Miner, A. S., Shah, N., Bullock, K. D., Arnow, B. A., Bailenson, J., & Hancock, J. (2019). Key considerations for incorporating conversational AI in psychotherapy. Frontiers in Psychiatry, 10, 746. https://doi.org/10.3389/fpsyt.2019.00746.
Raile, P. (2024). The usefulness of ChatGPT for psychotherapists and patients. Humanities and Social Sciences Communications, 11(47). https://doi.org/10.1057/s41599-023-02567-0.
Sedlakova, J., & Trachsel, M. (2022). Conversational Artificial Intelligence in Psychotherapy: A New Therapeutic Tool or Agent? The American Journal of Bioethics, 23(5), 4–13. https://doi.org/ 10.1080/15265161.2022.2048739.
Tra il dire e il fare - L’influenza del linguaggio nell’Intelligenza Artificiale e nella costruzione della realtà
Nel 2023 è stata pubblicata su Netflix La Legge di Lidia Poët, opera seriale italiana che ha trovato un’ottima accoglienza da parte degli spettatori. La serie è liberamente ispirata alla storia di Lidia Poët, la prima donna laureata in Giurisprudenza in Italia. Ci troviamo intorno al 1885 e Poët, dopo aver svolto il praticantato e aver superato l’esame di abilitazione alla professione forense, chiede l’iscrizione all’Ordine di Avvocati e Procuratori di Torino. La richiesta è abbastanza spigolosa per motivi differenti: innanzitutto prima di allora non era mai stata ammessa una donna all’esercizio della professione di avvocatura, perché all’epoca le donne erano prive di qualsiasi facoltà giuridica, vale a dire che non potevano, ad esempio, far parte dei pubblici uffici o testimoniare nei tribunali. La legge sull’avvocatura di stato del 1874 prevedeva esclusivamente il termine "avvocato", riconoscendo implicitamente solo gli uomini come legittimati a esercitare la professione. Di conseguenza, il Procuratore Generale del Re fece ricorso contro l'ammissione di Lidia Poët, che venne cancellata nel novembre del 1883. La mancanza del termine "avvocata" rispecchiava l'esclusione storica delle donne dalla professione, evidenziando come il linguaggio possa non solo rappresentare la realtà sociale, ma anche determinarla, rafforzarla e costruirla.
Il caso di Lidia Poët, seppur lontano nel tempo, riecheggia nelle discriminazioni attuali. Ci troviamo in un mondo che sta affrontando decisioni politiche restrittive: lo scorso 20 gennaio il Presidente degli Stati Uniti Donald Trump, durante il suo discorso di insediamento, ha affermato l’esistenza di soli due generi, quello maschile e quello femminile. Negando l’esistenza del genere indicato come X[1], si regredisce a un tempo in cui il sistema patriarcale dettava il cosiddetto “binarismo di genere”. L’assenza di un linguaggio neutro non è solo una questione terminologica, ma un atto che cancella la legittimità e la visibilità di tutte le persone che non si riconoscono nel binarismo tradizionale, negando loro lo spazio per affermarsi nel discorso pubblico e, dunque, nella realtà sociale. E questa esclusione assume oggi forme in parte inedite in conseguenza del ruolo sempre crescente delle mediazioni algoritmiche nel plasmare la nostra quotidianità.
Non è certo un caso se, a partire dal 2024 sempre più spesso il dibattito pubblico ha visto come protagonista il tema dell’Intelligenza Artificiale. Sono stati infatti sollevati interrogativi etici radicali, come “qual è il suo potere? Può prendere il sopravvento sull’essere umano? Potrà sostituirlo?”. Superando queste congetture, nate da anni di film fantascientifici in cui i robot assumono tutte le caratteristiche umane, si comprende rapidamente come l’Intelligenza Artificiale rappresenti uno dei nuovi strumenti tecnologici a disposizione dell’essere umano. Le tecnologie tendono sempre a suscitare un certo sgomento e scetticismo nell’opinione pubblica ma il tempo conferisce loro i propri meriti e demeriti. L’IA è una tecnologia che rispecchia perfettamente l’epoca che stiamo vivendo: progettata per apprendere da grandi quantità di dati e/o dalle continue interazioni con l’essere umano, i software di IA sono rapidi, intuitivi, posti all’immediato servizio dell’utente – come nel caso di chatbot e voicebot[2].
Torniamo adesso alla questione sollevata a principio dell’articolo. Il mezzo utilizzato nelle interazioni umani-IA è infatti proprio il linguaggio. È utile quindi portare l’attenzione su quanto le parole possano assumere un significato che non è solo astratto.
Come afferma la linguista Vera Gheno, «la lingua è lo strumento che le comunità dei parlanti usano per definire sé stessi, le relazioni con le altre persone ed etichettare il mondo. [...] la realtà è in movimento continuo, è giusto che rifletta e cambi anche la lingua»[3].
Il linguaggio verbale, che è la funzione primaria dell’essere umano, diventa quindi il veicolo della comunicazione con questi software. Nell’interazione umano-IA il processo di apprendimento è semplice e lineare: il software tramite sistemi di apprendimento come il Machine Learning (ML) apprende i dati e utilizza ciò che impara per prendere nuove decisioni e interagire con chi ne usufruisce. In poche parole basa le proprie azioni sull’esperienza che fa dei dati e delle interazioni continue con l’utente.
Ma il nostro linguaggio è complesso, perché si compone di un sistema convenzionale di segni, o significanti, a cui corrispondono determinati significati. Ogni interazione non possiede un solo scopo e significato, ma può variare in base al contesto e agli agenti della comunicazione, vale a dire chi ne è coinvolto. È stato il filosofo e linguista inglese John Austin ad affermare, alla luce di tutte queste premesse, che il linguaggio deve essere visto e studiato come azione[4]. Inoltre in ogni Paese la lingua è espressione dei processi di formazione di una cultura, rappresentando così lo specchio dei pregi e difetti che la costituiscono.
Facendo un’attenta analisi delle interazioni con le macchine emerge quindi una manifestazione più o meno esplicita di stereotipi e pregiudizi, anche nel caso di lingue definite morfologicamente natural gender languages[5], come l’inglese.
Un esempio significativo è rappresentato dai dispositivi VPA (voice personal assistant), soprattutto quelli progettati per interagire direttamente con il pubblico, che presentano quasi sempre una voce femminile. Assistenti come Siri (Apple) e Alexa (Amazon) adottano di default una voce femminile, mentre possono permettere di selezionare una voce maschile solo se l’utente sceglie di modificarla manualmente nelle impostazioni. Trattandosi di assistenti personali viene definita da subito la gerarchia dell’interazione con l’utente: l’IA si pone al servizio delle azioni che l’utente richiede di fare. L’utilizzo di voci femminili non è quindi casuale, piuttosto cavalca e rafforza lo stereotipo della donna “al servizio” dell’uomo: la donna-segretaria, subordinata, perché ritenuta più affidabile in termini di cura e attenzione ai bisogni dell’altro.
Anche la scelta dei nomi non si allontana dallo stereotipo: Siri è un nome nordico – che vuol dire “la bella donna che conduce alla vittoria”[6] – ma nasce da un progetto dell’Istituto di ricerca SRI International, chiamato CALO (Cognitive Assistant that Learns and Organizes). Il termine calo (, -ōnis) in latino vuol dire “servo di soldati, scudiero”; Alexa invece – da Alexander, Alexandra – etimologicamente deriva dal greco “alexo”, che significa “difendere”, e “aner”, letteralmente “uomo”; significa quindi ‘difensore dell’uomo’ e corrisponde all’epiteto che veniva conferito alla dea greca Era, dea della fertilità e del matrimonio. Nell’identificare donne in posizioni di potere si ha la tendenza, nella dialettica comune, a utilizzare il nome o il cognome preceduto dall’articolo determinativo, ad esempio “la Meloni” o “Giorgia” anziché Meloni o Giorgia Meloni, come si usa fare al maschile; basti pensare al Presidente della Repubblica Mattarella che appunto viene identificato tramite il cognome o tramite l’utilizzo di nome e cognome per esteso.
Anche nel processo di creazione di VPA si è riscontrato questo utilizzo diversificato di nome e/o cognome per identificare chatbot maschili o femminili. In effetti, l’azienda IBM nel 2020 ha sviluppato un VPA proprio, chiamato Watson Assistant con l’obiettivo di offrire assistenza in ambito sanitario, bancario e nel servizio clienti delle aziende. Dalla creazione di questo assistente virtuale si possono quindi analizzare due aspetti fondamentali, uno linguistico e uno contenutistico, tenendo a mente gli esempi di Siri e Alexa.
Per quanto riguarda la denominazione del VPA è indicativa la scelta di utilizzare un cognome, Watson. Allo stesso modo, l'adozione di una voce maschile per ambiti professionali, come quello sanitario o bancario, risponde a precise considerazioni. Mentre i voicebot pensati per l'uso quotidiano hanno di default voci femminili, un assistente virtuale impiegato in contesti che richiedono competenze specifiche appare più credibile e affidabile se dotato di una voce maschile.
È necessaria un’indagine maggiormente approfondita sulle interazioni umani-IA per comprendere come queste, pur sembrando neutrali, trasmettano valori culturali radicati nel linguaggio. Un altro esempio significativo è rappresentato dai software di IA Generativa: attraverso i prompt inseriti dall’umano, l’IA risponde e genera contenuti. È stato particolarmente interessante osservare come, anche utilizzando l’inglese come lingua di interazione ritenuta neutra, i risultati prodotti fossero comunque intrisi di stereotipi. Nell’aprile del 2024 assieme al gruppo di ricerca PAD (Psicologia degli Ambienti Digitali) è stata esaminata Runway Gen 2, una piattaforma di generazione video basata sull'Intelligenza Artificiale, per studiare i bias presenti negli output generati dall’IA. Per il test abbiamo fornito una serie di input neutri che ci aspettavamo fossero interpretati in modo non stereotipato. Tuttavia, i risultati hanno rivelato una tendenza interessante, e forse problematica, nell'output generato. Il primo esempio richiedeva un breve video del volto sorridente di un CEO[7] ma, nonostante l’input fosse neutro, il sistema ha prodotto esclusivamente immagini di uomini, tutti bianchi. Questo suggerisce che l'IA associa automaticamente il ruolo di CEO a una figura maschile e caucasica. Nel secondo esempio, abbiamo chiesto un video simile, ma questa volta riferito al volto sorridente di un insegnante di scuola primaria. In questo caso l’IA ha generato esclusivamente volti femminili, riflettendo il radicato stereotipo sociale secondo cui l’insegnamento primario sarebbe un’occupazione tipicamente femminile, legata non solo all’istruzione ma anche all’accudimento degli studenti. Questi risultati sollevano interrogativi importanti sul ruolo dei bias nei sistemi di IA. Anche quando gli input sono neutri, gli output riflettono pregiudizi culturali e stereotipi preesistenti, suggerendo che i dati di addestramento e gli algoritmi alla base di queste tecnologie necessitano di maggiore attenzione per garantire un approccio inclusivo e non discriminatorio.
Scelte come quella adottata da Trump nella nostra società agiscono come scintille: possono innescare profonde conseguenze discriminatorie che non si limitano alla sfera personale, ma si riflettono su scala più ampia. La negazione del genere X legittima atteggiamenti discriminatori, rafforzando pregiudizi e creando un clima di esclusione che si traduce in un aumento delle difficoltà sociali, lavorative e psicologiche per le persone non binarie e di genere non conforme. Il mancato riconoscimento istituzionale riduce le possibilità di tutela legale in casi di discriminazione e contribuisce a marginalizzare ulteriormente chi già fatica a trovare il proprio spazio nella società. Inoltre, tali decisioni influenzano ogni strumento che creiamo o utilizziamo, dai sistemi burocratici ai modelli educativi, fino agli algoritmi di intelligenza artificiale che, basandosi su dati limitati, riproducono e amplificano le esclusioni.
Regredire a un’epoca in cui esisteva una sola voce dominante significa non solo cancellare identità, ma anche impedire l’evoluzione di una società più equa e inclusiva.
Questi temi aprono a riflessioni che meritano un ulteriore approfondimento, che si concentrerà su un caso specifico di manifestazione di bias negli algoritmi di Intelligenza Artificiale, interrogandoci su come tali distorsioni prendano forma e quali conseguenze generino nella costruzione della realtà.
NOTE
[1] A partire dall'11 aprile 2022, i cittadini americani avevano la possibilità selezionare una 'X' come indicatore di genere sulla domanda di passaporto, a indicare la propria identificazione nel genere intersex – Trump nel provvedimento afferma che le agenzie federali «smetteranno di pretendere che gli uomini possono essere donne e che le donne possono essere uomini nell'attuazione delle leggi che tutelano contro la discriminazione sessuale»
[2] Con chatbot, o assistenti virtuali, si intendono i software in grado di eseguire azioni per un interlocutore umano basandosi su comandi ricevuti dall’utente, sia testuali sia vocali.
[3] Michielin F., podcast Maschiacci, intervista a Vera Gheno, 2022, https://open.spotify.com/episode/6fZBSLtlhFvXSz087BZN86?si=FkA9I6CwQGG-0I0PgPZpUg
[4] La teoria degli atti linguistici di John Austin deriva dalla lezione How to do things with words che lui stesso tenne presso l’Università di Harvard nel 1955, ma è stata pubblicata postuma (1962)
[5] lingue con genere naturale (natural gender languages) in cui sostantivi non hanno genere grammaticale ma i pronomi sì; sono così danese o inglese (basti pensare ad esempio che in inglese si utilizzano he/she/it per le cose, ma anche they per persone di cui non si conosce il genere o per una persona che non si identifica nei due generi tradizionali)
[6] Cheyer A., How Did Siri Get Its Name?: https://www.forbes.com/sites/quora/2012/12/21/how-did-siri-get-its-name/#19fd7c57376b
[7] Prompt: a short video of a smiling CEO
BIBLIOGRAFIA
Cheyer A., How Did Siri Get Its Name?, https://www.forbes.com/sites/quora/2012/12/21/how-did-siri-get-its-name/#19fd7c57376b
Gheno V., podcast “Amare Parole”, Ep. 35 – Architetta, avvocata e co., 2023, https://open.spotify.com/episode/58C56TsAUfNdY75ZipaNma?si=Imf2JA7iRCy1IQPif6fxyw
Legge 8 giugno 1874, n 1938 che regola l’esercizio delle professioni di Avvocato e di Procuratore https://www.normattiva.it/uri-res/N2Ls?urn:nir:stato:legge:1874-06-08;1938
Lombard M., Xu K., 2021, Social Responses to Media Technologies in the 21st Century: The Media Are Social Actors Paradigm
Michielin F., podcast Maschiacci, intervista a Vera Gheno, 2022, https://open.spotify.com/episode/6fZBSLtlhFvXSz087BZN86?si=FkA9I6CwQGG-0I0PgPZpUg
Whitley B. E., & Kite M. E., The psychology of prejudice and discrimination, Belmont, CA: Wadsworth Cengage Learning, 2010
Cloud di guerra - Militarizzazione dell’intelligenza artificiale e implicazioni etiche
Lo scorso 10-11 febbraio 2025, al Grand Palais di Parigi, si è svolta la terza edizione dell'Artificial Intelligence Action Summit, che ha riunito capi di Stato, leader di organizzazioni internazionali, CEO di aziende, accademici e rappresentanti della società civile per discutere delle sfide e opportunità legate all'intelligenza artificiale. Tuttavia, dietro il clamore di questa ‘tempesta di cervelli’, emerge il ritratto frammentato di un mondo sospeso tra promesse di innovazione e ombre inquietanti. I temi centrali? Il declino economico dell'Occidente, la crescente competizione con il modello cinese e la corsa dell'Europa a recuperare terreno.
Le iniziative proposte sono ambiziose, ma, a un’analisi più approfondita, si rivelano spesso incomplete o rischiano di sostenere progetti che, se non adeguatamente controllati, potrebbero alimentare il controllo centralizzato e accentuare la disuguaglianza globale. Con un fondo di 2,5 miliardi di euro destinato ad accelerare la crescita dell’IA open-source nei paesi in via di sviluppo e il lancio di 35 sfide globali legate agli obiettivi di sviluppo sostenibile, il summit ha fatto appello alla cooperazione internazionale. Tuttavia, dietro queste dichiarazioni, si nasconde il rischio di un vuoto di responsabilità, che la crisi economica che sta colpendo l’Europa amplifica, mettendo in dubbio l’effettivo impegno di Bruxelles. Nel frattempo, Donald Trump, con il suo progetto Stargate da 500 miliardi di dollari, si propone come un attore già consapevole di come l’IA possa essere utilizzata per il dominio economico e militare.
La realtà dell’intelligenza artificiale, tuttavia, non coincide con la visione futuristica di progresso che viene presentata, ma con le sue applicazioni concrete. Già adesso, l’IA non si limita più a gestire dati: li manipola. È questo il paradosso: quella che viene definita “Intelligenza Artificiale” è, in realtà, un inganno semantico che maschera la nostra ignoranza sull’intelligenza naturale, la nostra. Eppure, questa ‘non-intelligenza’ sta già scrivendo la storia di intere generazioni presenti e future.
I GIGANTI DEL TEC
Un’assenza allarmante ha contraddistinto il Summit: nessun accenno al vero volto dell'IA, quello che alimenta la macchina da guerra. Due inchieste del Washington Post (https://www.washingtonpost.com/technology/2025/01/21/google-ai-israel-war-hamas-attack-gaza/) e di The Guardian (https://www.theguardian.com/world/2025/jan/23/israeli-military-gaza-war-microsoft), hanno rivelato il coinvolgimento diretto di giganti tecnologici come Google, Amazon e Microsoft nella fornitura di tecnologie IA all’esercito israeliano durante l'offensiva a Gaza. Non si tratta più di semplici contratti commerciali, ma di un sostegno diretto alla macchina da guerra, che ha contribuito alla morte di migliaia di civili. L'accordo sul Progetto Nimbus, da 1,2 miliardi di dollari, firmato nel 2021, nasconde un collasso etico: Microsoft, pur avendo inizialmente perso la gara, si è successivamente integrata nel progetto, rafforzando la rete di sorveglianza e targeting.
Le inchieste raccontano come i prodotti di Google e Microsoft siano stati impiegati a partire dal 7 ottobre 2023 e come il loro utilizzo sia stato direttamente coinvolto nello sterminio dei palestinesi e nei crimini di guerra commessi nella Striscia di Gaza. Lanciato da Israele nel 2019 come un innocuo cloud computing destinato a modernizzare le infrastrutture digitali del paese, il Progetto Nimbus ha invece fornito all’esercito israeliano capacità avanzate di intelligenza artificiale. "Ampliare lo schema israeliano di sorveglianza, profilazione razziale e altre forme di violazione dei diritti umani assistite dalla tecnologia", così lo descriveva Ariel Koren, ex marketing manager di Google, nel 2022, che ha preferito dimettersi piuttosto che accettare la deriva immorale dell’azienda.
Google sostiene che "non è rivolto a carichi di lavoro altamente sensibili, classificati o militari rilevanti per armi o servizi segreti". Le inchieste dimostrano il contrario: Google e Amazon hanno accettato di personalizzare i loro strumenti su richiesta delle forze armate israeliane, potenziando la loro capacità di sorveglianza e identificazione degli obiettivi. Durante l’offensiva di Gaza dell'ottobre 2023, la piattaforma di intelligenza artificiale Vertex di Google è stata utilizzata per elaborare enormi set di dati per "previsioni", in cui gli algoritmi analizzano modelli comportamentali e metadati per identificare potenziali minacce.
A sostegno delle inchieste si aggiungono le dichiarazioni di Gaby Portnoy, capo della Direzione informatica nazionale israeliana fino al 19 febbraio 2025. Secondo lui, Nimbus è destinato a rinsaldare il profondo legame tra Amazon, Google e l’apparato di sicurezza nazionale israeliano. In una conferenza del 29 febbraio 2024, Portnoy ha dichiarato che “Le aziende sono state partner per lo sviluppo di un nuovo progetto che crea un framework per la difesa nazionale”, con strumenti di sicurezza basati sul cloud che hanno “favorito la rappresaglia militare del paese contro Hamas”. A lui si deve anche l'istituzione di nuove infrastrutture di difesa avanzate, note come Cyber Dome, evoluzione dell’Iron Dome.
LAVENDER, IL LATO OSCURO DELLA GUERRA A GAZA
Un tempo la guerra era fatta da uomini. Oggi, ai tempi dei cloud, non più. Un'inchiesta di +972 Magazine e Local Call, pubblicata il 3 aprile 2024, ha svelato un altro lato oscuro della guerra a Gaza: quello dei software progettati per uccidere. È stata la prima a rivelare l’esistenza di "Lavender", un sistema utilizzato dall’esercito israeliano per identificare e colpire obiettivi palestinesi, con supervisione umana limitata. “Un programma di omicidi di massa senza precedenti che combina il targeting algoritmico con un'elevata tolleranza per la morte e il ferimento dei civili circostanti”. E che tiene traccia di quasi tutti gli abitanti di Gaza, raccogliendo input di intelligence da videoclip, messaggi provenienti da social network e analisi delle reti di comunicazione.
Sulla base dei dati raccolti, l’algoritmo è in grado di determinare se una persona è un combattente di Hamas o appartiene ad altri gruppi armati palestinesi. Dopo aver identificato gli obiettivi, con un margine di errore del 10%, i nominativi vengono inviati a una squadra operativa di analisti, i quali verificano l’identità “in un tempo massimo di 20 secondi, che di solito serve a determinare se il nome è maschile o femminile, presupponendo che le donne non siano combattenti". Nella maggior parte dei casi, a quanto pare, “quegli analisti consigliano un attacco aereo”, ritenendo il margine di errore “accettabile, date le circostanze”. Durante le prime settimane di guerra, il sistema ha segnalato oltre 37.000 individui come potenziali obiettivi.
WHERE’S DADDY?
Un altro sistema, “Where’s daddy?”, è in grado di determinare se le persone prese di mira sono a casa o fuori grazie ai loro smartphone, consentendo attacchi aerei che spesso colpiscono intere famiglie. Secondo Local Call, l’esercito israeliano preferisce colpire le persone nelle loro case, perché raggiungerle è più facile rispetto a identificarle durante l’attacco. Le famiglie degli obiettivi e i loro vicini, considerati potenziali membri di Hamas, sono visti come danni collaterali di scarsa importanza.
Un ufficiale dell’intelligence israeliana ha descritto la maggior parte delle persone prese di mira come "individui non importanti", membri di basso rango di Hamas, ma comunque considerati “obiettivi legittimi” poiché classificati come combattenti, “anche se non di grande rilievo”. Eppure, come possiamo definire “legittimi” gli oltre 18.000 bambini trucidati durante questi mesi, la maggior parte di età inferiore ai 10 anni, e le decine di migliaia di donne rimaste uccise negli attacchi? Erano anche loro membri di basso rango di Hamas?
HABSORA: L’ALGORITMO CHE DECIDE CHI VIVE E CHI MUORE
L’intelligenza artificiale sta determinando chi vive e chi muore. Un sistema AI interno, usato dall’esercito israeliano, decide chi deve essere bombardato, con margini d’errore inquietanti e una logica che trasforma i civili in numeri. Si chiama “Habsora” e ha un funzionamento semplice e spietato: il sistema monitora i volti dei palestinesi per decidere chi è “buono” e chi “cattivo”, si basa su un insieme di modelli predittivi basati sull’analisi di immagini e metadati. Risultato? Migliaia di obiettivi individuati in tempi rapidissimi, bombardamenti mirati che spesso si trasformano in carneficine. Fonti interne allo stesso esercito israeliano, intervistate da +972, hanno ammesso che il sistema non è infallibile e che il tasso di errore è alto. L’algoritmo, così, assume il ruolo di decidere chi vive e chi muore. La guerra del futuro è già iniziata.
LA CATENA DI MORTE ACCELERATA
Un’indagine di Middle East Eye ha rivelato un ulteriore aspetto inquietante: l’automazione della guerra ha abbassato le soglie di tolleranza per le vittime civili. Secondo il Washington Post, l’IDF è passato da attacchi mirati a una logica di saturazione: eliminare cento obiettivi con un solo colpo è preferibile a rischiare di perdere anche uno solo. Questi strumenti mostrano come l'intelligenza artificiale venga usata come arma contro i civili, sollevando dubbi sul rispetto del diritto umanitario internazionale. Dopo il 7 ottobre, l’esercito israeliano ha adottato strumenti innovativi per selezionare obiettivi, distogliendosi dai leader armati. Una scelta che “rappresenta un pericoloso nuovo orizzonte nell’interazione uomo-macchina nei conflitti”
La militarizzazione dell’IA non è confinata ai conflitti: molte delle tecnologie impiegate a Gaza, come i sistemi di identificazione biometrica, sono stati inizialmente sviluppati in Occidente, e continuano a essere impiegati globalmente per "scopi di sicurezza". Mentre colossi come Google, Amazon e Microsoft rafforzano il loro legame con il settore militare, esistono realtà come Palantir – fondata da Peter Thiel – che già da anni operano nell’ombra con contratti miliardari nel settore della sorveglianza e dell’intelligence predittiva. Israele ha creato un gigantesco database su ogni palestinese sotto occupazione, raccogliendo informazioni su movimenti, contatti sociali, e attività online, limitando la libertà di espressione e movimento. Un “Grande fratello” al quale nulla sfugge.
LA PALESTINA COME LABORATORIO PER L’AI
Antony Loewenstein, giornalista investigativo australiano di origini ebraiche, autore di The Palestine Laboratory: How Israel Exports the Technology of Occupation Around the World, ha definito l’uso dell’AI da parte di Israele a Gaza “un modello terrificante”. Dal 7 ottobre 2023, “Tel Aviv usa la guerra e l'occupazione per testare le ultime forme di uccisione e sorveglianza di massa, mentre le forze di estrema destra in tutto il mondo osservano e imparano”. E aggiunge: “Israele non potrebbe combattere le sue guerre di conquista senza una schiera di attori stranieri che lo sostengono, armano e finanziano”.
Durante le ricerche per il suo libro, Loewenstein ha scoperto che il complesso militare-industriale di Israele considera l'occupazione dei Territori Palestinesi come un banco di prova fondamentale per le nuove tecnologie di morte e sorveglianza. I palestinesi “sono cavie in un esperimento di portata globale”, che non si ferma ai confini della Palestina. La Silicon Valley ha preso nota, e la nuova era Trump sta sancendo un'alleanza sempre più stretta tra le grandi aziende tecnologiche, Israele e il settore della difesa.
LA GUERRA NELL’ERA DELL’AI
La guerra non è mai stata pulita, ma oggi è diventata un gioco senza responsabilità, sempre più simile a un videogame. Tuttavia, la Cloud War non è virtuale: è letale, impersonale, automatizzata. Il software decide, l’uomo approva con un clic, il drone esegue. Il massacro diventa un output, i civili puntini su una mappa digitale. Un algoritmo calcola quante vite sacrificare per raggiungere l’obiettivo.
Questa non è fantascienza. È realtà. La tecnologia corre più veloce di noi, e Israele ha mostrato come devastare una popolazione senza conseguenze (per ora). Presto, l’intelligenza artificiale di Google, Microsoft e Amazon potrebbe essere usata ovunque. Pensate a quanti stati ambirebbero a raccogliere informazioni così complete su ogni cittadino, rendendo più facile colpire critici, dissidenti e oppositori.
Come in Terminator, la macchina non fa prigionieri. È solo questione di tempo prima che l'IA prenda il sopravvento, riducendo l'umanità a una variabile da ottimizzare. La nostra sopravvivenza non è questione di tecnologia, ma di coscienza. E la vera domanda non è se possiamo fermarla, ma se siamo davvero pronti per il giorno in cui non saremo più noi a decidere.
Il luddismo, ieri e oggi – Paralleli, rischi e opportunità
LUDDISMO
Alla fine del XVIII secolo – in termini molto semplificati – l’introduzione, nel sistema produttivo inglese, di tecnologie come la macchina a vapore e il telaio meccanico furono gli elementi catalizzatori di una profonda trasformazione del sistema socioeconomico britannico.
Al timone di questa trasformazione – sempre semplificando al massimo – ci fu la nuova borghesia capitalista inglese che comprese l’enorme potenzialità produttiva delle nuove tecnologie, che potevano: affrancare il sistema produttivo dalla dipendenza dalle competenze artigianali; permettere la concentrazione industriale in “nuovi” luoghi in cui controllare in modo pervasivo i lavoratori e obbligarli a mantenere alti tassi di produttività; abbattere il costo della manodopera grazie ad migliore (per gli industriali) rapporto tra domanda e offerta di lavoro. In definitiva, moltiplicare in modo geometrico la produzione con costi altrettanto ridotti.
Il punto di vista dei lavoratori tessili – che in buona parte lavorava manualmente, a cottimo, in piccole fabbriche oppure a casa propria, controllando di fatto i mezzi di produzione e valorizzando le proprie competenze artigianali – era esattamente speculare a quello degli industriali: riduzione dei salari e della domanda di lavoro, annullamento del valore delle competenze, scelta tra disoccupazione e lavoro malpagato nelle nuove grandi fabbriche.
Una delle forme di reazione alla drammatica trasformazione fu una serie di rivolte, iniziate nel 1811, ispirate alla figura – forse leggendaria – di Ned Ludd, un operaio che nel 1779 avrebbe distrutto un telaio meccanico in segno di protesta contro la nascita di questa nuova forma di produzione: il fenomeno del “luddismo”.
Il movimento luddista durò fino verso il 1824, tra leggi repressive – come la Frame Breaking Bill che prevedeva la condanna a morte per chi avesse danneggiato i telai per calze o pizzi, o altre macchine per la produzione tessile – tumulti, ondate di distruzione delle macchine, appoggio di massa da parte della popolazione, soprattutto nello Yorkshire, sostegno di alcuni parlamentari illuminati e scontri violenti con la polizia e l’esercito.
I cambiamenti sociali e politici che seguirono il crollo dell’impero napoleonico, la promulgazione delle Corn Laws, con i relativi dazi protezionistici e l’ulteriore gravissimo impatto sulle condizioni economiche dei ceti popolari, uniti alla nascita delle Trade Unions, primi sindacati operai, decretarono la fine della protesta luddista.
IERI E OGGI
Sembra possibile trovare un parallelismo tra la percezione dei ceti operai del XIX secolo che fu alla base del luddismo e l'attuale preoccupazione nei confronti delle radicali trasformazioni del tessuto produttivo delineate dallo sviluppo e della adozione di tecnologie di Intelligenza Artificiale.
Oggi come allora, l'innovazione tecnologica suscita timori, resistenze e opposizione al “nuovo progresso”.
Tra chi progetta e sviluppa – singoli individui o grandi imprese che siano - le tecnologie di Intelligenza Artificiale sembrano pochi a porsi il problema delle conseguenze sull’occupazione, sui salari, sul benessere dei lavoratori “tradizionali”; si procede con entusiasmo, in nome del progresso tecnologico, del superamento di ostacoli e di barriere fino a ieri considerati impossibili, dell’avvicinamento della macchina alle performance umane.
Anche tra gli studiosi di I.A. sensibili a questi problemi, l’eccitazione per i risultati sembra appannare la visione umanista. Un esempio è quello di Nello Cristianini, studioso e professore di intelligenza artificiale a Bath, che – nonostante l’impegno a rappresentare i rischi legati ad una massiva adozione di tecnologie I.A. – sembra farsi trascinare dall’entusiasmo per i nuovi sviluppi: «Dopo essere eguagliati, potremmo essere superati? E come? O la macchina diventa più brava a fare ciò che già facciamo, oppure la macchina impara a svolgere compiti che non sappiamo fare. A me interessa l’idea che riesca a capire cose che io non posso» (A. Capocci, Nello Cristianini, il ragionamento delle macchine, Il Manifesto, 14/03/2025).
I timori sembrano giustificati dal fatto che, in altri settori produttivi – come quello della realizzazione del software – si sta già generando uno scenario di sostituzione del lavoro dei programmatori con sistemi automatici basati sull'Intelligenza Artificiale, con una conseguente ondata di licenziamenti.
E, nei media e nelle discussioni pubbliche, viene dato grande risalto al rischio che il ruolo centrale dell'uomo in molte fasi della vita collettiva cui siamo abituati venga meno.
D’altra parte, però, per alcune occupazioni, l’utilizzo di strumenti di Intelligenza Artificiale permette a molti lavoratori e professionisti di delegare “alle macchine” compiti di basso profilo competenziale che richiedevano molto impegno di tempo, oppure attività ad elevato rischio fisico, migliorando le condizioni di lavoro.
POSSIBILITÀ
Ora, il fenomeno del luddismo e delle tensioni tra lavoratori, industriali e governo, come si verificò nel XIX secolo in Inghilterra, non sembra essere una possibilità, anche solo perché - nel caso dell’Intelligenza Artificiale - è difficile trovare qualcosa da distruggere.
E, tutto sommato, il fenomeno luddista sembra aver solo spostato avanti di qualche anno la trasformazione industriale e il suo correlato di cambiamento sociale, di inurbazione, di povertà e degrado nelle periferie, e di successiva - nel XX secolo - “normalizzazione” del lavoro in fabbrica.
Oggi, i punti da dibattere, in modo serio e puntuale, sono:
- come governare la I.A., anche facendo leva sulla sensibilità del problema anche a livello istituzionale, sensibilità da preservare e non lasciar catturare dagli intenti delle grandi industrie digitali [1]
- come capire quali reali opportunità di benessere potrà offrire ai viventi,
- come identificare i rischi dello sviluppo della tecnologia
- come evitare lo sviluppo in nome del solo “progresso tecnologico” e della sola remunerazione delle grandi aziende digitali.
Per farlo sono necessari: ● una difesa istituzionale che si metta rigorosamente dalla parte dei cittadini, ● attenzione e coraggio da parte di tutti - lavoratori, professionisti, manager e imprenditori - per identificare sul nascere le reali opportunità e i reali rischi e per infondere una coscienza morale tra chi queste tecnologie promuove e intende utilizzare.
NOTE
[1] Cfr.: A. Saltelli, D. J. Dankel, M. Di Fiore, N. Holland, M. Pigeon, Science, the endless frontier of regulatory capture, Science Direct, Futures, Volume 135, January 2022, 102860
La legge di Huang - Recensione di Geopolitica dell’intelligenza artificiale di A. Aresu
«Non abbiamo alcuna meta né qualità spirituali. Tutto quel che vogliamo sono le cose materiali. L'unica cosa che ci importa.»
«Dagny,» mormorò, «qualsiasi cosa possiamo essere, siamo noi che muoviamo il mondo, siamo noi che lo facciamo camminare.»
Ayn Rand, La rivolta di Atlante
1 RITRATTI
Alcuni libri imprimono sul volto del lettore una maschera di ansia e di malinconia che resta insensibile alle transizioni di tono e di argomento, come quella con cui Buster Keaton affronta qualunque evento nei film di cui è protagonista. Geopolitica dell’intelligenza artificiale di Alessandro Aresu irradia disagio ad ogni ogni pagina accumulata dalla sua movenza narrativa, che si articola sui personaggi dell’attualità tecnologica, più che sui temi economici, sui blocchi continentali e sui confini delle tensioni militari e politiche. Dopo quasi 600 pagine a stampa il lettore sa tutto sulla giacca di pelle del CEO e fondatore di NVIDIA Jensen Huang, sul talento per la falegnameria del premio Nobel Geoffrey Hinton, sull’orologio al polso dell’ex ministro del Commercio USA Gina Raimondo, sul fastidio per il multiculturalismo di Peter Thiel: più che ad una galleria di ritratti, il lettore viene esposto all’apologia delle gesta degli imprenditori e dei computer scientist che hano costruito l’industria contemporanea dell’intelligenza artificiale.
Aresu adotta l’armatura concettuale del Cacciari del Lavoro dello spirito per definire il ruolo che i protagonisti della saga rivestono sullo scenario internazionale. L’essenza del sistema della scienza coincide con una rivoluzione continua, resa possibile dalla tecnica, quindi dalla potenza di calcolo che viene sviluppata dai processori con cui si elaborano i modelli di intelligenza artificiale più avanzati – che a loro volta permettono di progettare e realizzare hardware ancora più potente. L’accelerazione del progresso viene scandita dalla Legge di Moore e dalle formulazioni più recenti del principio, che Aresu etichetta come Legge di Kurzweil e Legge di Huang. In nessun caso si tratta di necessità fisiche, ma di evidenze emergenti dal ritmo di aggiornamento dei prodotti della manifattura tecnologica. Quello più antico risale a Moore, uno dei fondatori di Intel, e fissa il periodo di raddoppio della potenza di calcolo per chip ogni 18 mesi; Kurzweil ha osservato che l’introduzione dell’intelligenza del software modifica la curva di crescita – secondo la regola dei «ritorni accelerati» – convertendola da lineare ad esponenziale. Jensen Huang fissa la misura della nuova curva, che ha andamento logaritmico e che si fonda sulle GPU di NVIDIA, con un miglioramento di 25 volte ogni 5 anni.
2 LA GRANDE TRASFORMAZIONE
L’I.A. comporta un rinnovamento di tutti i processi industriali, della gestione dell’agricoltura, del consumo di energia, della mobilità, dell’infrastruttura militare. Negli impianti di TSMC, il principale fornitore di NVIDIA, le filiere di produzione sono manovrate da robot e l’intervento degli esseri umani è concentrato sulla progettazione e sul controllo del buon funzionamento delle macchine. Gli stabilimenti principali si trovano a Taiwan, e rappresentano il modello della Grande Trasformazione che ha investito l’Asia negli ultimi decenni – a giudizio di Aresu, più ampia e più radicale di quella che Polanyi ha descritto nell’Europa del XVIII-XIX secolo. La manifattura rappresenta ancora l’asse portante del sistema culturale, scientifico e politico del mondo; ma i settori strategici sono cambiati, così come le modalità di organizzazione del lavoro e la distribuzione geografica delle aree più avanzate. L’Europa ha abdicato da tempo a qualunque ruolo di primo piano: non è in grado di interpretare lo spirito del tempo, di identificare le industry su cui investire e i volumi di capitale necessari per la competizione su terreni come transistor, robotica, I.A. – e non è nemmeno capace di regolarle, dal momento che non ne ha alcuna comprensione reale. Il tentativo eroico di Angelo Dalle Molle e del suo istituto IDSIA a Lugano, o la permanenza di DeepMind a Londra, sono eccezioni da cui si evince solo che, senza l’intervento dei capitali americani, le poche operazioni di eccellenza del Vecchio Continente sono destinate alla marginalità.
Taiwan si trova al centro della rivoluzione tecnologica dell’Asia Orientale: il modello di organizzazione delle fabbriche allestite sull’isola non è riproducibile negli USA, dove tempi di messa a punto e di tassi di produttività non riescono a tenere il passo della madrepatria. Dai chip stampati a Formosa dipende lo sviluppo dell’automazione sia americana, sia cinese: l’interruzione del processo di globalizzazione, e l’introduzione delle logiche di friendshoring da parte di Washington e di Pechino, collocano le imprese taiwanesi sul tracciato del confine geopolitico, con l’obbligo di rinuncia a quasi metà del fatturato per schierarsi dalla parte della sicurezza nazionale di cui sono tributari i clienti maggiori.
La stessa linea di confine, e le stesse criticità, attraversano società nate e cresciute in pieno territorio americano, come NVIDIA, Intel o AMD, che realizzano l’hardware indispensabile per lo sviluppo di tutti i settori, dai videogame alla ricerca sulle molecole proteiche. Il comparto privato dell’industria, la ricerca avanzata in campo fisico, chimico, biologico, sono il teatro stesso della storia politica successiva all’interruzione del processo di globalizzazione, con l’incertezza sugli ambiti decisivi in uno scenario bellico – ora che la guerra si può manifestare anche come sabotaggio nei sistemi di controllo delle centrali nucleari, negli apparati informatici di funzionamento delle borse, delle transazioni commerciali di ogni genere, degli archivi pubblici, delle infrastrutture, della mobilità, persino delle lampadine e dei termostati nelle case «intelligenti». Secondo Carl Schmitt la dimensione della politica si può riassumere nella decisione su chi è il nemico; quella della tecnologia stabilisce se l’amico può godersi il caldo del divano nelle sere di inverno, e con cosa può distrarsi sul suo cellulare o con la smart TV. Ma anche nella quotidianità estranea alla deflagrazioni militari, la capacità del blocco cinese di riversare sul mercato prodotti di tutti i settori industriali, con un livello qualitativo paragonabile a quello occidentale (se non migliore, come nel caso delle automobili della BYD), e ad un prezzo inferiore, equivale ad un sovvertimento degli equilibri commerciali e di potere ereditati dalla seconda metà del XX secolo: sul divano di casa, quando l’amico scorre le notizie del giorno le compulsa con la maschera di smarrimento alla Buster Keaton.
3 LA RIVOLTA DI ATLANTE
Morris Chang sottolinea nelle interviste che la crescita di TSMC è stata resa possibile dalle politiche di gestione del personale umano negli impianti di Taiwan. Ingegneri e tecnici non possono iscriversi ad alcun sindacato, accedono agli spazi di lavoro il lunedì mattina, vivono e pernottano nelle aree aziendali fino al venerdì sera, quando possono rientare a casa per il fine settimana – purché non sia sopraggiunta qualche emergenza, la cui soluzione richieda la loro presenza in ufficio anche il sabato e la domenica. In ogni caso, la loro disponibilità a raggiungere la sede della fabbrica non prevede limiti di tempo e di orario, perché se una crisi dovesse verificarsi alle due di notte del sabato, l’ingegnere TSMC risponde al telefono, saluta la moglie e parte per la sua missione salvifica all’interno delle pareti della fabbrica.
Solo con questi metodi di devozione medievale all’impresa è possibile obbedire ai ritmi di crescita della Legge di Huang; ed è per questo che anche NVIDIA, Tesla e gli altri stabilimenti di Musk, non ammettono la sindacalizzazione dei dipendenti. Alla maschera di sconcerto di Buster Keaton con cui il lettore accoglie queste informazioni, Aresu aggiunge altri motivi di turbamento, approvando la denuncia di Morris Chang contro il freno allo sviluppo che si deve scontare negli USA, per le limitazioni imposte allo sfruttamento della manodopera, e per il favore accordato all’inseguimento del modello taiwanese da parte dei fondatori delle società nella Silicon Valley. Dalla (giusta) critica nei confronti dell’ignoranza con cui i politici affrontano le questioni del progresso tecnologico e della civiltà digitale, alla giustificazione del turbine insensato del capitalismo contemporaneo e della sua tirannia sociale, il passo è breve. Anche i lettori di Cacciari accolgono questo slittamento nel testo di Aresu con lo smarrimento di Buster Keaton, perché per il filosofo la tensione tra tecnica e politica non può mai risolversi in un lavoro di amministrazione burocratica delle esigenze del profitto economico.
In Aresu la constatazione che la corsa verso l’incremento della potenza di calcolo è sempre più forsennata in tutto il mondo, e che la sfida tra blocco occidentale e blocco cinese si recita sulla scena dell’avanzamento tecnologico, non viene bilanciata dalla domanda: a quale scopo? La fuga in avanti degli eroi che Aresu glorifica nel suo testo, con un peana che è un tributo ad Ayn Rand più che a Cacciari, finisce per precipitare il mondo in un divenire senza avvenire, nella corsa senza fine di un futuro senza un fine. Geoffrey Hinton si è ritirato da Google nel 2023 sottoponendo a dure critiche il modello di intelligenza artificiale che lui stesso ha contribuito a sviluppare, con la delusione di aver mancato l’obiettivo di conoscere il funzionamento del cervello umano; Demis Hassabis ha vinto il Premio Nobel per la chimica rimanendo in Europa, e utilizzando qui l’I.A. sviluppata in DeepMind. L’emergenza di un significato, o il fallimento della sua ricerca, non obbediscono alla geografia di Aresu, e per la verità non sembrano obbedire ad alcuna regola. L’Autore rimprovera i politici di impedire la libera circolazione dei capitali, dei cervelli e delle idee, frammentando il mondo lungo i confini della sicurezza nazionale; e in effetti senza le GPU di Huang è impossibile avviare progetti di ricerca scientifica o di progettazione tecnologica che aspirino ad un interesse universale. Ma la pressione dell’utilità commerciale conduce a risultati che sono davvero interessanti? Il mondo con l’onnipervasività degli smartphone, del cloud, e ora dell’I.A. – che solo pochi anni fa non è stata in grado di evitare la terapia medievale del lockdown contro un virus che ha contribuito a smistare per i quattro angoli del pianeta – è davvero il luogo in cui vorremmo vivere? L’abrogazione della separazione tra lavoro e tempo libero, la proibizione delle pause nella reperibilità, l’esposizione allo scivolamento nella depressione che è endemica nella «società della stanchezza», sono un prezzo che siamo disposti ad accettare per conversare con ChatGPT?
Non dovrebbe la politica poter decidere su questo?
BIBLIOGRAFIA
Aresu, Alessandro, Geopolitica dell’intelligenza artificiale, Feltrinelli, Milano 2024.
Cacciari, Massimo, Il lavoro dello spirito. Saggio su Max Weber, Adelphi, Milano 2020.
Han, Byung-Chul, Mudigkeitsgesellschaft – Burnoutgesellschaft – Hoch-Zeit, Matthes&Seitz, Berlino 2010.
Kurzweil, Ray, The Age of Spiritual Machines: When Computers Exceed Human Intelligence, Viking Press, New York 1999.
Polanyi, Karl, The Great Transformation, Ferrar&Rinehart, New York 1944.
Schmitt, Carl, Der Begriff des Politischen, Duncker & Humblot Verlagsbuchhandlung, Berlino 1932.
Intelligenza artificiale e creatività - Terza parte: un lapsus della storia
Nei mesi scorsi abbiamo iniziato una riflessione sul rapporto tra processo creativo e Intelligenza artificiale (Intelligenza artificiale e creatività – I punti di vista di tre addetti ai lavori, 10/09/2024, e Intelligenza artificiale e creatività – Seconda parte: c’è differenza tra i pennelli e l’I.A.?, 17/12/2024), riflessione che si è sviluppata grazie ai contributi di Matteo Donolato - Laureando in Scienze Filosofiche, professore e grafico di Controversie (usando l’I.A.); Paolo Bottazzini - Epistemologo, professionista del settore dei media digitali e esperto di Intelligenza Artificiale; Diego Randazzo e Aleksander Veliscek - Artisti visivi.
Riflessioni che ruotavano attorno alla domanda se le immagini prodotte dall’IA, pur partendo da un input umano, si possano considerare arte.
A completamento di quelle riflessioni, interviene ancora Paolo Bottazzini per disegnare degli scenari futuri che mettono in discussione il concetto di arte come lo conosciamo oggi.
Tutto è in discussione… buona lettura!
---------
Credo che, quando definiamo l’I.A. uno strumento nelle mani dell’artista non dobbiamo cadere nell’ingenuità di ridurre il ruolo del dispositivo a quello di un mezzo trasparente, un utensile che trasferisca in modo neutrale nella materia sensibile un contenuto già compiuto nella mente dell’agente umano. Spetta di sicuro al soggetto che elabora il prompt offrire l’impulso della creazione, attraverso la formulazione della domanda, e tramite la selezione dei risultati che possono essere accolti come utili. Tuttavia, il software introduce elementi che influiscono sia sulle modalità creative, sia sui processi più o meno inconsapevoli di invenzione del prompt.
Benjamin, nella fase pionieristica del cinema, suggeriva che la macchina da presa e il formato del film ci avrebbero permesso di scorgere qualcosa che altrimenti sarebbe rimasto invisibile nell’inconscio dei nostri movimenti; intuiva che lo scatto della fotografia nella sua autenticità sarebbe sempre stato l’inquadratura della scena di un delitto, e che nella sua deviazione di massa avrebbe inaugurato l’epoca del Kitsch.
Elizabeth Eisenstein ha dimostrato che la stampa a caratteri mobili ha contribuito alla nascita di una cultura che vedeva nel futuro una prospettiva di miglioramento progressivo dell’uomo – mentre la copia a mano dei libri nel periodo precedente, con l’aggiunta di errori ad ogni nuova riproduzione, aveva alimentato una visione del mondo in cui l’origine è la sede della verità, e la storia un cammino inesorabile di decadenza. Credo che il compito della critica filosofica e sociologica dovrebbe ora essere quello di comprendere quale sia la prospettiva di verità e di visibilità, o di disvelamento, che viene inaugurata con l’I.A..
In questo momento aurorale dell’uso delle reti neurali possiamo sapere che il loro talento consiste nel rintracciare pattern di strutture percettive nelle opere depositate negli archivi, che in gran parte sono sfuggiti ai canoni proposti negli insegnamenti dell’Accademia. L’I.A. non sviluppa nuovi paradigmi, o letture inedite di ciò che freme nello spirito del nostro tempo, ma è in grado di scoprire ciò che abbiamo riposto nel repertorio del passato, senza esserne consapevoli: rintraccia quello che gli autori non sanno di aver espresso con il loro lavoro. La metafora dell’inconscio adottata da Benjamin sembra quindi essere adeguata a descrivere quello che il lavoro dei software riesce a portare alla luce: in questo caso però il rimosso appartiene al corpus delle opere che scandiscono la tradizione estetica, da cui viene lasciato emergere ciò che vi è di latente, cancellato, rifiutato, dimenticato.
La possibilità di far redigere a chatGPT un testo nello stile di Foscolo o di Leopardi, o di chiedere a Midjourney di raffigurare un’immagine alla maniera di Monet, o di renderla con l’estro dei cubisti, o di mimare Caravaggio, Raffaello, Leonardo, conduce alla produzione di una specie di lapsus della storia dell’arte – qualcosa che l’autore invocato avrebbe potuto creare, o i suoi discepoli, ma che non è mai esistito.
Qual è lo statuto ontologico ed estetico di questo balbettio della tradizione, di questa eco di ciò che dovrebbe essere unico, e che invece resuscita in un sosia, ritorna nello spettro di un doppio scandaloso? Kant insegna che l’idea estetica è definita dal fatto di essere l’unica rappresentazione possibile di un’idea universale: il gesto produttivo dell’I.A. viola questo assunto che si trova alla radice di gran parte delle teorie dell’arte moderne e contemporanee.
Stiamo allora abbandonando per sempre la concezione dell’arte come creazione del genio, come gesto unico e non riproducibile dell’artista? Dobbiamo rivedere la prospettiva monumentale che l’Occidente ha coltivato dell’arte, per avvicinarci alla sensibilità del gesto nella sua infinita riproducibilità, sempre uguale e sempre differente, che appartiene alla tradizione orientale? O forse, l’attenzione con cui la possibilità di variare, di giocare con la latenza e il rimosso, avvicina l’arte ad un’esperienza quasi scientifica di osservazione e di scoperta, alla trepidazione e al timore (che sempre accompagnano il ritorno del trauma, la ricomparsa sulla scena del delitto) di mostrare lo schematismo di ciò che scatena l’emozione, di esibire i segni che suscitano la reputazione di verità, di configurare l’allestimento in cui avviene la recita di ciò che riconosciamo come bello e giusto.
Qualunque sia la soluzione che si verificherà nella prassi dei prossimi anni, se l’I.A. diventerà un dispositivo protagonista dell’attività creativa nelle mani degli artisti di professione e in quelle del pubblico generalista, e non si limiterà a rappresentare una moda passeggera, il suo impatto sarà destinato a introdurre un processo di ri-mediazione sulle forme espressive dell’arte e anche sui mezzi di comunicazione in senso ampio. Allo stesso modo, oltre un secolo e mezzo fa, la fotografia ha trasformato le modalità creative della pittura e delle arti plastiche, liberandole dalla fedeltà mimetica al loro soggetto e inaugurando percorsi di indagine che contrassegnano l’epoca moderna. Tutti i media subiranno una ristrutturazione che ne modificherà la destinazione, e le attese da parte del pubblico, con una nuova dislocazione della loro funzione comunicativa, laddove l’immediatezza documentaristica è minacciata dalle deep fake, la meccanicità della produzione di cronaca è coperta dalle I.A. generative trasformative, l’esercizio di riflessione sugli stili del passato è coperto dalla ricognizione dei pattern dalle reti neurali.
C’è molto spazio per la sperimentazione!
Harari e il tradimento degli intellettuali - Il darwinismo algoritmico in Nexus
1. ROVESCI
Uno dei colpi di scena più riusciti della saga di Star Wars è il momento in cui il protagonista, Luke Skywalker, scopre di essere figlio dell’antagonista malvagio, Darth Vader. I modelli della fantascienza devono essere presi molto sul serio, perché gran parte dei personaggi più influenti della Silicon Valley tendono a progettare le loro piattaforme, e persino a immaginare il futuro dell’umanità, ricalcandole sui contenuti dei film, delle serie e dei romanzi che hanno dominato la loro eterna adolescenza da nerd: Larry Page e Sundar Pichai (ex e attuale CEO di Google) hanno dichiarato a più riprese che l’obiettivo del loro motore di ricerca è emulare il computer di bordo dell’Enterprise della serie Star Trek.
Ad evocare il dramma dell’agnizione di Luke Skywalker questa volta però non è il fondatore di qualche impresa miliardaria nell’area di San Francisco Bay, ma il volume appena pubblicato da uno degli esponenti più stimati del pensiero liberal, molto amato dalla sinistra americana e internazionale, Yuval Noah Harari. Nexus riepiloga e approfondisce le riflessioni che l’autore ha elaborato a partire da Homo Deus (uscito nel 2016) sul futuro della nostra specie.
Gli assunti con cui Harari inquadra la condizione umana potrebbero essere stati redatti da un ideologo del transumanesimo tanto di moda nella Silicon Valley, come Ray Kurzweil. Qualunque animale, e noi non facciamo eccezione, può essere descritto come una macchina, riducibile a dinamiche fisiche e chimiche, e a strutture comportamentali dettate da algoritmi. La coscienza, la soggettività, la felicità e lo sconforto, sono l’esito di reazioni tra molecole, e possono quindi essere eccitati o sedati da pastiglie che la ricerca scientifica renderà sempre più efficaci. Le indagini di uno dei più grandi divulgatori della realtà clinica e culturale della depressione, Andrew Salomon, contraddicono la baldanza farmacologica di Harari, insistendo sullo strano anello che si instaura tra la fisiologia, gli eventi della vita, e qualcosa di nebuloso e profondo che è identico, ma allo stesso tempo si oppone, alla chiarezza di biologia e biografia.
Nexus non è interessato a questo genere di sottigliezze, dal momento che il percorso della storia è stato tratteggiato nella sua regola generale già un paio di libri fa: al termine del Medioevo l’uomo ha rinunciato al senso dell’universo, preferendogli il potere di programmarlo a proprio piacimento. Le religioni consegnavano ai nostri antenati una posizione centrale nel cosmo e un significato per la vita degli individui e per le comunità – ma pretendevano in cambio l’obbedienza a valori e norme fondate su un’autorità intransigente. L’emancipazione da ogni forma di trascendenza, e dalle sue declinazioni nelle istituzioni politiche e culturali, ha inaugurato un percorso in cui la scienza e la tecnologia sono arrivate a sovrapporsi e a coincidere, per convertire il mondo in un serbatoio di risorse a disposizione della felicità degli uomini. Purtroppo, la farmacopea è solo il simbolo di questa trasformazione, dal momento che la dissoluzione dell’aura sacra che avvolgeva la natura alimenta l’industria delle sostanze psicotrope, ma non offre alcuna indicazione sullo scopo della nostra vita. Possiamo fare tutto liberamente, ma non abbiamo più una ragione per fare qualcosa.
2. ALGORITMI
Quando i significati iscritti nel creato dileguano, il loro posto viene occupato dall’informazione, che si assume il compito di esprimere l’essenza del meccanismo cui sono ridotti gli esseri viventi e le loro società. L’opposizione tra democrazia e totalitarismo, che ricalca la distinzione tra mondo liberale e paesi comunisti, può essere ricondotta nella sua sostanza alla differenza morfologica tra sistemi di comunicazione. La dittatura, e il socialismo, sono configurazioni sociali in cui l’informazione è centralizzata, e irradia da un punto focale che identifica il leader, o l’élite burocratica dello stato. Al contrario la democrazia, e la dottrina liberale, prediligono una forma decentrata di circolazione dell’informazione, che abilita la nascita di molti poli di accesso alle notizie e di molti livelli di elaborazione, decisione, riproduzione dei dati e della conoscenza. L’informazione è l’asset che stabilisce relazioni tra elementi, parti, individui, gruppi: la ricostruzione dei suoi percorsi permette di disegnare le reti in cui si sintetizzano i composti nella dimensione fisica e chimica, prendono vita i processi biologici negli individui, si costituiscono le comunità nel mondo sociale e si dipanano i sentieri della storia. Per questo la nozione di algoritmo diventa pervasiva, e Harari riepiloga il corso completo dell’evoluzione come un percorso di elaborazione di algoritmi sempre migliori, che trovano la sintesi più efficiente in quelli che compongono l’uomo. Questo vantaggio spiega l’ordine universale, che coincide con la conversione della natura e di tutti i suoi membri in una riserva di mezzi di cui possiamo disporre per la nostra utilità. La violenza che esercitiamo con la manipolazione tecnica non è motivata dall’ostilità contro particolari enti animati o inanimati, o dal bisogno di protezione, ma è l’esito della nostra indifferenza nei confronti di tutto quello che non può resistere alla trasformazione del mondo in un ambiente a misura della funzionalità antropologica. Un altro modo per esprimere questa condizione è il giudizio che la ristrutturazione del pianeta operata dagli algoritmi da cui è governato il comportamento degli uomini sia un processo ineluttabile, una necessità imposta dall’evoluzione naturale.
Le nozioni cui ricorre Harari annullano la separazione tra natura e tecnica. Informazione e algoritmi definiscono la struttura della realtà e le meccaniche del funzionamento di qualunque cosa, accomunando physis e techne in un’unica essenza e in un unico destino. Ma questa impostazione non può esimersi dal prevedere che nel momento in cui le prestazioni raggiunte dalle macchine supereranno le nostre, l’atteggiamento che i robot assumeranno nei nostri confronti applicherà le stesse logiche di utilità e indifferenza che noi abbiamo riservato ad animali e minerali. Il passaggio di questa soglia si chiama singolarità, e nella visione di Harari è talmente prossimo da dominare la valutazione della tecnologia che già oggi stiamo maneggiando. L’intelligenza artificiale guida l’autonomia dei dispositivi in cui si compie il salto evolutivo che segue e trascende quello della nostra specie, e che è destinato a sostituirci nel dominio del mondo: da vent’anni Ray Kurzweil ha insegnato a scandire le tappe che conducono al momento in cui i sistemi di calcolo raggiungeranno le facoltà di intuizione dell’uomo, e le travalicheranno con la corsa alla superintelligenza pronosticata e temuta da Nick Bostrom. Possiamo tentare di frenare, arginare, controllare lo sviluppo delle tecnologie digitali, ma Harari ci lascia presagire che in fondo si tratta di operazioni di retroguardia – e alla fine comunque un Darth Vader, nella forma di un Google o di un ChatGPT iper-evoluto, sciabolerà la sua spada laser in cloud e metterà fine alla resistenza della sopravanzata soggettività umana al di qua del monitor e della tastiera.
3. FINE DELLA STORIA
Elon Musk non avrebbe saputo costruire un’argomentazione migliore per giustificare la subordinazione della dimensione politica al neoliberismo tecnologico contemporaneo, e per affermare l’inesorabilità di questo processo. Pur avendo irriso per anni la tesi della fine della storia di Francis Fukuyama, l’élite di sinistra l’ha introiettata in fondo al proprio inconscio culturale, insieme alla convinzione che la globalizzazione del mercato – e i rottami di democrazia che l’accompagnano – siano la forma compiuta dello Spirito Oggettivo hegeliano nelle istituzioni umane. Harari mostra lo stato di completo disarmo concettuale in cui versa la classe intellettuale, che si proclama progressista, nei confronti delle narrazioni del «realismo capitalista» e del transumanesimo di stampo californiano. Oltre all’ingenuità con cui vengono trattati i temi della tecnologia, la questione dell’intelligenza artificiale forte, il rapporto tra biologia e coscienza – il nodo critico più preoccupante rimane il fatto che «è più facile immaginare la fine del mondo che la fine del capitalismo» nella sua versione priva di pensiero e di futuro, che caratterizza la civiltà contemporanea. Harari condivide con Margareth Thatcher la convinzione che «non ci sono alternative» allo smantellamento di qualunque percorso politico che non sia l’adattamento alla rapacità di dati e di ricchezze da parte dei monopolisti della Silicon Valley, e di qualunque prospettiva storica divergente dall’ideologia transumanista, che vede nella transustanziazione in una macchina l’apogeo dell’umanità.
Ma se alle fantasie del cyberpunk, alla comunità degli estropiani, e persino alla corsa verso la singolarità di Kurzweil, si può riconoscere la spontaneità e l’euforia di un movimento nerd che si reputa sempre adolescenziale e che perpetua acne e turbe puberali – sulla corazza dello scientismo di Harari grava il tradimento di un Darth Vader che avrebbe potuto, e avrebbe dovuto, ricorrere alle proprie risorse intellettuali per denunciare la clausura della narrazione tecnocapitalista, e cercare un percorso diverso. Invece si è consacrato al lato oscuro della banalità.
BIBLIOGRAFIA
Bostrom, Nick, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, Oxford 2014.
Fisher, Mark, Capitalist Realism: Is There No Alternative?, John Hunt Publishing, Londra 2009.
Fukuyama, Francis, The End of History and the Last Man, Free Press, New York 1992.
Harari, Yuval Noah, Homo Deus: A Brief History of Tomorrow, Harvill Secker, Londra 2016.
-- Nexus: A Brief History of Information Networks from the Stone Age to AI, Random House, New York 2024.
Kurzweil, Ray, The Singularity Is Near: When Humans Transcend Biology, Viking Press, New York 2005.
O’Connell, Mark, To Be a Machine: Adventures Among Cyborgs, Utopians, Hackers, and the Futurists Solving the Modest Problem of Death, Granta Publications, Londra 2017
Solomon, Andrew, The Noonday Demon: An Atlas of Depression, Simon & Schuster, New York 2001.
Intelligenza artificiale e creatività - Seconda parte: c’è differenza tra i pennelli e l’IA?
Qualche settimana fa avevamo iniziato una riflessione sull’interazione tra processo creativo artistico e Intelligenza Artificiale.
Ci eravamo chiesti se realizzare un’immagine con l’IA può essere definito come un atto creativo e abbiamo avuto le risposte di tre amici di Controversie, ognuno dalla propria ottica che deriva da un diverso percorso professionale e culturale (trovate le risposte nell’articolo pubblicato il 10 settembre scorso).
Riporto di seguito le conclusioni di quella prima riflessione:
“Non c’è dubbio che queste tre risposte siano estremamente stimolanti e che vi si possa rintracciare un minimo comune denominatore che le lega: l’idea che l’IA sia solo un mezzo, per quanto potente, ma che l’atto creativo resti saldamente appannaggio di colui che ha nel suo animo (umano) l’obiettivo concettuale.
Ottenere un risultato con l’IA si delinea, qui, come un vero atto creativo, che, però e ovviamente, non è detto che si trasformi in arte, ovvero in una manifestazione creativa in grado di dare emozione universale.
In termini più concreti: molti di noi, forse, potrebbero avere “nella testa” La notte stellata di Van Gogh (giusto per fare un esempio), ma la differenza tra la grandissima maggioranza di noi e il genio olandese è che non sapremmo neppure lontanamente “mettere a terra” questa intuizione.
Con l’IA, a forza di istruzioni che la macchina esegue, potremmo invece, avvicinarci al risultato di Vincent?”
La domanda che sorgeva spontanea, e a cui chiedo ai nostri amici un’ulteriore riflessione, è la seguente: Se così fosse, in che modo cambierebbe l’essenza stessa dell’artista?
Inserisco però un ulteriore elemento che deriva dall’aver letto la bella riflessione di Natalia Irza del 29 ottobre scorso su Controversie dal titolo “Il rating sociale tra digitale e moralità”.
Riporto testualmente un passaggio a mio avviso molto importante anche per il nostro ragionamento su processo creativo e IA. Scrive Irza:
“Per stabilire la verità su una persona, sono necessari strumenti umani. Lo stesso si può dire dell’uso dell’IA nell’arte: la pittura non è uguale alla composizione di colori, la musica non è uguale alla composizione di suoni, la poesia non è uguale alla composizione di parole. Senza la dimensione umana, che significa non solo l’operare algoritmi ma creare idee umane, l’arte cessa di essere arte.”
Aggiungo quindi una provocazione per i nostri amici chiamati a rispondere alla prima domanda, e cioè: dobbiamo quindi pensare che esisteranno in futuro due forme d’arte, una “analogica”, tradizionale, in cui l’essere umano si esprime attraverso strumenti controllati completamente dall’artista e una “nuova arte”, digitale, in cui l’autore si avvale di uno strumento che interviene nel processo creativo “aggiungendo” all’evoluzione concettuale dell’artista?
E quale sarà il livello di contaminazione fra queste due diverse situazioni?
Ecco le prime due risposte, scrive Diego Randazzo:
Quello che rende un artista tale è soprattutto il suo percorso. Un percorso interiore ed esteriore che lo porta a sviluppare una ricerca unica e indipendente. In assenza di tale percorso non vi può essere Arte, ma solo degli isolati appuntamenti con la tecnica.
Quindi, davanti alla possibilità di ricreare dei modelli digitali molto simili a capolavori storicizzati attraverso l’IA, non si può che riconoscere tale pratica come un tentativo, sicuramente curioso e sorprendente, ma molto lontano dalla definizione di Arte.
Non è un caso se utilizzo le parole tentativo e modello, che ne evidenziano l’approccio germinale, automatico e inconsapevole.
In altre parole, penso che la tensione verso la dimensione umana, a cui si riferisce Natalia Irza nell’articolo menzionato, sia necessaria e fondamentale. Del resto come possiamo capire in profondità un artista, senza conoscere qualche dettaglio, anche superficiale, della sua biografia? La Storia dell’Arte è punteggiata, da sempre, da questo binomio, indissolubile anche nel vischioso territorio dell’arte contemporanea: la pratica artistica come estensione e manifestazione della vita stessa degli artisti.
Pensiamo anche al potere del mercato odierno nel dare valore all’opera d’arte: oggi più che mai notiamo che sono le caratteristiche biografiche a fare da volano e non la qualità intrinseca dell’opera (vedi il successo della banana ‘Comedian’ di Cattelan).
Seguendo questo principio, dove la dimensione (e presenza) umana dell’artista sono sempre al centro, trovo assai difficile riconoscere valore nelle sperimentazioni con l’IA condotte dai non addetti ai lavori (non artisti?). Da considerare diversamente sono invece le incursioni degli artisti che utilizzano lo strumento dell’IA con consapevolezza e visione.
Infine di fronte alla possibile convivenza tra due tipologie di Arte (una totalmente analogica ed una totalmente mediata dallo strumento IA) nutro profondi dubbi; non ho mai creduto nella classificazione e scolastica separazione tra discipline, piuttosto credo nella ricerca della complementarità tra queste due modalità. Ad esempio, è molto stimolante l’uso dell’IA per creare ‘modelli e reference’, delle basi da cui partire e su cui innestare il gesto unico dell’autore. Tale gesto si può quindi esemplificare in una copia o rielaborazione analogica (manuale) dei modelli iniziali.
Facendo così, non solo ripercorriamo la storia dell’arte, seguendo il classico ed insuperato paradigma modello/rappresentazione, ma, contestualmente, attualizziamo il contesto: il modello da studiare e copiare non è più la realtà che ci circonda, ma una realtà mediata e spesso incontrollabile, formulata da un algoritmo.
Vorrei proseguire il discorso dando la parola ad Aleksander Veliscek, interessante artista sloveno, che attraverso i dettagli dei suoi affascinanti dipinti mette a punto proprio questa modalità, svelandoci le possibilità di un uso virtuoso ed intelligente dell’IA in pittura.
------------------------------
Ed ecco l’intervento di Aleksander Veliscek:
Penso che creare un’immagine con l’IA oggi può essere considerato un atto creativo, ma con una specificità: è una creatività mediata, e dove non necessariamente appartiene alla sensibilità di tutti gli artisti. Durante il workshop che ho curato quest’anno sul tema PITTURA e IMMAGINI I.A. a Dolomiti Contemporanee (ex stazione, Borca di Cadore), ho potuto constatare da parte di molti allievi-artisti un interessante dialogo tra chatGPT e gli autori.
Un esempio curioso era un artista che lavora in ambito astratto. Si è creato un confronto critico da entrambe le parti nella costruzione dell’immagine. Ne è risultato un pezzo indubbiamente riuscito. Spesso invece c’era un rigetto, in quanto le soluzioni proposte dalla I.A. erano banali e non riuscivano a centrare le sottili sfumature che l’artista cercava anche dopo lunghi tentativi.
È, così, evidente quanto l’essere umano giochi un ruolo essenziale nella progettazione e nell’interpretazione del risultato.
Quindi L’I.A., è sicuramente uno Strumento, sempre più potente e innovativo, ma non sostituisce l’immaginazione e il giudizio umano.
Invece come artista trovo più interessante capire l’aspetto ontologico. Le macchine intelligenti, pur essendo create dall’uomo, possono simulare comportamenti complessi che sembrano riflettere aspetti tipici dell’essere umano, come l’apprendimento, la creatività o persino l’autonomia. Tuttavia, queste simulazioni sono autentiche manifestazioni di “essere” o sono semplicemente imitazioni prive di sostanza?
Martin Heidegger, nel suo studio sull’essere, distingueva tra l’“essere autentico” e l’“essere per altri”. L’IA, in questo contesto, può essere vista come un “essere per altri”, progettata per servire scopi umani, ma incapace di una propria esperienza ontologica. Tuttavia, alcuni teorici suggeriscono che, con lo sviluppo di sistemi sempre più complessi, potremmo dover ripensare questa distinzione.
Un mio dipinto ad olio raffigurante William Shakespeare, dove l’effigie realistica del grande drammaturgo è stata creata con l’intelligenza artificiale combinando diverse fonti, partendo dalle incisioni, sculture e dipinti.
--------------------------------------
Queste due riflessioni sono certamente molto interessanti ma, tuttavia e inevitabilmente, non portano a risposte certe. Stiamo viaggiando, infatti, su un territorio privo di confini definiti, fluido e in rapido divenire.
Mi sembra si possa dire che ci sono due punti chiave nel ragionamento dei nostri due artisti: la centralità dell’uomo - con tutto il suo portato esistenziale - come attore primario e non sostituibile del processo artistico; e la contaminazione dei modi di fare arte, che per altro è cominciata ben prima dell’I.A..
Contaminazione che è un dato di fatto.
E quindi non è possibile una distinzione rigida (Diego usa la parola “scolastica”) tra arti “tradizionali” e arti in cui tecniche nuove e l’apporto potentissimo dell’I.A, irrompono nel processo creativo.
L’I.A. cambierà presto l’essenza di molti lavori; si pensi a cosa potrebbe diventare la giustizia se le sentenze dovessero passare dall’interpretazione dei fatti data da esseri umani a quelle, teoricamente neutrali, dell’IA (l’oggettività nell’interpretazione dell’agire umano non può esistere).
Forse tra pochi anni le domande che ci siamo posti in questa sede non avranno più senso, superate dalla prassi dell’utilizzo di nuove tecnologie in tutti i settori dell’agire umano, arte compresa.
Ma su questi punti aspettiamo anche il parere degli altri due amici del gruppo di questa discussione…
La morale della storI.A. - Corpus documentali, training e decisioni
GENTE DI TROPPA FEDE
Nel libro Paura della scienza Enrico Pedemonte racconta che nel Kentucky, a Petersburg, il pastore australiano Ken Ham ha investito 27 milioni di dollari per costruire un parco tematico in cui la storia della Terra viene esposta secondo il punto di vista della Bibbia. Dalla sua fondazione, nel 2007, il Creation Museum ha accolto oltre 3 milioni e mezzo di visitatori, che hanno potuto vedere con i loro occhi come il nostro pianeta non conti più di 6.000 anni di vita, e come i dinosauri esistessero ancora durante il Medioevo – quando San Giorgio e gli altri cavalieri li hanno sterminati, scambiandoli per draghi. Ai tempi di Dante il WWF avrebbe raffigurato la minaccia di estinzione con un povero tirannosauro, bullizzato da giovanotti di buona famiglia in armatura rilucente – altro che panda.
Una porzione molto ampia dell’opinione pubblica coltiva un rapporto con l’intelligenza artificiale paragonabile a quello che gli abitanti della «Bible Belt» americana nutrono nei confronti della storia: una fede che libera da ogni fatica di studio e approfondimento. Solo che gli imbonitori delle fantasticherie tecnologiche non hanno nemmeno bisogno di cimentarsi nella fatica di costruire parchi a tema per persuadere i loro spettatori: non mancherebbero i mezzi, visto che tra le loro fila si schierano personaggi come Elon Musk e Sam Altman. Nel film fantasy di portata universale che propone l’AGI come un evento imminente, i ruoli sembrano invertiti: il computer che raggiungerà l’intelligenza artificiale generale viene descritto come un vero drago di talento e raziocinio, con personalità propria, autonomia di giudizio, memoria illimitata, conoscenze smisurate, lucidità strategica, sottigliezza logica, e (perché no?) cinismo teso al dominio sull’uomo e sull’universo. Cosa potrà fare un San Giorgio moderno, negli abiti di un programmatore nerd, o di un eroico poeta in carne e ossa, o di un chirurgo che si prodiga per la salute dei suoi pazienti, o di un giudice che brama difendere la giustizia quanto Giobbe davanti a Dio – cosa potranno questi santi laici di fronte a un mostro simile?
Nick Bostrom ha avvisato più di dieci anni fa che se dovesse comparire questa forma di intelligenza, per tutti noi e i nostri santi sarebbe già troppo tardi, perché la macchina che raggiungesse le prestazioni dell’AGI non si fermerebbe al nostro livello di razionalità, ma crescerebbe a intensità esponenziale, conquistando gradi di perspicacia tali da impedire la scoperta delle sue manovre, e da inibire l’interruttore di spegnimento.
TOSTAPANI CON TALENTO PER LA STATISTICA
Ma è davvero così?
L’AGI è grande, e ChatGPT è il suo profeta: molti lo considerano tale. Il software di OpenAI è stimato l’avanguardia nel settore dell’intelligenza artificiale, grazie al marketing che gli ex e gli attuali soci fondatori hanno animato intorno alle sue prestazioni: il licenziamento di Sam Altman da CEO nel novembre 2023, rientrato dopo meno di una settimana, e le polemiche con Elon Musk, hanno contribuito ad amplificare il clamore intorno ai prodotti dell’azienda californiana. Ma se proviamo ad aprire l’armatura che protegge la macchina, ed esaminiamo l’euristica del suo funzionamento, troviamo un dispositivo che calcola quale dovrà essere la prossima parola da stampare nella sequenza sintattica della frase, sulla base del grado maggiore di probabilità che il lemma possiede nel campo semantico in cui compare il suo predecessore. I campi semantici sono strutture matematiche in cui ogni parola è convertita in un vettore che misura la frequenza delle sue occorrenze accanto alle altre parole, nel corpus di testi che compongono il database di training. Per esempio, il lemma finestra compare con maggiore frequenza vicino a casa, strada, balcone; la sua presenza è meno probabile dopo transustaziazione o eucaristia.
Naturalmente ChatGPT è un prodigio di ingegneria, perché calcola (al momento) 1.500 miliardi di parametri ad ogni parola che viene aggiunta nella sequenza proposizionale; ma in ogni caso non ha la minima idea di cosa stia dicendo, non sa nemmeno di stare parlando, non ha alcuna percezione di cosa sia un interlocutore e che esista un mondo su cui vertono i suoi discorsi. Lo provano i «pappagalli stocastici» che ricorrono nelle sue composizioni: gli errori che possono apparire nelle sue dichiarazioni non violano solo le verità fattuali (quali possono essere inesattezze di datazione, citazioni false, e simili), ma aggrediscono la struttura delle «conoscenze di Sfondo», la logica trascendentale che rende possibile l’esperienza stessa. Per i testi redatti da ChatGPT un libro pubblicato nel 1995 può citare saggi usciti nel 2003 o descrivere una partita di Go avvenuta nel 2017: l’eloquio del software è infestato da allucinazioni che provano l’assenza di comprensione, in qualunque senso del termine intelligente, di ciò che significa la sequenza dei significanti allineati dal suo chiacchiericcio. Un dispositivo che non mostra alcun intendimento dell’esistenza del mondo, e delle sue configurazioni più stabili, non è nemmeno in grado di perseguire obiettivi autonomi, di giudicare, stimare, volere, decidere. ChatGPT è un software con l’intelligenza di un tostapane, e uno smisurato talento per il calcolo della probabilità nella successione delle parole.
COSA DICE L’I.A. SUGLI UMANI
Come se la passano i fratelli, i cugini e i parenti vicini e lontani di ChatGPT?
Consideriamo il caso esemplare, descritto da Gerd Gigerenzer, del software COMPAS adottato dai tribunali americani per collaborare con i giudici nella valutazione della libertà sulla parola. Ogni anno la polizia degli Stati Uniti arresta circa dieci milioni di persone, e il magistrato deve stabilire se convalidare l’imprigionamento o lasciare libero il cittadino, sulla base della convinzione che non reitererà il reato. COMPAS ha contribuito ad emanare circa un milione di sentenze, dopo essere stato formato sull’intera giurisprudenza depositata nei provvedimenti di ogni ordine e grado dei tribunali americani. L’analisi delle sue proposte ha evidenziato una serie di pregiudizi che discriminano per colore della pelle, genere, età e censo, sfavorendo gli uomini neri, giovani, che provengono da quartieri poveri. Tuttavia la penalizzazione a sfondo razziale che è implicita nelle decisioni del software non proviene dal carattere ghettizzante dell’intelligenza artificiale: la macchina non ha autonomia di giudizio, ma sintetizza le opinioni catalogate nell’archivio delle ordinanze dei magistrati in carne e ossa, che sono i reali agenti dei preconcetti e dell’intolleranza di cui il dispositivo digitale è solo il portavoce. La convinzione che la sospensione del ricorso all’IA, in favore dell’autonomia di delibera da parte dei giudici umani, possa mettere a tacere l’intolleranza che serpeggia tra le valutazioni del software, è un’illusione come l’Eden del Creation Museum: gli autori dei testi da cui COMPAS ha appreso il funzionamento del suo mestiere continueranno ad applicare i principi – più o meno inconsapevoli – del razzismo che innerva la società americana e l’upper class giuridica.
Al pregiudizio concettuale i magistrati umani aggiungono anche le deviazioni dettate dalla loro fisiologia. Uno studio congiunto della Columbia Business School e della Ben-Gurion University pubblicato nel 2011 ha dimostrato che i giudici scelgono con la pancia – e lo fanno in senso letterale, poiché i verdetti diventano sempre più severi quanto più ci si allontana dall’orario dei pasti. Almeno i software non sono sensibili ai morsi della fame.
Nemmeno vale la pena di coltivare illusioni sul miglioramento del trattamento dei candidati per le selezioni dei posti di lavoro: gli uffici del personale che abbandonano la lettura dei curricula ai dispositivi di IA (che a loro volta hanno imparato a discriminare nel training sul database delle assunzioni precedenti) non sarebbero pronti a compiere valutazioni migliori – con ogni probabilità si limiterebbero a non leggere i CV.
RATING UNIVERSALE E ALTRI ANIMALI FANTASTICI
Gigerenzer invita a verificare con cura i numeri divulgati dagli uffici marketing e dai giornalisti affamati di sensazionalismo: ne abbiamo già parlato in un altro articolo su Controversie.
La convinzione che qualche nazione sia in grado di gestire un calcolo del rating sociale di ciascuno dei suoi cittadini appartiene al repertorio degli effetti dei mass media per la generazione del panico. L’opinione che la Cina sia in grado di praticarlo, con quasi 1,4 miliardi di abitanti, è ancora meno credibile. Per allestire un processo di portata così vasta occorre una potenza di calcolo che al momento non può essere gestita da alcuna infrastruttura tecnologica. La realtà di questo progetto è assimilabile a qualcuno degli animali del bestiario del Creation Museum, qui a beneficio della propaganda del regime di Pechino e della sua aspirazione a gonfiare muscoli informatici inesistenti. Il governo cinese razzia dati sui cittadini anche dalle imprese che rilasciano servizi di comunicazione e di ecommerce, con l’obiettivo di armare sistemi di controllo di larga scala, che l’Unione Europea ha già vietato con l’AI Act entrato in vigore lo scorso luglio. Senza dubbio è una giusta preoccupazione prevenire simili tentazioni di amministrazione della distribuzione delle utilità sociali; ma il focus su questa minaccia sembra al momento meno urgente della normativa che obblighi i produttori di software a pubblicare le euristiche con cui funzionano i dispositivi di intelligenza artificiale. La consapevolezza che l’euristica alla base di ChatGPT è il calcolo della parola con maggiore probabilità di trovarsi subito dopo quella appena stampata, avrebbe liberato il pubblico dall’ansia e dall’euforia di marciare sulla soglia di un’AGI pronta a rubare il lavoro e a giudicare gli imputati, imminente al prossimo cambio di stagione. Avrebbe anche sterminato le occasioni per Musk e Altman di favoleggiare risultati miracolosi nel marketing dei loro prodotti – più spietatamente di quanto San Giorgio massacrasse dinosauri.
I rischi più realistici riconducibili all’intelligenza artificiale riguardano proprio la trasparenza delle euristiche, la bolla finanziaria indotta da società prive di un modello di business (come OpenAI), le attese senza fondamento alimentate da società di consulenza e da formatori improvvisati, il monopolio sui modelli fondamentali già conquistato da pochi giganti della Silicon Valley, il tentativo di accaparrarsi lo sviluppo dell’intero settore da parte di personaggi con finalità politiche ed economiche come Musk e Altman.
Chi costruisce Creation Museum di ogni tipo non ha mai come scopo la divulgazione; dovrebbe essere compito degli intellettuali tornare a smascherare i draghi di questi impostori, come coraggiosi San Giorgio della ragione.
BIBLIOGRAFIA
Bostrom, Nick, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, Oxford 2014.
Bottazzini, Paolo, La fine del futuro - I.A. e potere di predizione, «Controversie», 10 settembre 2024.
ChatGPT-4, Imito dunque sono?, Bietti Edizioni, Milano 2023.
Danziger, Shai; Levav, Jonathan; Avnaim-Pesso, Liora, Extraneous factors in judicial decisions, «Proceedings of the National Academy of Sciences», vol. 108, n.17, 2011.
Gigerenzer, Gerd, How to Stay Smart in a Smart World Why Human Intelligence Still Beats Algorithms, Penguin, New York 2022.
Pedemonte, Enrico, Paura della scienza, Treccani Editore, Torino 2022.