L’Intelligenza Artificiale in psicoterapia - Tra alleato e simulacro

«The crucial difference between CAI (Conversational Artificial Intelligence) and humans is obvious: CAI mimics being a rational agent, but it is not; therefore, CAI simulates having a therapeutic conversation, but it does not have any»[1]
Sedlakova & Trachsel, 2022

 

Quando interagiamo con un’Intelligenza Artificiale Conversazionale (IAC) come ChatGPT, ci troviamo di fronte a un’illusione sofisticata: risposte fluide, tono empatico, un’apparente capacità di comprensione. Eppure, dietro ogni parola non c’è un interlocutore reale, ma un sistema che riorganizza dati linguistici senza comprenderne il significato. Ci sentiamo ascoltati perché attribuiamo intenzionalità[2] alle parole dell’IA, come se fosse capace di empatia. Questo fenomeno è il risultato del meccanismo cognitivo dell’antropomorfismo, ossia la tendenza ad attribuire caratteristiche umane a esseri non umani, come animali, oggetti o fenomeni naturali[3] (Cambridge Dictionary, 2019). Questa inclinazione può influenzare il modo in cui interagiamo con le tecnologie, portandoci a percepirle come più affidabili o empatiche di quanto siano in realtà: l’essere umano per natura riconosce intenzioni e stati emotivi anche quando non ci sono (Sedlakova & Trachsel, 2023). Così, un chatbot che scrive «Mi dispiace che tu ti senta così» attiva in noi le stesse risposte emotive di una conversazione umana, pur essendo solo un’imitazione.

Nonostante il concetto di empatia sia estremamente complesso e abbia una lunga storia, ogni sua definizione riconosce che essa nasce dall’incontro tra due soggettività, e dunque dalla capacità di sentire l’altro e riconoscerne l’alterità in un contesto di identità della dimensione incarnata, situata ed enattiva dei viventi (Galloni, 2009). Con un’IA Conversazionale, al contrario, non si instaura una relazione reale, ma uno scambio unidirezionale: non è la nostra esperienza a essere compresa, ma solo il modo in cui la traduciamo in parole. L’effetto dell’antropomorfismo trasforma l’interazione con un’IA in una sorta di specchio emozionale: proiettiamo sulla macchina il nostro bisogno di connessione, vedendo in essa qualcosa che non è realmente presente. Questa proiezione può offrire conforto immediato, ma rischia di impoverire la nostra capacità di distinguere tra ciò che è umano e ciò che è un’imitazione. Il pericolo non risiede nell’uso dell’IA in sé, ma nella possibilità di abituarsi a un interlocutore che si limita a riflettere ciò che vogliamo sentire.

Oggi l’Intelligenza Artificiale sta ridefinendo – lentamente ma inesorabilmente – il campo della psicoterapia, espandendo le possibilità di supporto psicologico oltre i confini del tradizionale setting clinico. Chatbot come WoebotHealth e Wysa[4] sono progettati per fornire supporto emotivo attraverso interazioni testuali continue, basandosi su modelli di terapia cognitivo-comportamentale (CBT) e offrendo agli utenti un ambiente privo di giudizio. Eppure, la loro capacità di adattarsi in modo profondo all’individualità del paziente, se anche esistesse, risulta nei fatti ancora fortemente limitata. I chatbot basati su algoritmi di Natural Language Processing presentano diverse criticità, tra cui l’incapacità di cogliere il contesto della comunicazione, né comprendere realmente le sfumature del linguaggio, in primo luogo di quelle emotive. Mentre un terapeuta umano può cogliere cambiamenti nel tono di voce, nelle espressioni facciali o nelle pause durante una conversazione, un chatbot si basa esclusivamente sul testo e sull’analisi di esso, condotta esclusivamente su modelli probabilistici. Questo può portare l’altro soggetto dell’interazione – l’essere umano, il cui sistema nervoso è stato “cablato” da millenni di evoluzione per processare in maniera privilegiata il linguaggio umano, vero segno distintivo della comunicazione della nostra specie – a reagire in maniera concreta e “sensata” a risposte della macchina che, pur essendo linguisticamente appropriate, non rispecchiano un reale scambio comunicativo. Molti utenti cercano tuttavia proprio questo, nell’interazione pseudoterapeutica con le IAC. Alcuni studi suggeriscono che le persone possano sentirsi più a loro agio nel condividere dettagli intimi con un chatbot piuttosto che con un essere umano, proprio perché sanno di non essere giudicate[5].

Dal punto di vista terapeutico, l’utilizzo dell’IA non è dunque privo di rischi. Sebbene gli strumenti basati su CBT abbiano mostrato un certo grado di efficacia nel ridurre i sintomi di ansia e depressione, la qualità dell’intervento è ancora oggetto di studio. Ricerche recenti hanno evidenziato che, mentre i chatbot possono migliorare l’accessibilità ai servizi di supporto, non sono in grado di replicare l’alleanza terapeutica tipica di un incontro umano (Cioffi et al., 2022). Inoltre, senza un monitoraggio umano, l’IA può interpretare erroneamente il contesto o fornire risposte inappropriate. Questo è particolarmente critico nei casi in cui il paziente manifesti pensieri suicidi o sintomi psicotici; situazioni in cui una risposta non adeguata può avere conseguenze gravi. È stato analizzato ChatGPT come possibile assistente terapeutico, capace di raccogliere informazioni tra una sessione e l’altra e di fornire al terapeuta un quadro riassuntivo della situazione del paziente (Esghie, 2023). Tuttavia, nonostante le potenzialità, si sollevano interrogativi cruciali sull’affidabilità e la sicurezza di tali strumenti (Miner et al., 2019). L’IA non possiede consapevolezza né intenzionalità: risponde in base a correlazioni statistiche tra parole, apprendendo dallo scambio verbale con l’utente, ma senza comprenderne il significato intrinseco. Questo influenza anche la dimensione della fiducia: molte persone potrebbero erroneamente credere di essere comprese da un chatbot, sviluppando un attaccamento che, in assenza di una vera reciprocità, potrebbe portare a forme di dipendenza emotiva o a un’errata percezione del supporto ricevuto. A fare da argine a questo scenario troviamo anche una dimensione politica della scienza e della tecnica, inerente alla sempre più evidente natura capitalistica di questi strumenti, che fanno dei dati forniti spontaneamente dagli utenti la loro principale moneta di scambio. Uno studio recente ha peraltro evidenziato che la fiducia nei confronti della terapia basata su IA è ancora bassa, soprattutto a causa delle preoccupazioni legate alla privacy e alla sicurezza dei dati (Aktan, 2022).

L’introduzione dell’IA nella psicoterapia ha portato tuttavia la comunità scientifica e il dibattito pubblico a una necessaria riflessione sul valore della relazione terapeutica. Alcuni studi hanno suggerito che l’uso di chatbot potrebbe modificare il modo in cui le persone si rapportano alla figura del terapeuta, spostando l’attenzione dalla relazione interpersonale a una forma di autoosservazione guidata dall’IA (Beg et al., 2024). Se questo, da un lato, potrebbe avere vantaggi in termini di accessibilità al supporto psicologico, dall’altro rischia di ridurre o annullare l’efficacia di un intervento in cui il rapporto umano è cardine ed elemento essenziale. Il successo e la qualità della terapia non dipendono solo dai contenuti trasmessi, ma anche dalla capacità del terapeuta di cogliere segnali emotivi e di adattare l’intervento alle esigenze individuali del paziente – qualità che un’IA non possiede. Inoltre, la natura algoritmi di questi strumenti porta inevitabilmente a una standardizzazione dell’approccio terapeutico: i modelli di IA, basandosi su set di dati predefiniti, tendono a privilegiare metodologie uniformi, come quelle cognitivo-comportamentali, mentre la psicoterapia umana si caratterizza per un alto grado di personalizzazione e per una molteplicità di orientamenti e pratiche. Un altro aspetto da considerare è il rischio di standardizzazione eccessiva dei modelli proposti da queste tecnologie come rappresentativi di ciò che dovrebbe essere la psicoterapia. I modelli di IA si basano su set di dati predefiniti e tendono a favorire approcci uniformi (essenzialmente, a oggi, identificabili con quelli cognitivo-comportamentali), mentre la psicoterapia umana è caratterizzata da un alto grado di personalizzazione, dipendenza dal vissuto e dal contesto, e da una ampia pluralità di approccio possibili.

L’uso di ChatGPT e di altre IA Conversazionali in psicoterapia non dovrebbe comunque essere demonizzato, ma richiede un approccio critico e regolamentato. La collaborazione tra esseri umani e agenti artificiali potrebbe portare alla creazione di modelli ibridi, in cui l’IA funge da strumento complementare, affiancando il lavoro del terapeuta e migliorando l’efficacia degli interventi senza sostituire il contatto umano diretto (Miner et al., 2019). Questi strumenti possono offrire un supporto pratico, fungere da complemento alla terapia e aiutare a ridurre il divario nell’accesso alle cure psicologiche. Tuttavia, la loro adozione deve avvenire con consapevolezza dei limiti: l’IA non pu  sostituire l’empatia umana né creare un’autentica relazione terapeutica. La trasparenza e la supervisione umana restano essenziali per garantire che l’integrazione dell’IA nella psicoterapia non comprometta l’integrità delle relazioni terapeutiche e il benessere del paziente.

Sebbene l’IA possa svolgere un ruolo utile nel supporto alla salute mentale, la sua implementazione deve essere guidata da un’attenta valutazione dei benefici e dei rischi. Possiamo davvero considerare sufficiente un sistema che risponde sulla base di correlazioni statistiche senza comprendere? Chi tutela il paziente in caso di errori o malintesi? Strumenti come ChatGPT possono offrire quello che sembra supporto e conforto, ma è essenziale mantenere una distinzione chiara tra un’interazione simulata e l’esperienza di una relazione autentica, unica e insostituibile nel suo essere profondamente umana.

 

 

NOTE

[1] «La differenza cruciale tra l’IA conversazionale (CAI) e gli esseri umani è evidente: la CAI simula un agente razionale, ma non lo è; di conseguenza, simula di avere una conversazione terapeutica, ma in realtà non ne ha alcuna» (traduzione da: Sedlakova, J., & Trachsel, M. (2022). Conversational Artificial Intelligence in Psychotherapy: A New Therapeutic Tool or Agent? The American Journal of Bioethics, 23(5), 4–13. https://doi.org/10.1080/15265161.2022.2048739).

[2] Heider, F. (1958). The psychology of interpersonal relations. Hoboken, NJ, US: John Wiley & Sons Inc.

[3] Gibbons, S., Mugunthan, T., Nielsen, J. (2023). The 4 Degrees of Anthopomorphism of Generative AI. Nielsen Norman Group. https://www.nngroup.com/articles/anthropomorphism/.

[4] WoebotHealth, rilasciato nel 2017, e creato dalla psicologa Alyson Darcy, è un chatbot ideato per supporto psicologico, sempre disponibile, con interfaccia messaggistica (https:// woebothealth.com/).

Wysa AI Coach (https://www.wysa.com/) è un servizio di counseling basato sull’intelligenza artificiale addestrato su tecniche di terapia CBT, DBT, meditazione.

[5] Raile, P. (2024). The usefulness of ChatGPT for psychotherapists and patients. Humanities and Social Sciences Communications, 11(47). https://doi.org/10.1057/s41599-023-02567-0, p. 3.

 

BIBLIOGRAFIA

Aktan, M. E., Turhan, Z., & Dolu, I. (2022). Attitudes and perspectives towards the preferences for artificial intelligence in psychotherapy. Computers in Human Behavior, 133, 107273. https:// doi.org/10.1016/j.chb.2022.107273.

Beg, M. J., Verma, M., Vishvak Chanthar, K. M. M., & Verma, M. K. (2024). Artificial Intelligence for Psychotherapy: A review of the current state and future directions. Indian Journal of Psychological Medicine, XX(X), 1-12. https://doi.org/10.1177/02537176241260819.

Cioffi, V., Mosca, L. L., Moretto, E., Ragozzino, O., Stanzione, R., Bottone, M., Maldonato, N. M., Muzii, B., & Sperandeo, R. (2022). Computational methods in psychotherapy: A scoping review.

International Journal of Environmental Research and Public Health, 19(12358). https://doi.org/

10.3390/ijerph191912358.

Eshghie, M., & Eshghie, M. (2023). ChatGPT as a therapist assistant: A suitability study. arXiv Preprint. https://arxiv.org/abs/2304.09873.

Galloni, G. (2009). Basi motorie dell’empatia cognitiva? Teorie & Modelli, XIV(1):134-147.

Gibbons, S., Mugunthan, T., & Nielsen, J. (2023). The 4 Degrees of Anthropomorphism of

Generative AI. Nielsen Norman Group. https://www.nngroup.com/articles/anthropomorphism/.

Heider, F. (1958). The psychology of interpersonal relations. John Wiley & Sons.

Miner, A. S., Shah, N., Bullock, K. D., Arnow, B. A., Bailenson, J., & Hancock, J. (2019). Key considerations for incorporating conversational AI in psychotherapy. Frontiers in Psychiatry, 10, 746. https://doi.org/10.3389/fpsyt.2019.00746.

Raile, P. (2024). The usefulness of ChatGPT for psychotherapists and patients. Humanities and Social Sciences Communications, 11(47). https://doi.org/10.1057/s41599-023-02567-0.

Sedlakova, J., & Trachsel, M. (2022). Conversational Artificial Intelligence in Psychotherapy: A New Therapeutic Tool or Agent? The American Journal of Bioethics, 23(5), 4–13. https://doi.org/ 10.1080/15265161.2022.2048739.


In rel-Azione: una riflessione sul concetto di Intelligenza nel paradigma dell’Embodied Cognition

TO THE BODY AND BACK: L’INTELLIGENZA OLTRE I CONFINI DEL CRANIO

Nella lunga tradizione filosofica e psicologica, il termine intelligenza è stato senza dubbio uno dei costrutti più complessi e controversi della storia della scienza e del pensiero occidentale. Per molto tempo il dibattito sull’intelligenza si è snodato su vari terreni e argomenti teorici. Sin dai tempi più remoti l’essere umano ha tentato di definire limiti e condizioni di possibilità̀ di questo termine, identificando e strutturando tassonomie, relazioni e gerarchie intorno a questo concetto così controverso. La storia moderna dell’intelligenza si è sovrapposta per moltissimo tempo alla storia della sua misurazione, con particolare riferimento alla determinazione delle facoltà intellettive e dei tratti primari e secondari dell’intelligenza o al dibattito tra nature versus nurture, ovvero tra la determinazione ereditaria e genetica dell’intelligenza in contrapposizione all’acquisizione culturale dei tratti specifici di essa.

L’embodied cognition, ovvero la cognizione “incarnata”, è stata una delle correnti che ha contribuito a rivoluzionare il modo in cui consideriamo l’intelligenza e la cognizione non solo degli esseri umani, ma degli organismi e che suggerisce delle riflessioni interessanti anche rispetto alla definizione di Intelligenza Artificiale.

Essa è parte di un più ampio movimento teorico, la 4E Cognition, nato nella prima metà degli anni Novanta del Novecento all’interno di ambiti disciplinari come la filosofia della mente, la psicologia e le neuroscienze cognitive. Questo approccio teorizza una dimensione della mente embodied (incarnata), embedded (situata), enacted (interattiva) ed extended (estesa), radicandosi all’interno del Lieb, del corpo vivo e che esiste nel mondo, in costante relazione con l’ambiente; nel caso della nostra specie, un ambiente fisico, relazionale e tecnologico. La mente, dunque, emerge nel cervello ma si sviluppa anche al di fuori del cranio, attraverso la totalità corporea: l’individuo co-costruisce la propria esperienza cognitiva attraverso le interazioni corpo-mondo. Per l’embodied cognition l’attività cognitiva è un processo che integra l’esperienza vissuta e soggettiva, il corpo e l’ambiente, in un’unica prospettiva attiva e dinamica, dando vita al corpo-mente.

Il modello della mente “incarnata” caratterizza, dunque, le scienze cognitive di seconda generazione e ha consentito il superamento della dicotomia cartesiana tra res cogitans e res extensa, ovvero la separazione tra mente e corpo.

ERROR 404: LA MENTE NON È UN COMPUTER

Il modello dualista cartesiano aveva influenzato lo studio della mente per buona parte della storia della filosofia e della psicologia e, non ultimi, i fondamenti stessi della Scienza Cognitiva, all’interno della quale nasce anche l’Intelligenza Artificiale.

La Scienza Cognitiva Classica, infatti, ha sostenuto per molto tempo un approccio teorico di stampo meccanicistico, incentrato sulla funzione come oggetto di studio principale dei meccanismi mentali. In questo framework teorico è emersa una metafora molto potente: la metafora della mente-computer.

L’analogia della mente come una macchina era tale per cui un software (la mente) potesse essere implementato indipendentemente dall’hardware (il cervello e, in estensione, il corpo): essa sublima la frattura tra gli organismi e il proprio mondo, quello che Jakob von Uexküll definisce Umwelt (von Uexküll, 1933, Ambienti animali e ambienti umani. Una passeggiata in mondi sconosciuti e invisibili). Questo termine è stato introdotto all'inizio del Novecento dal biologo tedesco per indicare l’ambiente così come è percepito e vissuto dagli organismi in base alle proprie caratteristiche specie-specifiche e alle possibilità di interazione con esso[1].

Il ruolo del corpo, dunque, nella determinazione dei processi cognitivi assume una posizione subordinata tanto che, come provocatoriamente suggeriva il filosofo della mente Hilary Putnam nel celebre esperimento mentale del 1981, A brain in a vat[2], potrebbe essere fatto tanto di carne quanto di “formaggio svizzero”.

Le neuroscienze relazionali e affettive la filosofia della mente neuro biologicamente fondata convergono nella definizione di una nuova immagine di cosa vuol dire avere una mente e avere un corpo. Nella prospettiva della cognizione incarnata, si assume così un’estensione dei processi cognitivi, considerandoli non più limitati al cervello-mente ma estesi al cervello-corpo-ambiente, intendendo per ambiente non un mondo esterno, asettico e da costruire, ma un ambiente che è interno ed esterno allo stesso tempo, vivo, dinamico e “vischioso”, per utilizzare un termine di Canguilhem (1966, Le normal et le pathologique). Da questa visione emerge un approccio poliedrico alla mente, che integra il ruolo del corpo, del vissuto emotivo e soggettivo nell’ambiente in cui l’organismo si sviluppa.

Come ha scritto Francisco Varela: «Gli organismi non ricevono passivamente informazioni dai loro ambienti, che poi traducono in rappresentazioni interne. I sistemi cognitivi naturali [...] partecipano alla generazione di significato [...] impegnandosi in interazioni trasformazionali e non semplicemente informative: esse mettono in atto un mondo.»[3]

ORGANISMI IN (INTER)AZIONE

Nella prospettiva ecologica proposta dallo psicologo americano James J. Gibson (1979, The Ecological Approach to Visual Percepetion) non siamo noi a elaborare cognitivamente l’idea del mondo esterno; il soggetto assume una posizione centrale nel suo ambiente a partire dalla capacità di interagire con esso, sulla base di ciò che esso stesso offre in termini di stimoli.

L’ambiente, dunque, fornisce agli organismi gli elementi necessari per agire e sopravvivere (affordance), senza bisogno di complesse integrazioni o deduzioni mentali. Si pone quindi come elemento cruciale il rapporto tra gli organismi e il loro specifico ambiente di vita. Il mondo esterno, dunque, diventa "il mondo per me": la mente e l’ambiente degli organismi sono inseparabili, in un costante processo di interazione e modellamento reciproco. Esso, allora, diviene lo “spazio di vita” di Kurt Lewin (1936, Principi di psicologia topologica), la nicchia ecologica di Gibson (1979) che ogni organismo ritaglia nel mondo, come suggerisce Benasayag (2016, Il cervello aumentato l’uomo diminuito). È lì che mondo interno e mondo esterno sono separati solo dalla pelle, che fa da ponte della relazione osmotica e interdipendente tra i due. L’ambiente non consente l’azione, esso è lo spazio di azione nel momento in cui un organismo lo esperisce e percepisce.

Non è la rappresentazione del mondo, ma la relazione che chiama il soggetto all’azione e alla costruzione di una realtà significante.

Non ci rappresentiamo, dunque, la realtà da un punto di vista esterno, ma la conosciamo interagendo con essa nel qui e ora fenomenico, sulla base delle caratteristiche specie specifiche e del vissuto individuale. E non ci contrapponiamo all’altro, ma ci riconosciamo nella simulazione incarnata e nel rispecchiamento empatico presente nelle nostre aree motorie. Il cervello umano, lungi dall’essere un meccanismo predefinito, è un organo poroso e plastico, che rimodula costantemente le proprie relazioni interne sulla base dell’esperienza con il mondo e del cablaggio specifico degli organismi.

Nel corpo, dunque, si sedimentano e stratificano le esperienze del proprio vissuto, le esperienze di un corpo capace di includere, di incorporare gli strumenti, i mezzi e di essere modificato dall’ambiente e di modificarlo costantemente in una transazione dinamica e in rapporto circolare, come suggerito dalle recenti ricerche condotte nell’ambito della Material Engagement Theory (Malafouris, 2018, Bringing things to mind. 4E’s and Material Engagement).

MACCHINE COME ME?

L’intelligenza, dunque, nella prospettiva dell’embodiement non è una proprietà isolata che emerge indipendentemente dal corpo e dal mondo, come aveva sostenuto la Scienza Cognitiva Classica, ma si co-costruisce attraverso la relazione tra mente, corpo e ambiente.

La possibilità di ampliare le nostre funzioni oltre i confini della pelle, che sia attraverso un foglio di carta, una calcolatrice o una macchina, può essere considerata un’estensione “artificiale” di funzioni naturali che co-evolvono e si modellano reciprocamente da un punto di vista biologico e culturale, rimodulando in modo strutturale la percezione del mondo, che è allo stesso tempo modificata dall’azione attraverso esso, come sostenuto anche dalla prospettiva della cognizione extended.

Oggi la cognizione embodied rivolge, dunque, la propria attenzione al ruolo del corpo e alle sue capacità sensoriali e motorie in quanto elementi cruciali nella formazione dei processi cognitivi. Ciò anche in base a evidenze neurobiologiche che dimostrano come la dimensione fisica, sociale e informativa dell’ambiente assumano una rilevanza imprescindibile nella trama dinamica intessuta dall’interazione degli agenti cognitivi col loro ambiente di vita, in una prospettiva filogenetica e ontogenetica.

Attraverso la lente teorica dell’embodied cognition e della prospettiva epigenetica, dunque, il termine intelligenza non si configura più come un concetto riducibile ad un elenco di funzioni “incapsulate” (Fodor, 1983, The Modularity of Mind: Essay on Faculty Psychology) all’interno della mente-computer, ma come il risultato di un insieme di componenti biologiche e culturali che caratterizzano ed evidenziano la singolarità e l’unicità nella vita degli organismi. La plasticità, intesa come struttura portante e condizione di possibilità del cervello di creare connessioni e circuiti modulati sulla base dell’esperienza e dell’interazione senso-motoria del corpo con l’ambiente, si configura come una forma di creatività, determinata dal connubio tra biologia e cultura, necessaria e fondamentale per l’emergere di un pensiero intelligente.

I sistemi artificiali attuali operano su correlazioni statistiche e schemi computazionali che, per quanto complessi, non emergono da un’interazione incarnata e soggettiva con il mondo. Più che un’“intelligenza” artificiale, dunque, potremmo parlare di una capacità computazionale estremamente avanzata, di una simulazione statistica della cognizione che, per quanto efficace nella risoluzione di determinati compiti, non condivide una forma intenzionalità, di sensibilità e di conoscenza incarnata che caratterizza gli organismi.

Tra le sfide future più avvincenti vi è sicuramente quella di ridefinire il nostro rapporto con l’Intelligenza Artificiale, evitando di proiettare su di essa categorie che appartengono al nostro modo biologico di essere-nel-mondo, comprendendo che essere una mente (e non possedere una mente), in senso proprio, è incarnato dall’esperienza di un corpo vivo che abita il mondo in relazione con altri corpi (Morabito, 2020, Neuroscienze cognitive: plasticità, variabilità, dimensione storica) in una danza continua con essi.

 

 

NOTE

[1] Von Uexküll ha rivoluzionato il concetto di ambiente nella biologia moderna, mettendo in discussione la visione antropocentrica di ambiente: ogni essere vivente, infatti, percepisce e interagisce con il mondo in modo soggettivo e specie specifico. Gli organismi co-costruiscono il proprio ambiente in base alle proprie caratteristiche morfologiche e fisiologiche, instaurando con esso un legame inscindibile. Il Merkwelt, infatti, rappresenta ciò che il soggetto percepisce, ossia il suo mondo sensoriale, mentre il Wirkwelt riguarda le sue azioni e interazioni. Insieme, questi due aspetti costituiscono un sistema complesso, l’Umwelt, che connota l’ambiente non più come uno spazio informazionale “passivo”, ma in costante relazione attiva con il vivente.

[2] Gilbert Harman è stato uno dei primi filosofi a sviluppare e formalizzare l'idea del "Cervello nella vasca" nell'ambito della filosofia della mente e dell'epistemologia. Sebbene l'esperimento mentale sia associato principalmente a Hilary Putnam, Harman, già negli anni '70, aveva esplorato simili concetti, utilizzando la metafora del cervello nella vasca per affrontare le problematiche legate alla percezione e alla conoscenza. cfr. Harman G., 1973: Thought, Princeton University Press, Princeton.

[3]  «Organisms do not passively receive information from their environments, which they then

translate into internal representations. Natural cognitive systems [...] participate in the generation of meaning[...] engaging in transformational and not merely informational interactions: they enact a

world. » Varela, F., Rosch, E., Thompson, E., (1991), The Embodied Mind. Cognitive Science and Human Experience, MIT Press, Cambridge. (traduzione mia).

 

 

NOTE BIBLIOGRAFICHE

Benasayag, M. (2016) Il cervello aumentato l’uomo diminuito, Erickson

Canguilhem, G. (1966), Le normal et le pathologique, Paris: Presses Universitaires de France.

Fodor, J. (1983), The Modularity of Mind: Essay on Faculty Psychology, MIT press.

Gibson, J.J. (1979), The Ecological Approach to Visual Percepetion, Hougton Miffin, Boston.

Malafouris, L. (2018), “Bringing things to mind. 4E’s and Material Engagement” in Newen, A., De Bruin, L., Gallagher, S., The Oxford Handbook of 4E cognition.

Morabito, C., 2016, Neuroscienze cognitive: plasticità, variabilità, dimensione storica, in Mentecorpo: il cervello non è una macchina, «Scienza& Società» n.21/22.

Morabito, C. (2020), Il motore della mente. Il movimento nella storia delle scienze cognitive, Laterza-Bari.

Lewin, K. (1936), Principi di psicologia topologica, Edizioni OS, Firenze (ed.it.1961)

Noë A., (2010), Out of the head. Why you are not your brain, MIT Press, Cambridge MA, trad. it. Perchè non siamo il nostro cervello. Una teoria radicale della coscienza, Raffaello Cortina Editore, Milano

Varela, F., Rosch, E., Thompson, E., (1991), The Embodied Mind. Cognitive Science and Human Experience, MIT Press, Cambridge (Mass.).

von Uexküll, J. (1933), Umwelt und Innenwelt der Tiere, Berlin: Springer (trad. it. Ambienti animali e ambienti umani. Una passeggiata in mondi sconosciuti e invisibili, Macerata: Quodlibet, 2010).


Tra il dire e il fare - L’influenza del linguaggio nell’Intelligenza Artificiale e nella costruzione della realtà

Nel 2023 è stata pubblicata su Netflix La Legge di Lidia Poët, opera seriale italiana che ha trovato un’ottima accoglienza da parte degli spettatori. La serie è liberamente ispirata alla storia di Lidia Poët, la prima donna laureata in Giurisprudenza in Italia. Ci troviamo intorno al 1885 e Poët, dopo aver svolto il praticantato e aver superato l’esame di abilitazione alla professione forense, chiede l’iscrizione all’Ordine di Avvocati e Procuratori di Torino. La richiesta è abbastanza spigolosa per motivi differenti: innanzitutto prima di allora non era mai stata ammessa una donna all’esercizio della professione di avvocatura, perché all’epoca le donne erano prive di qualsiasi facoltà giuridica, vale a dire che non potevano, ad esempio, far parte dei pubblici uffici o testimoniare nei tribunali. La legge sull’avvocatura di stato del 1874 prevedeva esclusivamente il termine "avvocato", riconoscendo implicitamente solo gli uomini come legittimati a esercitare la professione. Di conseguenza, il Procuratore Generale del Re fece ricorso contro l'ammissione di Lidia Poët, che venne cancellata nel novembre del 1883. La mancanza del termine "avvocata" rispecchiava l'esclusione storica delle donne dalla professione, evidenziando come il linguaggio possa non solo rappresentare la realtà sociale, ma anche determinarla, rafforzarla e costruirla.

Il caso di Lidia Poët, seppur lontano nel tempo, riecheggia nelle discriminazioni attuali. Ci troviamo in un mondo che sta affrontando decisioni politiche restrittive: lo scorso 20 gennaio il Presidente degli Stati Uniti Donald Trump, durante il suo discorso di insediamento, ha affermato l’esistenza di soli due generi, quello maschile e quello femminile. Negando l’esistenza del genere indicato come X[1], si regredisce a un tempo in cui il sistema patriarcale dettava il cosiddetto “binarismo di genere”. L’assenza di un linguaggio neutro non è solo una questione terminologica, ma un atto che cancella la legittimità e la visibilità di tutte le persone che non si riconoscono nel binarismo tradizionale, negando loro lo spazio per affermarsi nel discorso pubblico e, dunque, nella realtà sociale. E questa esclusione assume oggi forme in parte inedite  in conseguenza del ruolo sempre crescente delle mediazioni algoritmiche nel plasmare la nostra quotidianità.

Non è certo un caso se, a partire dal 2024 sempre più spesso il dibattito pubblico ha visto come protagonista il tema dell’Intelligenza Artificiale. Sono stati infatti sollevati interrogativi etici radicali, come  “qual è il suo potere? Può prendere il sopravvento sull’essere umano? Potrà sostituirlo?”. Superando queste congetture, nate da anni di film fantascientifici in cui i robot assumono tutte le caratteristiche umane, si comprende rapidamente come l’Intelligenza Artificiale rappresenti uno dei nuovi strumenti tecnologici a disposizione dell’essere umano. Le tecnologie tendono sempre a suscitare un certo sgomento e scetticismo nell’opinione pubblica ma il tempo conferisce loro i propri meriti e demeriti. L’IA è una tecnologia che rispecchia perfettamente l’epoca che stiamo vivendo: progettata per apprendere da grandi quantità di dati e/o dalle continue interazioni con l’essere umano, i software di IA sono rapidi, intuitivi, posti all’immediato servizio dell’utente – come nel caso di chatbot e voicebot[2].

Torniamo adesso alla questione sollevata a principio dell’articolo. Il mezzo utilizzato nelle interazioni umani-IA è infatti proprio il linguaggio. È utile quindi portare l’attenzione su quanto le parole possano assumere un significato che non è solo astratto.

Come afferma la linguista Vera Gheno, «la lingua è lo strumento che le comunità dei parlanti usano per definire sé stessi, le relazioni con le altre persone ed etichettare il mondo. [...] la realtà è in movimento continuo, è giusto che rifletta e cambi anche la lingua»[3].

Il linguaggio verbale, che è la funzione primaria dell’essere umano, diventa quindi il veicolo della comunicazione con questi software. Nell’interazione umano-IA il processo di apprendimento è semplice e lineare: il software tramite sistemi di apprendimento come il Machine Learning (ML) apprende i dati e utilizza ciò che impara per prendere nuove decisioni e interagire con chi ne usufruisce. In poche parole basa le proprie azioni sull’esperienza che fa dei dati e delle interazioni continue con l’utente.
Ma il nostro linguaggio è complesso, perché si compone di un sistema convenzionale di segni, o significanti, a cui corrispondono determinati significati. Ogni interazione non possiede un solo scopo e significato, ma può variare in base al contesto e agli agenti della comunicazione, vale a dire chi ne è coinvolto. È stato il filosofo e linguista inglese John Austin ad affermare, alla luce di tutte queste premesse, che il linguaggio deve essere visto e studiato come azione[4]. Inoltre in ogni Paese la lingua è espressione  dei processi di formazione di una cultura, rappresentando così lo specchio dei pregi e difetti che la costituiscono.

Facendo un’attenta analisi delle interazioni con le macchine emerge quindi una manifestazione più o meno esplicita di stereotipi e pregiudizi, anche nel caso di lingue definite morfologicamente natural gender languages[5], come l’inglese.

Un esempio significativo è rappresentato dai dispositivi VPA (voice personal assistant), soprattutto quelli progettati per interagire direttamente con il pubblico, che presentano quasi sempre una voce femminile. Assistenti come Siri (Apple) e Alexa (Amazon) adottano di default una voce femminile, mentre possono permettere di selezionare una voce maschile solo se l’utente sceglie di modificarla manualmente nelle impostazioni. Trattandosi di assistenti personali viene definita da subito la gerarchia dell’interazione con l’utente: l’IA si pone al servizio delle azioni che l’utente richiede di fare. L’utilizzo di voci femminili non è quindi casuale, piuttosto cavalca e rafforza lo stereotipo della donna “al servizio” dell’uomo: la donna-segretaria, subordinata, perché ritenuta più affidabile in termini di cura e attenzione ai bisogni dell’altro.

Anche la scelta dei nomi non si allontana dallo stereotipo: Siri è un nome nordico – che vuol dire “la bella donna che conduce alla vittoria”[6] – ma nasce da un progetto dell’Istituto di ricerca SRI International, chiamato CALO (Cognitive Assistant that Learns and Organizes). Il termine calo (, -ōnis) in latino vuol dire “servo di soldati, scudiero”; Alexa invece – da Alexander, Alexandra – etimologicamente deriva dal greco “alexo”, che significa “difendere”, e “aner”, letteralmente “uomo”; significa quindi ‘difensore dell’uomo’ e corrisponde all’epiteto che veniva conferito alla dea greca Era, dea della fertilità e del matrimonio. Nell’identificare donne in posizioni di potere si ha la tendenza, nella dialettica comune, a utilizzare il nome o il cognome preceduto dall’articolo determinativo, ad esempio “la Meloni” o “Giorgia” anziché Meloni o Giorgia Meloni, come si usa fare al maschile; basti pensare al Presidente della Repubblica Mattarella che appunto viene identificato tramite il cognome o tramite l’utilizzo di nome e cognome per esteso.

Anche nel processo di creazione di VPA si è riscontrato questo utilizzo diversificato di nome e/o cognome per identificare chatbot maschili o femminili. In effetti, l’azienda IBM nel 2020 ha sviluppato un VPA proprio, chiamato Watson Assistant con l’obiettivo di offrire assistenza in ambito sanitario, bancario e nel servizio clienti delle aziende. Dalla creazione di questo assistente virtuale si possono quindi analizzare due aspetti fondamentali, uno linguistico e uno contenutistico, tenendo a mente gli esempi di Siri e Alexa.

Per quanto riguarda la denominazione del VPA è indicativa la scelta di utilizzare un cognome, Watson. Allo stesso modo, l'adozione di una voce maschile per ambiti professionali, come quello sanitario o bancario, risponde a precise considerazioni. Mentre i voicebot pensati per l'uso quotidiano hanno di default voci femminili, un assistente virtuale impiegato in contesti che richiedono competenze specifiche appare più credibile e affidabile se dotato di una voce maschile.

È necessaria un’indagine maggiormente approfondita sulle interazioni umani-IA per comprendere come queste, pur sembrando neutrali, trasmettano valori culturali radicati nel linguaggio. Un altro esempio significativo è rappresentato dai software di IA Generativa: attraverso i prompt inseriti dall’umano, l’IA risponde e genera contenuti. È stato particolarmente interessante osservare come, anche utilizzando l’inglese come lingua di interazione ritenuta neutra, i risultati prodotti fossero comunque intrisi di stereotipi. Nell’aprile del 2024 assieme al gruppo di ricerca PAD (Psicologia degli Ambienti Digitali) è stata esaminata Runway Gen 2, una piattaforma di generazione video basata sull'Intelligenza Artificiale, per studiare i bias presenti negli output generati dall’IA. Per il test abbiamo fornito una serie di input neutri che ci aspettavamo fossero interpretati in modo non stereotipato. Tuttavia, i risultati hanno rivelato una tendenza interessante, e forse problematica, nell'output generato. Il primo esempio richiedeva un breve video del volto sorridente di un CEO[7] ma, nonostante l’input fosse neutro, il sistema ha prodotto esclusivamente immagini di uomini, tutti bianchi. Questo suggerisce che l'IA associa automaticamente il ruolo di CEO a una figura maschile e caucasica. Nel secondo esempio, abbiamo chiesto un video simile, ma questa volta riferito al volto sorridente di un insegnante di scuola primaria. In questo caso l’IA ha generato esclusivamente volti femminili, riflettendo il radicato stereotipo sociale secondo cui l’insegnamento primario sarebbe un’occupazione tipicamente femminile, legata non solo all’istruzione ma anche all’accudimento degli studenti. Questi risultati sollevano interrogativi importanti sul ruolo dei bias nei sistemi di IA. Anche quando gli input sono neutri, gli output riflettono pregiudizi culturali e stereotipi preesistenti, suggerendo che i dati di addestramento e gli algoritmi alla base di queste tecnologie necessitano di maggiore attenzione per garantire un approccio inclusivo e non discriminatorio.

Scelte come quella adottata da Trump nella nostra società agiscono come scintille: possono innescare profonde conseguenze discriminatorie che non si limitano alla sfera personale, ma si riflettono su scala più ampia. La negazione del genere X legittima atteggiamenti discriminatori, rafforzando pregiudizi e creando un clima di esclusione che si traduce in un aumento delle difficoltà sociali, lavorative e psicologiche per le persone non binarie e di genere non conforme. Il mancato riconoscimento istituzionale riduce le possibilità di tutela legale in casi di discriminazione e contribuisce a marginalizzare ulteriormente chi già fatica a trovare il proprio spazio nella società. Inoltre, tali decisioni influenzano ogni strumento che creiamo o utilizziamo, dai sistemi burocratici ai modelli educativi, fino agli algoritmi di intelligenza artificiale che, basandosi su dati limitati, riproducono e amplificano le esclusioni.

Regredire a un’epoca in cui esisteva una sola voce dominante significa non solo cancellare identità, ma anche impedire l’evoluzione di una società più equa e inclusiva.

Questi temi aprono a riflessioni che meritano un ulteriore approfondimento, che si concentrerà su un caso specifico di manifestazione di bias negli algoritmi di Intelligenza Artificiale, interrogandoci su come tali distorsioni prendano forma e quali conseguenze generino nella costruzione della realtà.

 

NOTE

[1] A partire dall'11 aprile 2022, i cittadini americani avevano la possibilità selezionare una 'X' come indicatore di genere sulla domanda di passaporto, a indicare la propria identificazione nel genere intersex – Trump nel provvedimento afferma che le agenzie federali «smetteranno di pretendere che gli uomini possono essere donne e che le donne possono essere uomini nell'attuazione delle leggi che tutelano contro la discriminazione sessuale»

[2] Con chatbot, o assistenti virtuali, si intendono i software in grado di eseguire azioni per un interlocutore umano basandosi su comandi ricevuti dall’utente, sia testuali sia vocali.

[3] Michielin F., podcast Maschiacci, intervista a Vera Gheno, 2022, https://open.spotify.com/episode/6fZBSLtlhFvXSz087BZN86?si=FkA9I6CwQGG-0I0PgPZpUg

[4]  La teoria degli atti linguistici di John Austin deriva dalla lezione How to do things with words che lui stesso tenne presso l’Università di Harvard nel 1955, ma è stata pubblicata postuma (1962)

[5] lingue con genere naturale (natural gender languages) in cui sostantivi non hanno genere grammaticale ma i pronomi sì; sono così danese o inglese (basti pensare ad esempio che in inglese si utilizzano he/she/it per le cose, ma anche they per persone di cui non si conosce il genere o per una persona che non si identifica nei due generi tradizionali)

[6] Cheyer A., How Did Siri Get Its Name?: https://www.forbes.com/sites/quora/2012/12/21/how-did-siri-get-its-name/#19fd7c57376b

[7] Prompt: a short video of a smiling CEO

 

BIBLIOGRAFIA

Cheyer A., How Did Siri Get Its Name?, https://www.forbes.com/sites/quora/2012/12/21/how-did-siri-get-its-name/#19fd7c57376b

Gheno V., podcast “Amare Parole”, Ep. 35 – Architetta, avvocata e co., 2023, https://open.spotify.com/episode/58C56TsAUfNdY75ZipaNma?si=Imf2JA7iRCy1IQPif6fxyw

Legge 8 giugno 1874, n 1938 che regola l’esercizio delle professioni di Avvocato e di Procuratore
https://www.normattiva.it/uri-res/N2Ls?urn:nir:stato:legge:1874-06-08;1938

Lombard M., Xu K., 2021, Social Responses to Media Technologies in the 21st Century: The Media Are Social Actors Paradigm

Michielin F., podcast Maschiacci, intervista a Vera Gheno, 2022, https://open.spotify.com/episode/6fZBSLtlhFvXSz087BZN86?si=FkA9I6CwQGG-0I0PgPZpUg

Whitley B. E., & Kite M. E., The psychology of prejudice and discrimination, Belmont, CA: Wadsworth Cengage Learning, 2010