«The crucial difference between CAI (Conversational Artificial Intelligence) and humans is obvious: CAI mimics being a rational agent, but it is not; therefore, CAI simulates having a therapeutic conversation, but it does not have any»[1]
Sedlakova & Trachsel, 2022

 

Quando interagiamo con un’Intelligenza Artificiale Conversazionale (IAC) come ChatGPT, ci troviamo di fronte a un’illusione sofisticata: risposte fluide, tono empatico, un’apparente capacità di comprensione. Eppure, dietro ogni parola non c’è un interlocutore reale, ma un sistema che riorganizza dati linguistici senza comprenderne il significato. Ci sentiamo ascoltati perché attribuiamo intenzionalità[2] alle parole dell’IA, come se fosse capace di empatia. Questo fenomeno è il risultato del meccanismo cognitivo dell’antropomorfismo, ossia la tendenza ad attribuire caratteristiche umane a esseri non umani, come animali, oggetti o fenomeni naturali[3] (Cambridge Dictionary, 2019). Questa inclinazione può influenzare il modo in cui interagiamo con le tecnologie, portandoci a percepirle come più affidabili o empatiche di quanto siano in realtà: l’essere umano per natura riconosce intenzioni e stati emotivi anche quando non ci sono (Sedlakova & Trachsel, 2023). Così, un chatbot che scrive «Mi dispiace che tu ti senta così» attiva in noi le stesse risposte emotive di una conversazione umana, pur essendo solo un’imitazione.

Nonostante il concetto di empatia sia estremamente complesso e abbia una lunga storia, ogni sua definizione riconosce che essa nasce dall’incontro tra due soggettività, e dunque dalla capacità di sentire l’altro e riconoscerne l’alterità in un contesto di identità della dimensione incarnata, situata ed enattiva dei viventi (Galloni, 2009). Con un’IA Conversazionale, al contrario, non si instaura una relazione reale, ma uno scambio unidirezionale: non è la nostra esperienza a essere compresa, ma solo il modo in cui la traduciamo in parole. L’effetto dell’antropomorfismo trasforma l’interazione con un’IA in una sorta di specchio emozionale: proiettiamo sulla macchina il nostro bisogno di connessione, vedendo in essa qualcosa che non è realmente presente. Questa proiezione può offrire conforto immediato, ma rischia di impoverire la nostra capacità di distinguere tra ciò che è umano e ciò che è un’imitazione. Il pericolo non risiede nell’uso dell’IA in sé, ma nella possibilità di abituarsi a un interlocutore che si limita a riflettere ciò che vogliamo sentire.

Oggi l’Intelligenza Artificiale sta ridefinendo – lentamente ma inesorabilmente – il campo della psicoterapia, espandendo le possibilità di supporto psicologico oltre i confini del tradizionale setting clinico. Chatbot come WoebotHealth e Wysa[4] sono progettati per fornire supporto emotivo attraverso interazioni testuali continue, basandosi su modelli di terapia cognitivo-comportamentale (CBT) e offrendo agli utenti un ambiente privo di giudizio. Eppure, la loro capacità di adattarsi in modo profondo all’individualità del paziente, se anche esistesse, risulta nei fatti ancora fortemente limitata. I chatbot basati su algoritmi di Natural Language Processing presentano diverse criticità, tra cui l’incapacità di cogliere il contesto della comunicazione, né comprendere realmente le sfumature del linguaggio, in primo luogo di quelle emotive. Mentre un terapeuta umano può cogliere cambiamenti nel tono di voce, nelle espressioni facciali o nelle pause durante una conversazione, un chatbot si basa esclusivamente sul testo e sull’analisi di esso, condotta esclusivamente su modelli probabilistici. Questo può portare l’altro soggetto dell’interazione – l’essere umano, il cui sistema nervoso è stato “cablato” da millenni di evoluzione per processare in maniera privilegiata il linguaggio umano, vero segno distintivo della comunicazione della nostra specie – a reagire in maniera concreta e “sensata” a risposte della macchina che, pur essendo linguisticamente appropriate, non rispecchiano un reale scambio comunicativo. Molti utenti cercano tuttavia proprio questo, nell’interazione pseudoterapeutica con le IAC. Alcuni studi suggeriscono che le persone possano sentirsi più a loro agio nel condividere dettagli intimi con un chatbot piuttosto che con un essere umano, proprio perché sanno di non essere giudicate[5].

Dal punto di vista terapeutico, l’utilizzo dell’IA non è dunque privo di rischi. Sebbene gli strumenti basati su CBT abbiano mostrato un certo grado di efficacia nel ridurre i sintomi di ansia e depressione, la qualità dell’intervento è ancora oggetto di studio. Ricerche recenti hanno evidenziato che, mentre i chatbot possono migliorare l’accessibilità ai servizi di supporto, non sono in grado di replicare l’alleanza terapeutica tipica di un incontro umano (Cioffi et al., 2022). Inoltre, senza un monitoraggio umano, l’IA può interpretare erroneamente il contesto o fornire risposte inappropriate. Questo è particolarmente critico nei casi in cui il paziente manifesti pensieri suicidi o sintomi psicotici; situazioni in cui una risposta non adeguata può avere conseguenze gravi. È stato analizzato ChatGPT come possibile assistente terapeutico, capace di raccogliere informazioni tra una sessione e l’altra e di fornire al terapeuta un quadro riassuntivo della situazione del paziente (Esghie, 2023). Tuttavia, nonostante le potenzialità, si sollevano interrogativi cruciali sull’affidabilità e la sicurezza di tali strumenti (Miner et al., 2019). L’IA non possiede consapevolezza né intenzionalità: risponde in base a correlazioni statistiche tra parole, apprendendo dallo scambio verbale con l’utente, ma senza comprenderne il significato intrinseco. Questo influenza anche la dimensione della fiducia: molte persone potrebbero erroneamente credere di essere comprese da un chatbot, sviluppando un attaccamento che, in assenza di una vera reciprocità, potrebbe portare a forme di dipendenza emotiva o a un’errata percezione del supporto ricevuto. A fare da argine a questo scenario troviamo anche una dimensione politica della scienza e della tecnica, inerente alla sempre più evidente natura capitalistica di questi strumenti, che fanno dei dati forniti spontaneamente dagli utenti la loro principale moneta di scambio. Uno studio recente ha peraltro evidenziato che la fiducia nei confronti della terapia basata su IA è ancora bassa, soprattutto a causa delle preoccupazioni legate alla privacy e alla sicurezza dei dati (Aktan, 2022).

L’introduzione dell’IA nella psicoterapia ha portato tuttavia la comunità scientifica e il dibattito pubblico a una necessaria riflessione sul valore della relazione terapeutica. Alcuni studi hanno suggerito che l’uso di chatbot potrebbe modificare il modo in cui le persone si rapportano alla figura del terapeuta, spostando l’attenzione dalla relazione interpersonale a una forma di autoosservazione guidata dall’IA (Beg et al., 2024). Se questo, da un lato, potrebbe avere vantaggi in termini di accessibilità al supporto psicologico, dall’altro rischia di ridurre o annullare l’efficacia di un intervento in cui il rapporto umano è cardine ed elemento essenziale. Il successo e la qualità della terapia non dipendono solo dai contenuti trasmessi, ma anche dalla capacità del terapeuta di cogliere segnali emotivi e di adattare l’intervento alle esigenze individuali del paziente – qualità che un’IA non possiede. Inoltre, la natura algoritmi di questi strumenti porta inevitabilmente a una standardizzazione dell’approccio terapeutico: i modelli di IA, basandosi su set di dati predefiniti, tendono a privilegiare metodologie uniformi, come quelle cognitivo-comportamentali, mentre la psicoterapia umana si caratterizza per un alto grado di personalizzazione e per una molteplicità di orientamenti e pratiche. Un altro aspetto da considerare è il rischio di standardizzazione eccessiva dei modelli proposti da queste tecnologie come rappresentativi di ciò che dovrebbe essere la psicoterapia. I modelli di IA si basano su set di dati predefiniti e tendono a favorire approcci uniformi (essenzialmente, a oggi, identificabili con quelli cognitivo-comportamentali), mentre la psicoterapia umana è caratterizzata da un alto grado di personalizzazione, dipendenza dal vissuto e dal contesto, e da una ampia pluralità di approccio possibili.

L’uso di ChatGPT e di altre IA Conversazionali in psicoterapia non dovrebbe comunque essere demonizzato, ma richiede un approccio critico e regolamentato. La collaborazione tra esseri umani e agenti artificiali potrebbe portare alla creazione di modelli ibridi, in cui l’IA funge da strumento complementare, affiancando il lavoro del terapeuta e migliorando l’efficacia degli interventi senza sostituire il contatto umano diretto (Miner et al., 2019). Questi strumenti possono offrire un supporto pratico, fungere da complemento alla terapia e aiutare a ridurre il divario nell’accesso alle cure psicologiche. Tuttavia, la loro adozione deve avvenire con consapevolezza dei limiti: l’IA non pu  sostituire l’empatia umana né creare un’autentica relazione terapeutica. La trasparenza e la supervisione umana restano essenziali per garantire che l’integrazione dell’IA nella psicoterapia non comprometta l’integrità delle relazioni terapeutiche e il benessere del paziente.

Sebbene l’IA possa svolgere un ruolo utile nel supporto alla salute mentale, la sua implementazione deve essere guidata da un’attenta valutazione dei benefici e dei rischi. Possiamo davvero considerare sufficiente un sistema che risponde sulla base di correlazioni statistiche senza comprendere? Chi tutela il paziente in caso di errori o malintesi? Strumenti come ChatGPT possono offrire quello che sembra supporto e conforto, ma è essenziale mantenere una distinzione chiara tra un’interazione simulata e l’esperienza di una relazione autentica, unica e insostituibile nel suo essere profondamente umana.

 

 

NOTE

[1] «La differenza cruciale tra l’IA conversazionale (CAI) e gli esseri umani è evidente: la CAI simula un agente razionale, ma non lo è; di conseguenza, simula di avere una conversazione terapeutica, ma in realtà non ne ha alcuna» (traduzione da: Sedlakova, J., & Trachsel, M. (2022). Conversational Artificial Intelligence in Psychotherapy: A New Therapeutic Tool or Agent? The American Journal of Bioethics, 23(5), 4–13. https://doi.org/10.1080/15265161.2022.2048739).

[2] Heider, F. (1958). The psychology of interpersonal relations. Hoboken, NJ, US: John Wiley & Sons Inc.

[3] Gibbons, S., Mugunthan, T., Nielsen, J. (2023). The 4 Degrees of Anthopomorphism of Generative AI. Nielsen Norman Group. https://www.nngroup.com/articles/anthropomorphism/.

[4] WoebotHealth, rilasciato nel 2017, e creato dalla psicologa Alyson Darcy, è un chatbot ideato per supporto psicologico, sempre disponibile, con interfaccia messaggistica (https:// woebothealth.com/).

Wysa AI Coach (https://www.wysa.com/) è un servizio di counseling basato sull’intelligenza artificiale addestrato su tecniche di terapia CBT, DBT, meditazione.

[5] Raile, P. (2024). The usefulness of ChatGPT for psychotherapists and patients. Humanities and Social Sciences Communications, 11(47). https://doi.org/10.1057/s41599-023-02567-0, p. 3.

 

BIBLIOGRAFIA

Aktan, M. E., Turhan, Z., & Dolu, I. (2022). Attitudes and perspectives towards the preferences for artificial intelligence in psychotherapy. Computers in Human Behavior, 133, 107273. https:// doi.org/10.1016/j.chb.2022.107273.

Beg, M. J., Verma, M., Vishvak Chanthar, K. M. M., & Verma, M. K. (2024). Artificial Intelligence for Psychotherapy: A review of the current state and future directions. Indian Journal of Psychological Medicine, XX(X), 1-12. https://doi.org/10.1177/02537176241260819.

Cioffi, V., Mosca, L. L., Moretto, E., Ragozzino, O., Stanzione, R., Bottone, M., Maldonato, N. M., Muzii, B., & Sperandeo, R. (2022). Computational methods in psychotherapy: A scoping review.

International Journal of Environmental Research and Public Health, 19(12358). https://doi.org/

10.3390/ijerph191912358.

Eshghie, M., & Eshghie, M. (2023). ChatGPT as a therapist assistant: A suitability study. arXiv Preprint. https://arxiv.org/abs/2304.09873.

Galloni, G. (2009). Basi motorie dell’empatia cognitiva? Teorie & Modelli, XIV(1):134-147.

Gibbons, S., Mugunthan, T., & Nielsen, J. (2023). The 4 Degrees of Anthropomorphism of

Generative AI. Nielsen Norman Group. https://www.nngroup.com/articles/anthropomorphism/.

Heider, F. (1958). The psychology of interpersonal relations. John Wiley & Sons.

Miner, A. S., Shah, N., Bullock, K. D., Arnow, B. A., Bailenson, J., & Hancock, J. (2019). Key considerations for incorporating conversational AI in psychotherapy. Frontiers in Psychiatry, 10, 746. https://doi.org/10.3389/fpsyt.2019.00746.

Raile, P. (2024). The usefulness of ChatGPT for psychotherapists and patients. Humanities and Social Sciences Communications, 11(47). https://doi.org/10.1057/s41599-023-02567-0.

Sedlakova, J., & Trachsel, M. (2022). Conversational Artificial Intelligence in Psychotherapy: A New Therapeutic Tool or Agent? The American Journal of Bioethics, 23(5), 4–13. https://doi.org/ 10.1080/15265161.2022.2048739.

Autori

  • Giorgia Sardi e Mattia Della Rocca

    Giorgia Sardi è laureata in Scienze dell’Informazione, della Comunicazione e dell’Editoria all’Università di Roma Tor Vergata. Membro del gruppo di ricerca internazionale di PAD — Psicologia degli Ambienti Digitali e collabora con la cattedra del corso omonimo. È speaker del PADcast, podcast dedicato alla psicologia dell’Intelligenza Artificiale. Il suo progetto di ricerca, In Love with No-Body, esplora i rapporti tra esseri umani e social chatbot, analizzando l’intersezione tra implicazioni psicologiche, etiche e culturali dell’interazione con l’IA. Indaga le forme di intimità nell’era dell’automazione, dove l’assenza di corpo non implica assenza di legame. Studia i chatbot perché almeno quelli non visualizzano senza rispondere. Mattia Della Rocca ha conseguito un dottorato di ricerca in Filosofia e Storia della Scienza presso l’Università di Pisa. È ricercatore postdoc presso l’Università di Roma Tor Vergata, dove insegna diversi corsi di psicologia presso la Facoltà di Medicina. È inoltre docente presso la Scuola di Specializzazione in Psicoterapia “Bios Psyché” di Roma e presso la sede italiana del Council on International Educational Exchange (CIEE). Negli ultimi anni ha tenuto diverse lezioni per il programma estivo di studio all’estero della Tulane University. È Principal Investigator del gruppo di ricerca internazionale PAD, una rete di studiose e studiosi europei e americani dedicata allo studio della psicologia degli ambienti digitali e dell’Intelligenza Artificiale.

  • Giorgia Sardi

    Laureata in Scienze dell’Informazione, della Comunicazione e dell’Editoria all’Università di Roma Tor Vergata. Membro del gruppo di ricerca internazionale di PAD — Psicologia degli Ambienti Digitali e collabora con la cattedra del corso omonimo. È speaker del PADcast, podcast dedicato alla psicologia dell’Intelligenza Artificiale. Il suo progetto di ricerca, In Love with No-Body, esplora i rapporti tra esseri umani e social chatbot, analizzando l’intersezione tra implicazioni psicologiche, etiche e culturali dell’interazione con l’IA. Indaga le forme di intimità nell’era dell’automazione, dove l’assenza di corpo non implica assenza di legame. Studia i chatbot perché almeno quelli non visualizzano senza rispondere.

  • Mattia Della Rocca

    Ha conseguito un dottorato di ricerca in Filosofia e Storia della Scienza presso l’Università di Pisa. È ricercatore postdoc presso l’Università di Roma Tor Vergata, dove insegna diversi corsi di psicologia presso la Facoltà di Medicina. È inoltre docente presso la Scuola di Specializzazione in Psicoterapia “Bios Psyché” di Roma e presso la sede italiana del Council on International Educational Exchange (CIEE). Negli ultimi anni ha tenuto diverse lezioni per il programma estivo di studio all’estero della Tulane University. È Principal Investigator del gruppo di ricerca internazionale PAD, una rete di studiose e studiosi europei e americani dedicata allo studio della psicologia degli ambienti digitali e dell’Intelligenza Artificiale.