Nel 2023 è stata pubblicata su Netflix La Legge di Lidia Poët, opera seriale italiana che ha trovato un’ottima accoglienza da parte degli spettatori. La serie è liberamente ispirata alla storia di Lidia Poët, la prima donna laureata in Giurisprudenza in Italia. Ci troviamo intorno al 1885 e Poët, dopo aver svolto il praticantato e aver superato l’esame di abilitazione alla professione forense, chiede l’iscrizione all’Ordine di Avvocati e Procuratori di Torino. La richiesta è abbastanza spigolosa per motivi differenti: innanzitutto prima di allora non era mai stata ammessa una donna all’esercizio della professione di avvocatura, perché all’epoca le donne erano prive di qualsiasi facoltà giuridica, vale a dire che non potevano, ad esempio, far parte dei pubblici uffici o testimoniare nei tribunali. La legge sull’avvocatura di stato del 1874 prevedeva esclusivamente il termine “avvocato”, riconoscendo implicitamente solo gli uomini come legittimati a esercitare la professione. Di conseguenza, il Procuratore Generale del Re fece ricorso contro l’ammissione di Lidia Poët, che venne cancellata nel novembre del 1883. La mancanza del termine “avvocata” rispecchiava l’esclusione storica delle donne dalla professione, evidenziando come il linguaggio possa non solo rappresentare la realtà sociale, ma anche determinarla, rafforzarla e costruirla.

Il caso di Lidia Poët, seppur lontano nel tempo, riecheggia nelle discriminazioni attuali. Ci troviamo in un mondo che sta affrontando decisioni politiche restrittive: lo scorso 20 gennaio il Presidente degli Stati Uniti Donald Trump, durante il suo discorso di insediamento, ha affermato l’esistenza di soli due generi, quello maschile e quello femminile. Negando l’esistenza del genere indicato come X[1], si regredisce a un tempo in cui il sistema patriarcale dettava il cosiddetto “binarismo di genere”. L’assenza di un linguaggio neutro non è solo una questione terminologica, ma un atto che cancella la legittimità e la visibilità di tutte le persone che non si riconoscono nel binarismo tradizionale, negando loro lo spazio per affermarsi nel discorso pubblico e, dunque, nella realtà sociale. E questa esclusione assume oggi forme in parte inedite  in conseguenza del ruolo sempre crescente delle mediazioni algoritmiche nel plasmare la nostra quotidianità.

Non è certo un caso se, a partire dal 2024 sempre più spesso il dibattito pubblico ha visto come protagonista il tema dell’Intelligenza Artificiale. Sono stati infatti sollevati interrogativi etici radicali, come  “qual è il suo potere? Può prendere il sopravvento sull’essere umano? Potrà sostituirlo?”. Superando queste congetture, nate da anni di film fantascientifici in cui i robot assumono tutte le caratteristiche umane, si comprende rapidamente come l’Intelligenza Artificiale rappresenti uno dei nuovi strumenti tecnologici a disposizione dell’essere umano. Le tecnologie tendono sempre a suscitare un certo sgomento e scetticismo nell’opinione pubblica ma il tempo conferisce loro i propri meriti e demeriti. L’IA è una tecnologia che rispecchia perfettamente l’epoca che stiamo vivendo: progettata per apprendere da grandi quantità di dati e/o dalle continue interazioni con l’essere umano, i software di IA sono rapidi, intuitivi, posti all’immediato servizio dell’utente – come nel caso di chatbot e voicebot[2].

Torniamo adesso alla questione sollevata a principio dell’articolo. Il mezzo utilizzato nelle interazioni umani-IA è infatti proprio il linguaggio. È utile quindi portare l’attenzione su quanto le parole possano assumere un significato che non è solo astratto.

Come afferma la linguista Vera Gheno, «la lingua è lo strumento che le comunità dei parlanti usano per definire sé stessi, le relazioni con le altre persone ed etichettare il mondo. […] la realtà è in movimento continuo, è giusto che rifletta e cambi anche la lingua»[3].

Il linguaggio verbale, che è la funzione primaria dell’essere umano, diventa quindi il veicolo della comunicazione con questi software. Nell’interazione umano-IA il processo di apprendimento è semplice e lineare: il software tramite sistemi di apprendimento come il Machine Learning (ML) apprende i dati e utilizza ciò che impara per prendere nuove decisioni e interagire con chi ne usufruisce. In poche parole basa le proprie azioni sull’esperienza che fa dei dati e delle interazioni continue con l’utente.
Ma il nostro linguaggio è complesso, perché si compone di un sistema convenzionale di segni, o significanti, a cui corrispondono determinati significati. Ogni interazione non possiede un solo scopo e significato, ma può variare in base al contesto e agli agenti della comunicazione, vale a dire chi ne è coinvolto. È stato il filosofo e linguista inglese John Austin ad affermare, alla luce di tutte queste premesse, che il linguaggio deve essere visto e studiato come azione[4]. Inoltre in ogni Paese la lingua è espressione  dei processi di formazione di una cultura, rappresentando così lo specchio dei pregi e difetti che la costituiscono.

Facendo un’attenta analisi delle interazioni con le macchine emerge quindi una manifestazione più o meno esplicita di stereotipi e pregiudizi, anche nel caso di lingue definite morfologicamente natural gender languages[5], come l’inglese.

Un esempio significativo è rappresentato dai dispositivi VPA (voice personal assistant), soprattutto quelli progettati per interagire direttamente con il pubblico, che presentano quasi sempre una voce femminile. Assistenti come Siri (Apple) e Alexa (Amazon) adottano di default una voce femminile, mentre possono permettere di selezionare una voce maschile solo se l’utente sceglie di modificarla manualmente nelle impostazioni. Trattandosi di assistenti personali viene definita da subito la gerarchia dell’interazione con l’utente: l’IA si pone al servizio delle azioni che l’utente richiede di fare. L’utilizzo di voci femminili non è quindi casuale, piuttosto cavalca e rafforza lo stereotipo della donna “al servizio” dell’uomo: la donna-segretaria, subordinata, perché ritenuta più affidabile in termini di cura e attenzione ai bisogni dell’altro.

Anche la scelta dei nomi non si allontana dallo stereotipo: Siri è un nome nordico – che vuol dire “la bella donna che conduce alla vittoria”[6] – ma nasce da un progetto dell’Istituto di ricerca SRI International, chiamato CALO (Cognitive Assistant that Learns and Organizes). Il termine calo (, -ōnis) in latino vuol dire “servo di soldati, scudiero”; Alexa invece – da Alexander, Alexandra – etimologicamente deriva dal greco “alexo”, che significa “difendere”, e “aner”, letteralmente “uomo”; significa quindi ‘difensore dell’uomo’ e corrisponde all’epiteto che veniva conferito alla dea greca Era, dea della fertilità e del matrimonio. Nell’identificare donne in posizioni di potere si ha la tendenza, nella dialettica comune, a utilizzare il nome o il cognome preceduto dall’articolo determinativo, ad esempio “la Meloni” o “Giorgia” anziché Meloni o Giorgia Meloni, come si usa fare al maschile; basti pensare al Presidente della Repubblica Mattarella che appunto viene identificato tramite il cognome o tramite l’utilizzo di nome e cognome per esteso.

Anche nel processo di creazione di VPA si è riscontrato questo utilizzo diversificato di nome e/o cognome per identificare chatbot maschili o femminili. In effetti, l’azienda IBM nel 2020 ha sviluppato un VPA proprio, chiamato Watson Assistant con l’obiettivo di offrire assistenza in ambito sanitario, bancario e nel servizio clienti delle aziende. Dalla creazione di questo assistente virtuale si possono quindi analizzare due aspetti fondamentali, uno linguistico e uno contenutistico, tenendo a mente gli esempi di Siri e Alexa.

Per quanto riguarda la denominazione del VPA è indicativa la scelta di utilizzare un cognome, Watson. Allo stesso modo, l’adozione di una voce maschile per ambiti professionali, come quello sanitario o bancario, risponde a precise considerazioni. Mentre i voicebot pensati per l’uso quotidiano hanno di default voci femminili, un assistente virtuale impiegato in contesti che richiedono competenze specifiche appare più credibile e affidabile se dotato di una voce maschile.

È necessaria un’indagine maggiormente approfondita sulle interazioni umani-IA per comprendere come queste, pur sembrando neutrali, trasmettano valori culturali radicati nel linguaggio. Un altro esempio significativo è rappresentato dai software di IA Generativa: attraverso i prompt inseriti dall’umano, l’IA risponde e genera contenuti. È stato particolarmente interessante osservare come, anche utilizzando l’inglese come lingua di interazione ritenuta neutra, i risultati prodotti fossero comunque intrisi di stereotipi. Nell’aprile del 2024 assieme al gruppo di ricerca PAD (Psicologia degli Ambienti Digitali) è stata esaminata Runway Gen 2, una piattaforma di generazione video basata sull’Intelligenza Artificiale, per studiare i bias presenti negli output generati dall’IA. Per il test abbiamo fornito una serie di input neutri che ci aspettavamo fossero interpretati in modo non stereotipato. Tuttavia, i risultati hanno rivelato una tendenza interessante, e forse problematica, nell’output generato. Il primo esempio richiedeva un breve video del volto sorridente di un CEO[7] ma, nonostante l’input fosse neutro, il sistema ha prodotto esclusivamente immagini di uomini, tutti bianchi. Questo suggerisce che l’IA associa automaticamente il ruolo di CEO a una figura maschile e caucasica. Nel secondo esempio, abbiamo chiesto un video simile, ma questa volta riferito al volto sorridente di un insegnante di scuola primaria. In questo caso l’IA ha generato esclusivamente volti femminili, riflettendo il radicato stereotipo sociale secondo cui l’insegnamento primario sarebbe un’occupazione tipicamente femminile, legata non solo all’istruzione ma anche all’accudimento degli studenti. Questi risultati sollevano interrogativi importanti sul ruolo dei bias nei sistemi di IA. Anche quando gli input sono neutri, gli output riflettono pregiudizi culturali e stereotipi preesistenti, suggerendo che i dati di addestramento e gli algoritmi alla base di queste tecnologie necessitano di maggiore attenzione per garantire un approccio inclusivo e non discriminatorio.

Scelte come quella adottata da Trump nella nostra società agiscono come scintille: possono innescare profonde conseguenze discriminatorie che non si limitano alla sfera personale, ma si riflettono su scala più ampia. La negazione del genere X legittima atteggiamenti discriminatori, rafforzando pregiudizi e creando un clima di esclusione che si traduce in un aumento delle difficoltà sociali, lavorative e psicologiche per le persone non binarie e di genere non conforme. Il mancato riconoscimento istituzionale riduce le possibilità di tutela legale in casi di discriminazione e contribuisce a marginalizzare ulteriormente chi già fatica a trovare il proprio spazio nella società. Inoltre, tali decisioni influenzano ogni strumento che creiamo o utilizziamo, dai sistemi burocratici ai modelli educativi, fino agli algoritmi di intelligenza artificiale che, basandosi su dati limitati, riproducono e amplificano le esclusioni.

Regredire a un’epoca in cui esisteva una sola voce dominante significa non solo cancellare identità, ma anche impedire l’evoluzione di una società più equa e inclusiva.

Questi temi aprono a riflessioni che meritano un ulteriore approfondimento, che si concentrerà su un caso specifico di manifestazione di bias negli algoritmi di Intelligenza Artificiale, interrogandoci su come tali distorsioni prendano forma e quali conseguenze generino nella costruzione della realtà.

 

NOTE

[1] A partire dall’11 aprile 2022, i cittadini americani avevano la possibilità selezionare una ‘X’ come indicatore di genere sulla domanda di passaporto, a indicare la propria identificazione nel genere intersex – Trump nel provvedimento afferma che le agenzie federali «smetteranno di pretendere che gli uomini possono essere donne e che le donne possono essere uomini nell’attuazione delle leggi che tutelano contro la discriminazione sessuale»

[2] Con chatbot, o assistenti virtuali, si intendono i software in grado di eseguire azioni per un interlocutore umano basandosi su comandi ricevuti dall’utente, sia testuali sia vocali.

[3] Michielin F., podcast Maschiacci, intervista a Vera Gheno, 2022, https://open.spotify.com/episode/6fZBSLtlhFvXSz087BZN86?si=FkA9I6CwQGG-0I0PgPZpUg

[4]  La teoria degli atti linguistici di John Austin deriva dalla lezione How to do things with words che lui stesso tenne presso l’Università di Harvard nel 1955, ma è stata pubblicata postuma (1962)

[5] lingue con genere naturale (natural gender languages) in cui sostantivi non hanno genere grammaticale ma i pronomi sì; sono così danese o inglese (basti pensare ad esempio che in inglese si utilizzano he/she/it per le cose, ma anche they per persone di cui non si conosce il genere o per una persona che non si identifica nei due generi tradizionali)

[6] Cheyer A., How Did Siri Get Its Name?: https://www.forbes.com/sites/quora/2012/12/21/how-did-siri-get-its-name/#19fd7c57376b

[7] Prompt: a short video of a smiling CEO

 

BIBLIOGRAFIA

Cheyer A., How Did Siri Get Its Name?, https://www.forbes.com/sites/quora/2012/12/21/how-did-siri-get-its-name/#19fd7c57376b

Gheno V., podcast “Amare Parole”, Ep. 35 – Architetta, avvocata e co., 2023, https://open.spotify.com/episode/58C56TsAUfNdY75ZipaNma?si=Imf2JA7iRCy1IQPif6fxyw

Legge 8 giugno 1874, n 1938 che regola l’esercizio delle professioni di Avvocato e di Procuratore
https://www.normattiva.it/uri-res/N2Ls?urn:nir:stato:legge:1874-06-08;1938

Lombard M., Xu K., 2021, Social Responses to Media Technologies in the 21st Century: The Media Are Social Actors Paradigm

Michielin F., podcast Maschiacci, intervista a Vera Gheno, 2022, https://open.spotify.com/episode/6fZBSLtlhFvXSz087BZN86?si=FkA9I6CwQGG-0I0PgPZpUg

Whitley B. E., & Kite M. E., The psychology of prejudice and discrimination, Belmont, CA: Wadsworth Cengage Learning, 2010

Autore

  • Martina Massimi

    Si è formata tra l’Università degli Studi Roma Tre, dove ha conseguito la laurea triennale in Arti, Musica e Spettacolo, e l’Università di Roma Tor Vergata, dove ha ottenuto la laurea magistrale in Scienze dell’Informazione, della Comunicazione e dell’Editoria. È membro del gruppo di ricerca internazionale PAD – Psychology of Digital Environments, con cui indaga le relazioni tra esseri umani e intelligenza artificiale. La sua ricerca si situa nel campo dei gender studies, con un focus sulle rappresentazioni di genere nei media e nelle tecnologie digitali, e sull’intersezione tra identità, potere e ambienti algoritmici. Collabora al PADcast, uno spazio di riflessione collettiva nato all’interno del gruppo di ricerca, in cui cura e approfondisce tematiche legate al genere e alla tecnologia. https://open.spotify.com/show/630JMyqEHmkY1LQwZUcHdb?si=bndm5gdFQsKH_R4WagCxnw