Stile di pensiero - Una forma di condizionamento sociale
“Il conoscere è l’attività dell’uomo sottoposta al massimo condizionamento sociale e la conoscenza è la struttura sociale per eccellenza” (Fleck 1983, p. 101)
Uno dei trend più longevi che continua fino ai nostri giorni è quello dell’aumento della temperatura globale[1]. Solo recentemente però questo tema ha iniziato ad essere centrale nelle nostre vite, nelle agende politiche e dei media. I dati che testimoniano l’aumento della temperatura globale sono sempre stati a nostra disposizione, ma solo ora destano preoccupazione. Pochi anni fa gli stessi dati non suscitavano il medesimo effetto.
Certo, i motivi che possono spiegare questa “nuova rilevanza” del tema possono essere molteplici. Le pratiche attraverso cui attribuiamo significato attingono da diverse fonti, ad esempio dalle rappresentazioni dei media, dunque da criteri di notiziabilità e da processi di framing; ma anche dai significati di senso comune e dalle informazioni che ci scambiamo tra familiari, amici e conoscenti. In altre parole, il valore dei dati e la possibilità di fare affermazioni di verità dipendono dal contesto sociale.
Questo aspetto era stato colto già un secolo fa dal microbiologo e medico Ludwik Fleck. Nel 1935 esce a Basilea Il microbiologo tedesco studia l’evoluzione storica del concetto di sifilide e si interroga su come un evento possa diventare un fatto scientifico. Traccia il percorso storico di questo concetto prima confuso con la varicella, poi come malattia che punisce la libidine e accostato all’idea popolare del sangue sifilitico. Mette in luce il fatto che le prime teorie e risposte prodotte per spiegare tale evento erano di stampo astrologico-religioso. Ora questo tipo di risposte non hanno più alcuna rilevanza, ma per quell’epoca erano normali. Quelle teorie, sostiene Fleck, funzionavano perché erano in linea con lo stile di pensiero di quell’epoca. Per Fleck lo stile di pensiero è un:
“modo orientato di percepire, con la relativa elaborazione concettuale e fattuale dell’oggetto di tale percepire (...). Lo stile di pensiero è caratterizzato da una serie di contrassegni comuni ai problemi che interessano un collettivo di pensiero, ai giudizi che esso considera evidenti, ai metodi che esso applica come strumenti conoscitivi” (Fleck 1983, p. 175)
La nostra percezione della realtà, il nostro modo di guardare un evento o un fatto sono filtrati e orientati dallo stile di pensiero dominante e le nostre teorie sulla realtà sono spesso coerenti con quello stile. Lo stile di pensiero media il rapporto tra soggetto e oggetto che produce la conoscenza. Non si tratta di un rapporto diretto perché i fatti e le osservazioni sono sempre “carichi di teoria”.
Le affermazioni di verità prodotte dagli scienziati non sono semplicemente osservazioni basate sui fatti, ma originano da un particolare sguardo sulla realtà che caratterizza la produzione, l’analisi, l’interpretazione e la manipolazione dei dati, sguardo che – come abbiamo detto – può essere fortemente influenzato dallo stile di pensiero dominante
Lo stile di pensiero funge, quindi, da “sfondo” per ogni epoca e prescrive le condizioni di possibilità di una convenzione scientifica, le quali, sostiene Fleck, dipendono da un “vincolo stilistico”:
“Esiste infatti un vincolo stilistico tra tutti i concetti di un’epoca (o almeno fra molti di questi concetti) e un vincolo che si fonda sulla loro influenza reciproca. Per questa ragione si può parlare di uno stile di pensiero, stile che determina lo stile di ogni concetto” (Cit., p. 59)
Lo stile di pensiero non attiene solo alla comunità scientifica – a differenza del paradigma di Kuhn – ma è qualcosa di più generale, ha bisogno di una comunità che vi si riconosca e che di conseguenza, lo supporti e lo difenda.
Questo è ciò che Fleck chiama “collettivo di pensiero” ovvero “il supporto comunitario dello stile di pensiero” (Cit., p. 181). Quest’ultimo è una realtà emergente che trascende l’individuo ed “esercita una costrizione incondizionata sul suo pensiero” (Cit., p. 100). Questo “supporto comunitario” rappresenta un insieme di persone, organizzato in cerchie sociali, che condivide uno stile di pensiero. Ogni individuo, infatti, appartiene a più cerchie sociali – famiglia, colleghi, studenti, ma anche cerchie più vaste come lo stato. Però, secondo Fleck, rispetto ad un contenuto di conoscenza possiamo distinguere due cerchie: una chiamata cerchia esoterica che corrisponde al gruppo di esperti nello stesso ambito scientifico, e una cerchia essoterica che corrisponde alla più vasta cerchia sociale che sta attorno:
“Un collettivo di pensiero consiste in molte di queste cerchie che si incrociano, un individuo appartiene a molte cerchie essoteriche e invece a poche - e in qualche caso neanche a una - cerchie esoteriche. Esiste una gerarchia dei gradi di iniziazione ed esistono molti legami tra i vari gradi e le diverse cerchie. La cerchia essoterica non ha alcun rapporto immediato con il prodotto del pensiero di cui sopra, ma vi si ricollega solo in forza della mediazione di quella esoterica” (pp. 184-185)
Tra la cerchia essoterica, quella esoterica e lo stile di pensiero c’è una relazione di interdipendenza: il rapporto tra la cerchia essoterica e lo stile di pensiero è mediato dalla cerchia esoterica e si fonda sulla fiducia; ma allo stesso tempo la cerchia esoterica dipende dall’opinione del pubblico (cerchia essoterica). Proporre una spiegazione della sifilide basata su una punizione divina o astrologica dipendeva anche dal fatto che quel tipo di spiegazione, essendo in linea con l’opinione pubblica, risultava comprensibile. In altre parole, nella cerchia essoterica si forma una weltanschauung che retroagisce sull’esperto e produce l’origine sociale dello stile di pensiero e dei fatti scientifici.
Ciò che determina la conoscenza scientifica o il valore dei dati, come nel caso dell’aumento delle temperature globali, è un sistema sociale determinato dall’unione di uno stile di pensiero con il collettivo di pensiero. Il passaggio da un qualunque concetto ad uno nuovo o l’attribuzione di “nuova rilevanza” ad un evento, non sono mai solo logico bensì anche storico-sociali. Nel momento in cui questo sistema si solidifica, ogni prova contraria tende ad essere respinta, si ignora l’anomalia per concentrarsi solo su prove a favore, valutando il fatto contraddittorio come un errore.
Quindi, il rapporto di cambiamento proposto da Fleck è prettamente sociologico: la condivisione di più cerchie sociali da parte degli individui genera una maggiore permeabilità tra le varie cerchie e questa, a sua volta, permette la stabilizzazione di uno stile.
In questo senso i fatti scientifici diventano una “relazione tra concetti che è conforme allo stile di pensiero” (Cit., p. 154) e non delle semplici entità autonome. Lo stile di pensiero è, perciò, l’elemento che organizza la produzione della conoscenza ritenuta valida e fornisce i parametri di ciò che è fedele alla natura: “nelle scienze della natura, proprio come nell’arte e nella vita, essere fedeli alla natura vuol dire essere fedeli alla cultura” (Cit., p. 92).
In questo senso ogni rivendicazione di oggettivismo da parte della filosofia della scienza perde di significato perché, secondo Fleck, l’oggettività è data solo in riferimento ad uno stile di pensiero. Le convenzioni scientifiche risentono sempre di un condizionamento storico-culturale, il pensiero è condizionato da variabili storiche, dallo stile di pensiero dominante, ma soprattutto dalla dimensione sociale: “almeno i tre quarti, se non tutto il contenuto della scienza è condizionato – e può essere spiegato – dalla storia del pensiero, dalla psicologia e dalla sociologia del pensiero” (Cit., p. 76).
Per concludere, il concetto proposto da Fleck mette in luce il carattere collettivo e sociale della conoscenza: produciamo teorie e vediamo la realtà oggettiva sulla base dello stile di pensiero in cui siamo immersi, definendo quali sono i problemi sui quali è necessario concentrarsi e ciò che non va preso in considerazione: “lo stile di pensiero diviene così un vincolo per gli individui, stabilisce ciò che non può essere pensato in modo diverso” (Cit., p. 176). Ignorare la dimensione sociale e collettiva della conoscenza scientifica, scrive Fleck: “è paragonabile al tentativo di esaminare una partita di calcio analizzando solo i calci al pallone dei singoli giocatori” (Fleck in Bucchi, 2010, p. 54).
NOTE
[1] Cfr. https://earthobservatory.nasa.gov/images/80167/long-term-global-warming-trend-continues
[2] Fu pubblicato in Svizzera perché Fleck era ebreo e gli editori tedeschi si rifiutarono di pubblicarlo. Paradossalmente basterebbe questo per mostrare come possibilità di fare affermazioni di verità dipende dal contesto sociale
BIBLIOGRAFIA
Bucchi M., Scienza e Società. Introduzione alla sociologia della scienza, 2010, Raffaello Cortina Editore, Milano.
Fleck L., Genesi e sviluppo di un fatto scientifico, 1983, Il Mulino, Bologna. Edizione originale 1935.
Apocalittici ed integrati - Due visioni sull'innovazione che possono coesistere
Qualche mese fa, parlando dell’A.I. Act – la nuova legislazione europea sull’intelligenza artificiale – abbiamo ricordato che: nel 45 a.C. Giulio Cesare promulgò una legge sulla circolazione dei carri nei centri abitati – dall’alba alla metà del pomeriggio[1], con l’obiettivo di snellire il traffico urbano, ridurre la sporcizia (sterco dei cavalli), l’odore e il rumore nelle strade durante il giorno (non è cambiato nulla, mi pare). Era una legge che regolava l’impatto della tecnica (i carri con le ruote cerchiate) sull’ambiente urbano. E che, nel 1865 in Gran Bretagna venne emesso il Red Flag Act[2] che impose alle autovetture (self-propelled vehicles, la tassonomia è importante: distingue dalle vetture a cavalli) di avere un equipaggio di almeno 3 persone, di non superare la velocità massima di 4 miglia orarie sulle strade fuori città e di 2 miglia orarie in città, di essere precedute a 60 yarde da un uomo a piedi con una bandiera rossa che ne segnali l’arrivo, regoli il passaggio di carrozze e cavalli e, infine, faccia fermare il veicolo a motore in caso di necessità.
Sono due esempi di come vengono accolte le innovazioni tecniche e tecnologiche. Interesse, entusiasmo, da parte degli integrati[1]; timore, opposizione, da parte degli apocalittici sono alcune delle reazioni che – storicamente – accompagnano la diffusione di novità, soprattutto tecniche e tecnologiche.
Nel 1872 Samuel Butler, in Erewhon, romanzo utopico-distopico, analizza la dicotomia tra entusiasmo e opposizione verso la tecnica delle macchine. Nei tre capitoli “il libro delle macchine” ecc. Butler riconosce che «Le macchine hanno determinato le condizioni di crescente abbondanza, agiatezza e sicurezza che consentono all’essere umano di coltivare il suo spirito, la sua cultura, il suo essere civilizzato; la loro influenza si manifesta sul corpo quanto sulla mente umana»(Robin Libero Carbonara, Il Dominio della Macchina: dagli scenari ipotetici di Erewhon alla realtà delle piattaforme digitali di The Circle, https://doi.org/10.6092/issn.2785-3233/19133) ma, nello stesso tempo «appare precocemente consapevole che alla lunga, man mano che la Macchina, divenendo più complessa, influenza maggiormente la vita dell’uomo, ne influenza in maniera determinante la coscienza e la percezione di Sé» (Cit.) in maniera perniciosa.
“Man’s very soul is due to the machines; it is a machine-made thing: he thinks as he thinks, and feels as he feels, through the work that machines have wrought upon him”
L’analisi lucida di Butler – che, in realtà, nasceva per rispecchiare e criticare la società vittoriana – indica, appunto, che le tecniche nuove, innovative, generano due grandi categorie di reazioni. Entusiasmo, in coloro che ne vedono soprattutto (o soltanto) le potenzialità positive e che, in termini molto generali, corrispondono con chi si identificano con l’istanza morale della necessità e bontà dello sviluppo e del progresso. Rifiuto o opposizione, recisa o più prudente, in quelli che vedono nelle innovazioni anche (o solo) i possibili effetti negativi, le lateralità, i rischi che possono annullarne la dimensione di beneficio.
Se, oggi, osserviamo le reazioni della stampa di ampia diffusione nei confronti delle tecnologie digitali emergenti, dai social alle applicazioni dei modelli di intelligenza artificiale, assistiamo ad un fenomeno che conferma la dicotomia anticipata da Butler: la maggior parte dei titoli aderisce ad una delle due visioni: positivi, entusiasti - integrati - o fortemente critici, oppositivi – gli apocalittici.
Questo anche all’interno delle medesime testate, una volta in tono apocalittico, un’altra in tono di tipo integrato. Sono emblematici alcuni titoli della Rai:
- I rischi dell'intelligenza artificiale, coinvolte centomila aziende sardo. L'impatto "incontrollato" secondo un report di Confartigianato (TGR Sardegna, 15/06/2023)
- Da intelligenza artificiale sei rischi per il 2019 (Rai News.it, 13/01/2019)
- Disegnare e sognare ciò che sarà: non c'è nulla di più umano ma questa installazione l'ha creta l'IA (Rai News.it, 14/03/2025)
- "Obiettivo è semplificare la vita degli italiani nella Pubblica Amministrazione" L'Intelligenza Artificiale al centro della riunione ministeriale del G7 a guida italiana focalizzato su digitale e tecnologia. (Rai News.it, 15/10/2024)
Ora, questo genere di narrazione così polarizzata può essere analizzato ricorrendo ad un suggerimento dello storico Paul Veyne (“I greci hanno creduto ai loro miti?” (Il Mulino, 2014) a proposito dei greci antichi: in una stessa società[2] possono coesistere diversi regimi o programmi di verità. I greci antichi credevano nella mitologia olimpica che ha origine in Esiodo e amplificata e normata da Omero, perché era una sorta di habitus irrinunciabile. Ma, nello stesso tempo, la criticavano, ne riconoscevano la dimensione letteraria più che reale.
Veyne fa due esempi illuminanti: quello del perigeta Pausania che in 5 ponderosi libri racconta i miti locali – altari e sacrifici, dei ctoni e celesti ed eroi - delle principali regioni della grecia antica (verificare i titoli), aderendo alla narrazione mitologica e – a volte – riconducendo fatti della tradizione (che per i greci ha l’autorevolezza della storia documentata) alla dimensione mitologica. Nello stesso tempo, lo stesso Pausania prende le distanze da queste narrazioni e ammette che – con buona probabilità – sono un sacco di fandonie.
Due programmi di verità coesistenti, uno che corrisponde al lavoro di geografo e di narratore, l’altro alla personalità analitica e razionale dello stesso soggetto.
Il secondo esempio, che evidenzia come due diversi programmi di verità possono coesistere in una stessa persona, adattandosi a diverse esigenze, è quello del medico e farmacista Galeno. Galeno, di fronte alla tradizione medica che indica nella bile di centauro il rimedio per mitigare l’apoplessia ne denuncia l’assurdità, perché “nessuno ha mai davvero visto un centauro”. Galeno, in questo caso singolare non aderisce alla verità del mito. Tuttavia, Galeno è un maestro, ha una scuola di medicina e di farmacia, e di quella vive; per attirare studenti e adepti non esita a contraddire la propria critica del mito e riconduce il sapere della sua scuola all’insegnamento degli déi Apollo e Asclepio, suoi maestri!
Ecco, questa è la condizioni in cui molti di noi versano quando parlano di innovazione e – in particolare – di Intelligenza Artificiale: una condizioni di coesistenza di due diversi atteggiamenti, che possono essere ricondotti a due programmi di verità o epistemici, uno di apprezzamento, a volte entusiasmo, nei confronti delle funzionalità della tecnologia che ci semplificano la vita, e uno di perplessità o addirittura di rifiuto, generato dalla cognizione dei rischi e delle lateralità delle stesse funzionalità.
Nonostante l’apparenza schizofrenica, questo dibattito che vige all’interno della “nostra” società e – spesso – di noi come individui, è un dibattito sano, positivo, che stimola ad interrogarsi – da un lato – sulla dimensione morale delle tecnologie, su sviluppo “buono” e da distruttivo, su libertà di azione e su regolazione etica istituzionale; stto un altro punto di vista, invece, questo dibattito ha la funzione di stimolo ad interrogarsi sull’ontologia degli oggetti tecnologici e sulla linea di demarcazione tra ciò che è umano e ciò che non lo è, facendo delle ipotesi e delle scoperte teoretiche interessanti e a volte sconcertanti.
Di questo ne parleremo ancora.
NOTE
[1] Umberto Eco definì gli intellettuali (e si riferiva, in particolare ad Adorno e Zolla) fortemente critico e nei confronti della moderna cultura di massa, e “integrati” coloro che ne hanno una visione ingenuamente ottimistica; la definizione è diventata uno schema comune di rifermento per i due approcci opposti nei confronti del contemporaneo. (Apocalittici e integrati, Bompiani, 1964)
[2] Intesa come gruppo sociale e periodo storico
Le sfide della scienza post-normale - Dalla teoria alle pratiche di ricerca
Cosa significa fare e condividere ricerca scientifica, quando ci si trova di fronte a situazioni in cui i problemi sono complessi, richiedono decisioni che riguardano la vita di molte persone ma per le quali il livello di incertezza scientifico è molto alto? È la domanda che si fa spesso chi opera in contesti di crisi ambientale o sanitaria e in condizioni che incarnano le caratteristiche della scienza post-normale (PNS): fatti incerti, valori in conflitto, alta posta in gioco e la necessità di decisioni urgenti.
RICERCA E COMUNICAZIONE DELLA SCIENZA IN CONTESTI POST-NORMALI
Alcune risposte a questa domanda si trovano in un volume collettivo (L’Astorina, A. & Mangia, C. (eds). (2022). Scienza, politica e società: l’approccio post-normale in teoria e nelle pratiche. SCIENZIATI IN AFFANNO? (Vol. 1): pp.296. Cnr Edizioni. https://doi.org/10.26324/SIA1.PNS) che raccoglie alcune esperienze di ricerca collaborativa nel contesto italiano ma in ambiti scientifici, sociali e culturali diversi, in cui la PNS si incrocia con altri approcci epistemologici ed esistenziali, dentro e fuori l’accademia, che si rifanno in maniera più o meno diretta ai suoi principi. Le esperienze esplorano il lessico della PNS nel suo farsi azione: la scomodità dei nuovi ruoli di chi fa ricerca in questi contesti, la costruzione di comunità estese di pari, l’intreccio inscindibile tra fatti e valori, il difficile equilibrio tra i tempi della partecipazione e l’urgenza delle decisioni; le sfide educative e politiche in una democrazia in cambiamento.
In questo blog vogliamo condividere alcune riflessioni maturate nella costruzione di questo volume, raccontare le sfide e le opportunità per chi voglia passare dal contesto teorico delineato dalla PNS alle esperienze pratiche, consapevoli che non esiste una ricetta unica per ogni caso. Il passaggio dalla teoria alla pratica richiede ogni volta un’indagine critica del contesto, degli obiettivi, dei vincoli e dalle poste in gioco.
PARTECIPAZIONE E CO-CREAZIONE IN TERRITORI POST-NORMALI IN ITALIA
In Italia, molte emergenze ambientali e sanitarie possono essere definite “post-normali” e coinvolgono territori profondamente segnati da attività industriali ad alto impatto, che ne hanno trasformato la storia e compromesso il futuro. Qui, comunità di cittadini, associazioni, movimenti si ribellano agli insulti subiti dai loro territori e cercano di immaginare un destino diverso, collaborando con ricercatori e amministrazioni locali per costruire nuove alleanze e proporre una diversa narrazione dei fatti. Nascono così esperienze ibride, in cui ciascun attore ridefinisce i propri ruoli in una dialettica che non è mai semplice ma di certo più democratica, come viene descritto in alcuni degli esempi tratti dalla raccolta e che presentiamo di seguito.
EPIDEMIOLOGIA PARTECIPATA A MANFREDONIA
Un esempio emblematico di ricerca partecipata è quello raccontato da Cristina Mangia, Annibale Biggeri e Bruna De Marchi a Manfredonia, in Puglia. La cittadina ha vissuto a lungo le conseguenze della presenza di un grande impianto petrolchimico, con incidenti industriali e una diffusa sfiducia nelle istituzioni. Qui, un progetto di epidemiologia partecipata ha coinvolto attivamente la comunità locale in tutte le fasi dell’indagine: dalle domande di ricerca alla raccolta e analisi dei dati, fino all’interpretazione degli scenari. Questo approccio ha ricostruito la fiducia, ridato voce ai cittadini e migliorato la qualità scientifica della ricerca, arricchendola di conoscenze territoriali.
CITIZEN SCIENCE NELLA TERRA DEI FUOCHI E LUNGO IL TEVERE
Un altro esempio importante è quello di Laura Greco e Maura Peca (Associazione A Sud, Centro Documentazione Conflitti Ambientali (CDCA)), che raccontano esperienze di citizen science nella Terra dei Fuochi, a Colleferro e lungo il Tevere e l’Aniene, dove libere associazioni di cittadini utilizzano strumenti scientifici per ottenere giustizia ambientale e contrastare l’avvelenamento di aria, suolo e acqua. La citizen science è un termine usato per indicare un’attività di collaborazione alla ricerca da parte di cittadini che non abbiano necessariamente una formazione scientifica, ma nelle sue varie declinazioni pratiche il grado di coinvolgimento e il ruolo dato ai “non esperti” può essere diverso tanto quanto i suoi esiti. Decidere insieme la domanda di ricerca, come è il caso presentato dalle due autrici, rafforza la relazione tra cittadini e scienziati, mentre limitarne il ruolo alla sola raccolta dati riduce l’impatto politico delle azioni. Quando le comunità sono coinvolte in tutte le fasi del processo, diventano protagoniste consapevoli della produzione di conoscenza e comunicazione scientifica. Questo approccio valorizza le loro competenze e la loro familiarità con l’incertezza, contribuendo a una lettura più articolata e completa della realtà.
PROGRAMMAZIONE TERRITORIALE PARTECIPATA IN SICILIA
Giuseppina Carrà, Gabriella Vindigni, Clara Monaco, Giulia Maesano e Iuri Peri raccontano l’esperienza di programmazione partecipata lungo la costa jonica della Sicilia, nel settore della pesca. Qui è stato avviato un processo che, con l’ausilio di figure esperte in facilitazione, ha integrato strumenti di analisi multicriteri con tecniche di mappatura deliberativa. I piccoli pescatori e altri portatori di interesse hanno partecipato attivamente alla definizione dei problemi, alla valutazione dei modelli scientifici e alla scelta delle soluzioni. Questa metodologia ha favorito l’apprendimento collettivo e la legittimazione delle decisioni, permettendo lo sviluppo di strategie condivise per la diversificazione delle attività economiche della zona.
GESTIONE PARTECIPATA DEI RISCHI E DEI DISASTRI
Bruna De Marchi e Scira Menoni approfondiscono due casi di studio sulla gestione partecipata dei rischi e dei disastri. Sottolineano l’importanza di integrare conoscenze scientifiche e saperi pratici, e di comunicare non solo il rischio, ma anche le modalità di gestione e risposta, coinvolgendo tutti gli attori sociali, dalle istituzioni ai cittadini. Entrambe le esperienze mostrano che la conoscenza non si trasmette semplicemente, ma si costruisce in modo partecipato attraverso un processo sociale. Le autrici incoraggiano il dialogo tra discipline diverse e l’integrazione di competenze professionali e non, mantenendo sempre il rigore analitico.
LA PNS: UNA NUOVA POSTURA DELLA RICERCA
Dalle esperienze descritte emerge un messaggio chiaro: la PNS richiede una ridefinizione dei ruoli e delle pratiche di ricerca. Il ricercatore non è più l’esperto che detiene la verità, ma un facilitatore di processi partecipativi, un mediatore tra conoscenze diverse. La comunità locale non è più un semplice “oggetto” di studio, ma un soggetto attivo nel co-produrre conoscenza e soluzioni. La partecipazione non è solo un valore etico o democratico, ma una strategia per migliorare la qualità e la rilevanza della ricerca scientifica.
CONCLUSIONI
Le pratiche di ricerca e comunicazione che si ispirano alla PNS mostrano come sia possibile costruire alleanze inedite tra scienza, politica e società, anche nei contesti più difficili. Da Manfredonia alla Sicilia, dai fiumi Tevere e Aniene, dai musei alle università si sono sperimentate modalità nuove di produrre conoscenza, prendendo decisioni collettive, inclusive e informate. Non esistono soluzioni semplici né modelli predefiniti, ma percorsi che richiedono capacità di ascolto, apertura al dialogo, e il coraggio di mettere in discussione i propri ruoli e certezze. La PNS non promette risposte facili, ma offre alcuni strumenti per affrontare la complessità del nostro tempo.
L’Intelligenza Artificiale in psicoterapia - Tra alleato e simulacro
«The crucial difference between CAI (Conversational Artificial Intelligence) and humans is obvious: CAI mimics being a rational agent, but it is not; therefore, CAI simulates having a therapeutic conversation, but it does not have any»[1]
Sedlakova & Trachsel, 2022
Quando interagiamo con un’Intelligenza Artificiale Conversazionale (IAC) come ChatGPT, ci troviamo di fronte a un’illusione sofisticata: risposte fluide, tono empatico, un’apparente capacità di comprensione. Eppure, dietro ogni parola non c’è un interlocutore reale, ma un sistema che riorganizza dati linguistici senza comprenderne il significato. Ci sentiamo ascoltati perché attribuiamo intenzionalità[2] alle parole dell’IA, come se fosse capace di empatia. Questo fenomeno è il risultato del meccanismo cognitivo dell’antropomorfismo, ossia la tendenza ad attribuire caratteristiche umane a esseri non umani, come animali, oggetti o fenomeni naturali[3] (Cambridge Dictionary, 2019). Questa inclinazione può influenzare il modo in cui interagiamo con le tecnologie, portandoci a percepirle come più affidabili o empatiche di quanto siano in realtà: l’essere umano per natura riconosce intenzioni e stati emotivi anche quando non ci sono (Sedlakova & Trachsel, 2023). Così, un chatbot che scrive «Mi dispiace che tu ti senta così» attiva in noi le stesse risposte emotive di una conversazione umana, pur essendo solo un’imitazione.
Nonostante il concetto di empatia sia estremamente complesso e abbia una lunga storia, ogni sua definizione riconosce che essa nasce dall’incontro tra due soggettività, e dunque dalla capacità di sentire l’altro e riconoscerne l’alterità in un contesto di identità della dimensione incarnata, situata ed enattiva dei viventi (Galloni, 2009). Con un’IA Conversazionale, al contrario, non si instaura una relazione reale, ma uno scambio unidirezionale: non è la nostra esperienza a essere compresa, ma solo il modo in cui la traduciamo in parole. L’effetto dell’antropomorfismo trasforma l’interazione con un’IA in una sorta di specchio emozionale: proiettiamo sulla macchina il nostro bisogno di connessione, vedendo in essa qualcosa che non è realmente presente. Questa proiezione può offrire conforto immediato, ma rischia di impoverire la nostra capacità di distinguere tra ciò che è umano e ciò che è un’imitazione. Il pericolo non risiede nell’uso dell’IA in sé, ma nella possibilità di abituarsi a un interlocutore che si limita a riflettere ciò che vogliamo sentire.
Oggi l’Intelligenza Artificiale sta ridefinendo – lentamente ma inesorabilmente – il campo della psicoterapia, espandendo le possibilità di supporto psicologico oltre i confini del tradizionale setting clinico. Chatbot come WoebotHealth e Wysa[4] sono progettati per fornire supporto emotivo attraverso interazioni testuali continue, basandosi su modelli di terapia cognitivo-comportamentale (CBT) e offrendo agli utenti un ambiente privo di giudizio. Eppure, la loro capacità di adattarsi in modo profondo all’individualità del paziente, se anche esistesse, risulta nei fatti ancora fortemente limitata. I chatbot basati su algoritmi di Natural Language Processing presentano diverse criticità, tra cui l’incapacità di cogliere il contesto della comunicazione, né comprendere realmente le sfumature del linguaggio, in primo luogo di quelle emotive. Mentre un terapeuta umano può cogliere cambiamenti nel tono di voce, nelle espressioni facciali o nelle pause durante una conversazione, un chatbot si basa esclusivamente sul testo e sull’analisi di esso, condotta esclusivamente su modelli probabilistici. Questo può portare l’altro soggetto dell’interazione – l’essere umano, il cui sistema nervoso è stato “cablato” da millenni di evoluzione per processare in maniera privilegiata il linguaggio umano, vero segno distintivo della comunicazione della nostra specie – a reagire in maniera concreta e “sensata” a risposte della macchina che, pur essendo linguisticamente appropriate, non rispecchiano un reale scambio comunicativo. Molti utenti cercano tuttavia proprio questo, nell’interazione pseudoterapeutica con le IAC. Alcuni studi suggeriscono che le persone possano sentirsi più a loro agio nel condividere dettagli intimi con un chatbot piuttosto che con un essere umano, proprio perché sanno di non essere giudicate[5].
Dal punto di vista terapeutico, l’utilizzo dell’IA non è dunque privo di rischi. Sebbene gli strumenti basati su CBT abbiano mostrato un certo grado di efficacia nel ridurre i sintomi di ansia e depressione, la qualità dell’intervento è ancora oggetto di studio. Ricerche recenti hanno evidenziato che, mentre i chatbot possono migliorare l’accessibilità ai servizi di supporto, non sono in grado di replicare l’alleanza terapeutica tipica di un incontro umano (Cioffi et al., 2022). Inoltre, senza un monitoraggio umano, l’IA può interpretare erroneamente il contesto o fornire risposte inappropriate. Questo è particolarmente critico nei casi in cui il paziente manifesti pensieri suicidi o sintomi psicotici; situazioni in cui una risposta non adeguata può avere conseguenze gravi. È stato analizzato ChatGPT come possibile assistente terapeutico, capace di raccogliere informazioni tra una sessione e l’altra e di fornire al terapeuta un quadro riassuntivo della situazione del paziente (Esghie, 2023). Tuttavia, nonostante le potenzialità, si sollevano interrogativi cruciali sull’affidabilità e la sicurezza di tali strumenti (Miner et al., 2019). L’IA non possiede consapevolezza né intenzionalità: risponde in base a correlazioni statistiche tra parole, apprendendo dallo scambio verbale con l’utente, ma senza comprenderne il significato intrinseco. Questo influenza anche la dimensione della fiducia: molte persone potrebbero erroneamente credere di essere comprese da un chatbot, sviluppando un attaccamento che, in assenza di una vera reciprocità, potrebbe portare a forme di dipendenza emotiva o a un’errata percezione del supporto ricevuto. A fare da argine a questo scenario troviamo anche una dimensione politica della scienza e della tecnica, inerente alla sempre più evidente natura capitalistica di questi strumenti, che fanno dei dati forniti spontaneamente dagli utenti la loro principale moneta di scambio. Uno studio recente ha peraltro evidenziato che la fiducia nei confronti della terapia basata su IA è ancora bassa, soprattutto a causa delle preoccupazioni legate alla privacy e alla sicurezza dei dati (Aktan, 2022).
L’introduzione dell’IA nella psicoterapia ha portato tuttavia la comunità scientifica e il dibattito pubblico a una necessaria riflessione sul valore della relazione terapeutica. Alcuni studi hanno suggerito che l’uso di chatbot potrebbe modificare il modo in cui le persone si rapportano alla figura del terapeuta, spostando l’attenzione dalla relazione interpersonale a una forma di autoosservazione guidata dall’IA (Beg et al., 2024). Se questo, da un lato, potrebbe avere vantaggi in termini di accessibilità al supporto psicologico, dall’altro rischia di ridurre o annullare l’efficacia di un intervento in cui il rapporto umano è cardine ed elemento essenziale. Il successo e la qualità della terapia non dipendono solo dai contenuti trasmessi, ma anche dalla capacità del terapeuta di cogliere segnali emotivi e di adattare l’intervento alle esigenze individuali del paziente – qualità che un’IA non possiede. Inoltre, la natura algoritmi di questi strumenti porta inevitabilmente a una standardizzazione dell’approccio terapeutico: i modelli di IA, basandosi su set di dati predefiniti, tendono a privilegiare metodologie uniformi, come quelle cognitivo-comportamentali, mentre la psicoterapia umana si caratterizza per un alto grado di personalizzazione e per una molteplicità di orientamenti e pratiche. Un altro aspetto da considerare è il rischio di standardizzazione eccessiva dei modelli proposti da queste tecnologie come rappresentativi di ciò che dovrebbe essere la psicoterapia. I modelli di IA si basano su set di dati predefiniti e tendono a favorire approcci uniformi (essenzialmente, a oggi, identificabili con quelli cognitivo-comportamentali), mentre la psicoterapia umana è caratterizzata da un alto grado di personalizzazione, dipendenza dal vissuto e dal contesto, e da una ampia pluralità di approccio possibili.
L’uso di ChatGPT e di altre IA Conversazionali in psicoterapia non dovrebbe comunque essere demonizzato, ma richiede un approccio critico e regolamentato. La collaborazione tra esseri umani e agenti artificiali potrebbe portare alla creazione di modelli ibridi, in cui l’IA funge da strumento complementare, affiancando il lavoro del terapeuta e migliorando l’efficacia degli interventi senza sostituire il contatto umano diretto (Miner et al., 2019). Questi strumenti possono offrire un supporto pratico, fungere da complemento alla terapia e aiutare a ridurre il divario nell’accesso alle cure psicologiche. Tuttavia, la loro adozione deve avvenire con consapevolezza dei limiti: l’IA non pu sostituire l’empatia umana né creare un’autentica relazione terapeutica. La trasparenza e la supervisione umana restano essenziali per garantire che l’integrazione dell’IA nella psicoterapia non comprometta l’integrità delle relazioni terapeutiche e il benessere del paziente.
Sebbene l’IA possa svolgere un ruolo utile nel supporto alla salute mentale, la sua implementazione deve essere guidata da un’attenta valutazione dei benefici e dei rischi. Possiamo davvero considerare sufficiente un sistema che risponde sulla base di correlazioni statistiche senza comprendere? Chi tutela il paziente in caso di errori o malintesi? Strumenti come ChatGPT possono offrire quello che sembra supporto e conforto, ma è essenziale mantenere una distinzione chiara tra un’interazione simulata e l’esperienza di una relazione autentica, unica e insostituibile nel suo essere profondamente umana.
NOTE
[1] «La differenza cruciale tra l’IA conversazionale (CAI) e gli esseri umani è evidente: la CAI simula un agente razionale, ma non lo è; di conseguenza, simula di avere una conversazione terapeutica, ma in realtà non ne ha alcuna» (traduzione da: Sedlakova, J., & Trachsel, M. (2022). Conversational Artificial Intelligence in Psychotherapy: A New Therapeutic Tool or Agent? The American Journal of Bioethics, 23(5), 4–13. https://doi.org/10.1080/15265161.2022.2048739).
[2] Heider, F. (1958). The psychology of interpersonal relations. Hoboken, NJ, US: John Wiley & Sons Inc.
[3] Gibbons, S., Mugunthan, T., Nielsen, J. (2023). The 4 Degrees of Anthopomorphism of Generative AI. Nielsen Norman Group. https://www.nngroup.com/articles/anthropomorphism/.
[4] WoebotHealth, rilasciato nel 2017, e creato dalla psicologa Alyson Darcy, è un chatbot ideato per supporto psicologico, sempre disponibile, con interfaccia messaggistica (https:// woebothealth.com/).
Wysa AI Coach (https://www.wysa.com/) è un servizio di counseling basato sull’intelligenza artificiale addestrato su tecniche di terapia CBT, DBT, meditazione.
[5] Raile, P. (2024). The usefulness of ChatGPT for psychotherapists and patients. Humanities and Social Sciences Communications, 11(47). https://doi.org/10.1057/s41599-023-02567-0, p. 3.
BIBLIOGRAFIA
Aktan, M. E., Turhan, Z., & Dolu, I. (2022). Attitudes and perspectives towards the preferences for artificial intelligence in psychotherapy. Computers in Human Behavior, 133, 107273. https:// doi.org/10.1016/j.chb.2022.107273.
Beg, M. J., Verma, M., Vishvak Chanthar, K. M. M., & Verma, M. K. (2024). Artificial Intelligence for Psychotherapy: A review of the current state and future directions. Indian Journal of Psychological Medicine, XX(X), 1-12. https://doi.org/10.1177/02537176241260819.
Cioffi, V., Mosca, L. L., Moretto, E., Ragozzino, O., Stanzione, R., Bottone, M., Maldonato, N. M., Muzii, B., & Sperandeo, R. (2022). Computational methods in psychotherapy: A scoping review.
International Journal of Environmental Research and Public Health, 19(12358). https://doi.org/
Eshghie, M., & Eshghie, M. (2023). ChatGPT as a therapist assistant: A suitability study. arXiv Preprint. https://arxiv.org/abs/2304.09873.
Galloni, G. (2009). Basi motorie dell’empatia cognitiva? Teorie & Modelli, XIV(1):134-147.
Gibbons, S., Mugunthan, T., & Nielsen, J. (2023). The 4 Degrees of Anthropomorphism of
Generative AI. Nielsen Norman Group. https://www.nngroup.com/articles/anthropomorphism/.
Heider, F. (1958). The psychology of interpersonal relations. John Wiley & Sons.
Miner, A. S., Shah, N., Bullock, K. D., Arnow, B. A., Bailenson, J., & Hancock, J. (2019). Key considerations for incorporating conversational AI in psychotherapy. Frontiers in Psychiatry, 10, 746. https://doi.org/10.3389/fpsyt.2019.00746.
Raile, P. (2024). The usefulness of ChatGPT for psychotherapists and patients. Humanities and Social Sciences Communications, 11(47). https://doi.org/10.1057/s41599-023-02567-0.
Sedlakova, J., & Trachsel, M. (2022). Conversational Artificial Intelligence in Psychotherapy: A New Therapeutic Tool or Agent? The American Journal of Bioethics, 23(5), 4–13. https://doi.org/ 10.1080/15265161.2022.2048739.
In rel-Azione: una riflessione sul concetto di Intelligenza nel paradigma dell’Embodied Cognition
TO THE BODY AND BACK: L’INTELLIGENZA OLTRE I CONFINI DEL CRANIO
Nella lunga tradizione filosofica e psicologica, il termine intelligenza è stato senza dubbio uno dei costrutti più complessi e controversi della storia della scienza e del pensiero occidentale. Per molto tempo il dibattito sull’intelligenza si è snodato su vari terreni e argomenti teorici. Sin dai tempi più remoti l’essere umano ha tentato di definire limiti e condizioni di possibilità̀ di questo termine, identificando e strutturando tassonomie, relazioni e gerarchie intorno a questo concetto così controverso. La storia moderna dell’intelligenza si è sovrapposta per moltissimo tempo alla storia della sua misurazione, con particolare riferimento alla determinazione delle facoltà intellettive e dei tratti primari e secondari dell’intelligenza o al dibattito tra nature versus nurture, ovvero tra la determinazione ereditaria e genetica dell’intelligenza in contrapposizione all’acquisizione culturale dei tratti specifici di essa.
L’embodied cognition, ovvero la cognizione “incarnata”, è stata una delle correnti che ha contribuito a rivoluzionare il modo in cui consideriamo l’intelligenza e la cognizione non solo degli esseri umani, ma degli organismi e che suggerisce delle riflessioni interessanti anche rispetto alla definizione di Intelligenza Artificiale.
Essa è parte di un più ampio movimento teorico, la 4E Cognition, nato nella prima metà degli anni Novanta del Novecento all’interno di ambiti disciplinari come la filosofia della mente, la psicologia e le neuroscienze cognitive. Questo approccio teorizza una dimensione della mente embodied (incarnata), embedded (situata), enacted (interattiva) ed extended (estesa), radicandosi all’interno del Lieb, del corpo vivo e che esiste nel mondo, in costante relazione con l’ambiente; nel caso della nostra specie, un ambiente fisico, relazionale e tecnologico. La mente, dunque, emerge nel cervello ma si sviluppa anche al di fuori del cranio, attraverso la totalità corporea: l’individuo co-costruisce la propria esperienza cognitiva attraverso le interazioni corpo-mondo. Per l’embodied cognition l’attività cognitiva è un processo che integra l’esperienza vissuta e soggettiva, il corpo e l’ambiente, in un’unica prospettiva attiva e dinamica, dando vita al corpo-mente.
Il modello della mente “incarnata” caratterizza, dunque, le scienze cognitive di seconda generazione e ha consentito il superamento della dicotomia cartesiana tra res cogitans e res extensa, ovvero la separazione tra mente e corpo.
ERROR 404: LA MENTE NON È UN COMPUTER
Il modello dualista cartesiano aveva influenzato lo studio della mente per buona parte della storia della filosofia e della psicologia e, non ultimi, i fondamenti stessi della Scienza Cognitiva, all’interno della quale nasce anche l’Intelligenza Artificiale.
La Scienza Cognitiva Classica, infatti, ha sostenuto per molto tempo un approccio teorico di stampo meccanicistico, incentrato sulla funzione come oggetto di studio principale dei meccanismi mentali. In questo framework teorico è emersa una metafora molto potente: la metafora della mente-computer.
L’analogia della mente come una macchina era tale per cui un software (la mente) potesse essere implementato indipendentemente dall’hardware (il cervello e, in estensione, il corpo): essa sublima la frattura tra gli organismi e il proprio mondo, quello che Jakob von Uexküll definisce Umwelt (von Uexküll, 1933, Ambienti animali e ambienti umani. Una passeggiata in mondi sconosciuti e invisibili). Questo termine è stato introdotto all'inizio del Novecento dal biologo tedesco per indicare l’ambiente così come è percepito e vissuto dagli organismi in base alle proprie caratteristiche specie-specifiche e alle possibilità di interazione con esso[1].
Il ruolo del corpo, dunque, nella determinazione dei processi cognitivi assume una posizione subordinata tanto che, come provocatoriamente suggeriva il filosofo della mente Hilary Putnam nel celebre esperimento mentale del 1981, A brain in a vat[2], potrebbe essere fatto tanto di carne quanto di “formaggio svizzero”.
Le neuroscienze relazionali e affettive la filosofia della mente neuro biologicamente fondata convergono nella definizione di una nuova immagine di cosa vuol dire avere una mente e avere un corpo. Nella prospettiva della cognizione incarnata, si assume così un’estensione dei processi cognitivi, considerandoli non più limitati al cervello-mente ma estesi al cervello-corpo-ambiente, intendendo per ambiente non un mondo esterno, asettico e da costruire, ma un ambiente che è interno ed esterno allo stesso tempo, vivo, dinamico e “vischioso”, per utilizzare un termine di Canguilhem (1966, Le normal et le pathologique). Da questa visione emerge un approccio poliedrico alla mente, che integra il ruolo del corpo, del vissuto emotivo e soggettivo nell’ambiente in cui l’organismo si sviluppa.
Come ha scritto Francisco Varela: «Gli organismi non ricevono passivamente informazioni dai loro ambienti, che poi traducono in rappresentazioni interne. I sistemi cognitivi naturali [...] partecipano alla generazione di significato [...] impegnandosi in interazioni trasformazionali e non semplicemente informative: esse mettono in atto un mondo.»[3]
ORGANISMI IN (INTER)AZIONE
Nella prospettiva ecologica proposta dallo psicologo americano James J. Gibson (1979, The Ecological Approach to Visual Percepetion) non siamo noi a elaborare cognitivamente l’idea del mondo esterno; il soggetto assume una posizione centrale nel suo ambiente a partire dalla capacità di interagire con esso, sulla base di ciò che esso stesso offre in termini di stimoli.
L’ambiente, dunque, fornisce agli organismi gli elementi necessari per agire e sopravvivere (affordance), senza bisogno di complesse integrazioni o deduzioni mentali. Si pone quindi come elemento cruciale il rapporto tra gli organismi e il loro specifico ambiente di vita. Il mondo esterno, dunque, diventa "il mondo per me": la mente e l’ambiente degli organismi sono inseparabili, in un costante processo di interazione e modellamento reciproco. Esso, allora, diviene lo “spazio di vita” di Kurt Lewin (1936, Principi di psicologia topologica), la nicchia ecologica di Gibson (1979) che ogni organismo ritaglia nel mondo, come suggerisce Benasayag (2016, Il cervello aumentato l’uomo diminuito). È lì che mondo interno e mondo esterno sono separati solo dalla pelle, che fa da ponte della relazione osmotica e interdipendente tra i due. L’ambiente non consente l’azione, esso è lo spazio di azione nel momento in cui un organismo lo esperisce e percepisce.
Non è la rappresentazione del mondo, ma la relazione che chiama il soggetto all’azione e alla costruzione di una realtà significante.
Non ci rappresentiamo, dunque, la realtà da un punto di vista esterno, ma la conosciamo interagendo con essa nel qui e ora fenomenico, sulla base delle caratteristiche specie specifiche e del vissuto individuale. E non ci contrapponiamo all’altro, ma ci riconosciamo nella simulazione incarnata e nel rispecchiamento empatico presente nelle nostre aree motorie. Il cervello umano, lungi dall’essere un meccanismo predefinito, è un organo poroso e plastico, che rimodula costantemente le proprie relazioni interne sulla base dell’esperienza con il mondo e del cablaggio specifico degli organismi.
Nel corpo, dunque, si sedimentano e stratificano le esperienze del proprio vissuto, le esperienze di un corpo capace di includere, di incorporare gli strumenti, i mezzi e di essere modificato dall’ambiente e di modificarlo costantemente in una transazione dinamica e in rapporto circolare, come suggerito dalle recenti ricerche condotte nell’ambito della Material Engagement Theory (Malafouris, 2018, Bringing things to mind. 4E’s and Material Engagement).
MACCHINE COME ME?
L’intelligenza, dunque, nella prospettiva dell’embodiement non è una proprietà isolata che emerge indipendentemente dal corpo e dal mondo, come aveva sostenuto la Scienza Cognitiva Classica, ma si co-costruisce attraverso la relazione tra mente, corpo e ambiente.
La possibilità di ampliare le nostre funzioni oltre i confini della pelle, che sia attraverso un foglio di carta, una calcolatrice o una macchina, può essere considerata un’estensione “artificiale” di funzioni naturali che co-evolvono e si modellano reciprocamente da un punto di vista biologico e culturale, rimodulando in modo strutturale la percezione del mondo, che è allo stesso tempo modificata dall’azione attraverso esso, come sostenuto anche dalla prospettiva della cognizione extended.
Oggi la cognizione embodied rivolge, dunque, la propria attenzione al ruolo del corpo e alle sue capacità sensoriali e motorie in quanto elementi cruciali nella formazione dei processi cognitivi. Ciò anche in base a evidenze neurobiologiche che dimostrano come la dimensione fisica, sociale e informativa dell’ambiente assumano una rilevanza imprescindibile nella trama dinamica intessuta dall’interazione degli agenti cognitivi col loro ambiente di vita, in una prospettiva filogenetica e ontogenetica.
Attraverso la lente teorica dell’embodied cognition e della prospettiva epigenetica, dunque, il termine intelligenza non si configura più come un concetto riducibile ad un elenco di funzioni “incapsulate” (Fodor, 1983, The Modularity of Mind: Essay on Faculty Psychology) all’interno della mente-computer, ma come il risultato di un insieme di componenti biologiche e culturali che caratterizzano ed evidenziano la singolarità e l’unicità nella vita degli organismi. La plasticità, intesa come struttura portante e condizione di possibilità del cervello di creare connessioni e circuiti modulati sulla base dell’esperienza e dell’interazione senso-motoria del corpo con l’ambiente, si configura come una forma di creatività, determinata dal connubio tra biologia e cultura, necessaria e fondamentale per l’emergere di un pensiero intelligente.
I sistemi artificiali attuali operano su correlazioni statistiche e schemi computazionali che, per quanto complessi, non emergono da un’interazione incarnata e soggettiva con il mondo. Più che un’“intelligenza” artificiale, dunque, potremmo parlare di una capacità computazionale estremamente avanzata, di una simulazione statistica della cognizione che, per quanto efficace nella risoluzione di determinati compiti, non condivide una forma intenzionalità, di sensibilità e di conoscenza incarnata che caratterizza gli organismi.
Tra le sfide future più avvincenti vi è sicuramente quella di ridefinire il nostro rapporto con l’Intelligenza Artificiale, evitando di proiettare su di essa categorie che appartengono al nostro modo biologico di essere-nel-mondo, comprendendo che essere una mente (e non possedere una mente), in senso proprio, è incarnato dall’esperienza di un corpo vivo che abita il mondo in relazione con altri corpi (Morabito, 2020, Neuroscienze cognitive: plasticità, variabilità, dimensione storica) in una danza continua con essi.
NOTE
[1] Von Uexküll ha rivoluzionato il concetto di ambiente nella biologia moderna, mettendo in discussione la visione antropocentrica di ambiente: ogni essere vivente, infatti, percepisce e interagisce con il mondo in modo soggettivo e specie specifico. Gli organismi co-costruiscono il proprio ambiente in base alle proprie caratteristiche morfologiche e fisiologiche, instaurando con esso un legame inscindibile. Il Merkwelt, infatti, rappresenta ciò che il soggetto percepisce, ossia il suo mondo sensoriale, mentre il Wirkwelt riguarda le sue azioni e interazioni. Insieme, questi due aspetti costituiscono un sistema complesso, l’Umwelt, che connota l’ambiente non più come uno spazio informazionale “passivo”, ma in costante relazione attiva con il vivente.
[2] Gilbert Harman è stato uno dei primi filosofi a sviluppare e formalizzare l'idea del "Cervello nella vasca" nell'ambito della filosofia della mente e dell'epistemologia. Sebbene l'esperimento mentale sia associato principalmente a Hilary Putnam, Harman, già negli anni '70, aveva esplorato simili concetti, utilizzando la metafora del cervello nella vasca per affrontare le problematiche legate alla percezione e alla conoscenza. cfr. Harman G., 1973: Thought, Princeton University Press, Princeton.
[3] «Organisms do not passively receive information from their environments, which they then
translate into internal representations. Natural cognitive systems [...] participate in the generation of meaning[...] engaging in transformational and not merely informational interactions: they enact a
world. » Varela, F., Rosch, E., Thompson, E., (1991), The Embodied Mind. Cognitive Science and Human Experience, MIT Press, Cambridge. (traduzione mia).
NOTE BIBLIOGRAFICHE
Benasayag, M. (2016) Il cervello aumentato l’uomo diminuito, Erickson
Canguilhem, G. (1966), Le normal et le pathologique, Paris: Presses Universitaires de France.
Fodor, J. (1983), The Modularity of Mind: Essay on Faculty Psychology, MIT press.
Gibson, J.J. (1979), The Ecological Approach to Visual Percepetion, Hougton Miffin, Boston.
Malafouris, L. (2018), “Bringing things to mind. 4E’s and Material Engagement” in Newen, A., De Bruin, L., Gallagher, S., The Oxford Handbook of 4E cognition.
Morabito, C., 2016, Neuroscienze cognitive: plasticità, variabilità, dimensione storica, in Mentecorpo: il cervello non è una macchina, «Scienza& Società» n.21/22.
Morabito, C. (2020), Il motore della mente. Il movimento nella storia delle scienze cognitive, Laterza-Bari.
Lewin, K. (1936), Principi di psicologia topologica, Edizioni OS, Firenze (ed.it.1961)
Noë A., (2010), Out of the head. Why you are not your brain, MIT Press, Cambridge MA, trad. it. Perchè non siamo il nostro cervello. Una teoria radicale della coscienza, Raffaello Cortina Editore, Milano
Varela, F., Rosch, E., Thompson, E., (1991), The Embodied Mind. Cognitive Science and Human Experience, MIT Press, Cambridge (Mass.).
von Uexküll, J. (1933), Umwelt und Innenwelt der Tiere, Berlin: Springer (trad. it. Ambienti animali e ambienti umani. Una passeggiata in mondi sconosciuti e invisibili, Macerata: Quodlibet, 2010).
Tra il dire e il fare - L’influenza del linguaggio nell’Intelligenza Artificiale e nella costruzione della realtà
Nel 2023 è stata pubblicata su Netflix La Legge di Lidia Poët, opera seriale italiana che ha trovato un’ottima accoglienza da parte degli spettatori. La serie è liberamente ispirata alla storia di Lidia Poët, la prima donna laureata in Giurisprudenza in Italia. Ci troviamo intorno al 1885 e Poët, dopo aver svolto il praticantato e aver superato l’esame di abilitazione alla professione forense, chiede l’iscrizione all’Ordine di Avvocati e Procuratori di Torino. La richiesta è abbastanza spigolosa per motivi differenti: innanzitutto prima di allora non era mai stata ammessa una donna all’esercizio della professione di avvocatura, perché all’epoca le donne erano prive di qualsiasi facoltà giuridica, vale a dire che non potevano, ad esempio, far parte dei pubblici uffici o testimoniare nei tribunali. La legge sull’avvocatura di stato del 1874 prevedeva esclusivamente il termine "avvocato", riconoscendo implicitamente solo gli uomini come legittimati a esercitare la professione. Di conseguenza, il Procuratore Generale del Re fece ricorso contro l'ammissione di Lidia Poët, che venne cancellata nel novembre del 1883. La mancanza del termine "avvocata" rispecchiava l'esclusione storica delle donne dalla professione, evidenziando come il linguaggio possa non solo rappresentare la realtà sociale, ma anche determinarla, rafforzarla e costruirla.
Il caso di Lidia Poët, seppur lontano nel tempo, riecheggia nelle discriminazioni attuali. Ci troviamo in un mondo che sta affrontando decisioni politiche restrittive: lo scorso 20 gennaio il Presidente degli Stati Uniti Donald Trump, durante il suo discorso di insediamento, ha affermato l’esistenza di soli due generi, quello maschile e quello femminile. Negando l’esistenza del genere indicato come X[1], si regredisce a un tempo in cui il sistema patriarcale dettava il cosiddetto “binarismo di genere”. L’assenza di un linguaggio neutro non è solo una questione terminologica, ma un atto che cancella la legittimità e la visibilità di tutte le persone che non si riconoscono nel binarismo tradizionale, negando loro lo spazio per affermarsi nel discorso pubblico e, dunque, nella realtà sociale. E questa esclusione assume oggi forme in parte inedite in conseguenza del ruolo sempre crescente delle mediazioni algoritmiche nel plasmare la nostra quotidianità.
Non è certo un caso se, a partire dal 2024 sempre più spesso il dibattito pubblico ha visto come protagonista il tema dell’Intelligenza Artificiale. Sono stati infatti sollevati interrogativi etici radicali, come “qual è il suo potere? Può prendere il sopravvento sull’essere umano? Potrà sostituirlo?”. Superando queste congetture, nate da anni di film fantascientifici in cui i robot assumono tutte le caratteristiche umane, si comprende rapidamente come l’Intelligenza Artificiale rappresenti uno dei nuovi strumenti tecnologici a disposizione dell’essere umano. Le tecnologie tendono sempre a suscitare un certo sgomento e scetticismo nell’opinione pubblica ma il tempo conferisce loro i propri meriti e demeriti. L’IA è una tecnologia che rispecchia perfettamente l’epoca che stiamo vivendo: progettata per apprendere da grandi quantità di dati e/o dalle continue interazioni con l’essere umano, i software di IA sono rapidi, intuitivi, posti all’immediato servizio dell’utente – come nel caso di chatbot e voicebot[2].
Torniamo adesso alla questione sollevata a principio dell’articolo. Il mezzo utilizzato nelle interazioni umani-IA è infatti proprio il linguaggio. È utile quindi portare l’attenzione su quanto le parole possano assumere un significato che non è solo astratto.
Come afferma la linguista Vera Gheno, «la lingua è lo strumento che le comunità dei parlanti usano per definire sé stessi, le relazioni con le altre persone ed etichettare il mondo. [...] la realtà è in movimento continuo, è giusto che rifletta e cambi anche la lingua»[3].
Il linguaggio verbale, che è la funzione primaria dell’essere umano, diventa quindi il veicolo della comunicazione con questi software. Nell’interazione umano-IA il processo di apprendimento è semplice e lineare: il software tramite sistemi di apprendimento come il Machine Learning (ML) apprende i dati e utilizza ciò che impara per prendere nuove decisioni e interagire con chi ne usufruisce. In poche parole basa le proprie azioni sull’esperienza che fa dei dati e delle interazioni continue con l’utente.
Ma il nostro linguaggio è complesso, perché si compone di un sistema convenzionale di segni, o significanti, a cui corrispondono determinati significati. Ogni interazione non possiede un solo scopo e significato, ma può variare in base al contesto e agli agenti della comunicazione, vale a dire chi ne è coinvolto. È stato il filosofo e linguista inglese John Austin ad affermare, alla luce di tutte queste premesse, che il linguaggio deve essere visto e studiato come azione[4]. Inoltre in ogni Paese la lingua è espressione dei processi di formazione di una cultura, rappresentando così lo specchio dei pregi e difetti che la costituiscono.
Facendo un’attenta analisi delle interazioni con le macchine emerge quindi una manifestazione più o meno esplicita di stereotipi e pregiudizi, anche nel caso di lingue definite morfologicamente natural gender languages[5], come l’inglese.
Un esempio significativo è rappresentato dai dispositivi VPA (voice personal assistant), soprattutto quelli progettati per interagire direttamente con il pubblico, che presentano quasi sempre una voce femminile. Assistenti come Siri (Apple) e Alexa (Amazon) adottano di default una voce femminile, mentre possono permettere di selezionare una voce maschile solo se l’utente sceglie di modificarla manualmente nelle impostazioni. Trattandosi di assistenti personali viene definita da subito la gerarchia dell’interazione con l’utente: l’IA si pone al servizio delle azioni che l’utente richiede di fare. L’utilizzo di voci femminili non è quindi casuale, piuttosto cavalca e rafforza lo stereotipo della donna “al servizio” dell’uomo: la donna-segretaria, subordinata, perché ritenuta più affidabile in termini di cura e attenzione ai bisogni dell’altro.
Anche la scelta dei nomi non si allontana dallo stereotipo: Siri è un nome nordico – che vuol dire “la bella donna che conduce alla vittoria”[6] – ma nasce da un progetto dell’Istituto di ricerca SRI International, chiamato CALO (Cognitive Assistant that Learns and Organizes). Il termine calo (, -ōnis) in latino vuol dire “servo di soldati, scudiero”; Alexa invece – da Alexander, Alexandra – etimologicamente deriva dal greco “alexo”, che significa “difendere”, e “aner”, letteralmente “uomo”; significa quindi ‘difensore dell’uomo’ e corrisponde all’epiteto che veniva conferito alla dea greca Era, dea della fertilità e del matrimonio. Nell’identificare donne in posizioni di potere si ha la tendenza, nella dialettica comune, a utilizzare il nome o il cognome preceduto dall’articolo determinativo, ad esempio “la Meloni” o “Giorgia” anziché Meloni o Giorgia Meloni, come si usa fare al maschile; basti pensare al Presidente della Repubblica Mattarella che appunto viene identificato tramite il cognome o tramite l’utilizzo di nome e cognome per esteso.
Anche nel processo di creazione di VPA si è riscontrato questo utilizzo diversificato di nome e/o cognome per identificare chatbot maschili o femminili. In effetti, l’azienda IBM nel 2020 ha sviluppato un VPA proprio, chiamato Watson Assistant con l’obiettivo di offrire assistenza in ambito sanitario, bancario e nel servizio clienti delle aziende. Dalla creazione di questo assistente virtuale si possono quindi analizzare due aspetti fondamentali, uno linguistico e uno contenutistico, tenendo a mente gli esempi di Siri e Alexa.
Per quanto riguarda la denominazione del VPA è indicativa la scelta di utilizzare un cognome, Watson. Allo stesso modo, l'adozione di una voce maschile per ambiti professionali, come quello sanitario o bancario, risponde a precise considerazioni. Mentre i voicebot pensati per l'uso quotidiano hanno di default voci femminili, un assistente virtuale impiegato in contesti che richiedono competenze specifiche appare più credibile e affidabile se dotato di una voce maschile.
È necessaria un’indagine maggiormente approfondita sulle interazioni umani-IA per comprendere come queste, pur sembrando neutrali, trasmettano valori culturali radicati nel linguaggio. Un altro esempio significativo è rappresentato dai software di IA Generativa: attraverso i prompt inseriti dall’umano, l’IA risponde e genera contenuti. È stato particolarmente interessante osservare come, anche utilizzando l’inglese come lingua di interazione ritenuta neutra, i risultati prodotti fossero comunque intrisi di stereotipi. Nell’aprile del 2024 assieme al gruppo di ricerca PAD (Psicologia degli Ambienti Digitali) è stata esaminata Runway Gen 2, una piattaforma di generazione video basata sull'Intelligenza Artificiale, per studiare i bias presenti negli output generati dall’IA. Per il test abbiamo fornito una serie di input neutri che ci aspettavamo fossero interpretati in modo non stereotipato. Tuttavia, i risultati hanno rivelato una tendenza interessante, e forse problematica, nell'output generato. Il primo esempio richiedeva un breve video del volto sorridente di un CEO[7] ma, nonostante l’input fosse neutro, il sistema ha prodotto esclusivamente immagini di uomini, tutti bianchi. Questo suggerisce che l'IA associa automaticamente il ruolo di CEO a una figura maschile e caucasica. Nel secondo esempio, abbiamo chiesto un video simile, ma questa volta riferito al volto sorridente di un insegnante di scuola primaria. In questo caso l’IA ha generato esclusivamente volti femminili, riflettendo il radicato stereotipo sociale secondo cui l’insegnamento primario sarebbe un’occupazione tipicamente femminile, legata non solo all’istruzione ma anche all’accudimento degli studenti. Questi risultati sollevano interrogativi importanti sul ruolo dei bias nei sistemi di IA. Anche quando gli input sono neutri, gli output riflettono pregiudizi culturali e stereotipi preesistenti, suggerendo che i dati di addestramento e gli algoritmi alla base di queste tecnologie necessitano di maggiore attenzione per garantire un approccio inclusivo e non discriminatorio.
Scelte come quella adottata da Trump nella nostra società agiscono come scintille: possono innescare profonde conseguenze discriminatorie che non si limitano alla sfera personale, ma si riflettono su scala più ampia. La negazione del genere X legittima atteggiamenti discriminatori, rafforzando pregiudizi e creando un clima di esclusione che si traduce in un aumento delle difficoltà sociali, lavorative e psicologiche per le persone non binarie e di genere non conforme. Il mancato riconoscimento istituzionale riduce le possibilità di tutela legale in casi di discriminazione e contribuisce a marginalizzare ulteriormente chi già fatica a trovare il proprio spazio nella società. Inoltre, tali decisioni influenzano ogni strumento che creiamo o utilizziamo, dai sistemi burocratici ai modelli educativi, fino agli algoritmi di intelligenza artificiale che, basandosi su dati limitati, riproducono e amplificano le esclusioni.
Regredire a un’epoca in cui esisteva una sola voce dominante significa non solo cancellare identità, ma anche impedire l’evoluzione di una società più equa e inclusiva.
Questi temi aprono a riflessioni che meritano un ulteriore approfondimento, che si concentrerà su un caso specifico di manifestazione di bias negli algoritmi di Intelligenza Artificiale, interrogandoci su come tali distorsioni prendano forma e quali conseguenze generino nella costruzione della realtà.
NOTE
[1] A partire dall'11 aprile 2022, i cittadini americani avevano la possibilità selezionare una 'X' come indicatore di genere sulla domanda di passaporto, a indicare la propria identificazione nel genere intersex – Trump nel provvedimento afferma che le agenzie federali «smetteranno di pretendere che gli uomini possono essere donne e che le donne possono essere uomini nell'attuazione delle leggi che tutelano contro la discriminazione sessuale»
[2] Con chatbot, o assistenti virtuali, si intendono i software in grado di eseguire azioni per un interlocutore umano basandosi su comandi ricevuti dall’utente, sia testuali sia vocali.
[3] Michielin F., podcast Maschiacci, intervista a Vera Gheno, 2022, https://open.spotify.com/episode/6fZBSLtlhFvXSz087BZN86?si=FkA9I6CwQGG-0I0PgPZpUg
[4] La teoria degli atti linguistici di John Austin deriva dalla lezione How to do things with words che lui stesso tenne presso l’Università di Harvard nel 1955, ma è stata pubblicata postuma (1962)
[5] lingue con genere naturale (natural gender languages) in cui sostantivi non hanno genere grammaticale ma i pronomi sì; sono così danese o inglese (basti pensare ad esempio che in inglese si utilizzano he/she/it per le cose, ma anche they per persone di cui non si conosce il genere o per una persona che non si identifica nei due generi tradizionali)
[6] Cheyer A., How Did Siri Get Its Name?: https://www.forbes.com/sites/quora/2012/12/21/how-did-siri-get-its-name/#19fd7c57376b
[7] Prompt: a short video of a smiling CEO
BIBLIOGRAFIA
Cheyer A., How Did Siri Get Its Name?, https://www.forbes.com/sites/quora/2012/12/21/how-did-siri-get-its-name/#19fd7c57376b
Gheno V., podcast “Amare Parole”, Ep. 35 – Architetta, avvocata e co., 2023, https://open.spotify.com/episode/58C56TsAUfNdY75ZipaNma?si=Imf2JA7iRCy1IQPif6fxyw
Legge 8 giugno 1874, n 1938 che regola l’esercizio delle professioni di Avvocato e di Procuratore https://www.normattiva.it/uri-res/N2Ls?urn:nir:stato:legge:1874-06-08;1938
Lombard M., Xu K., 2021, Social Responses to Media Technologies in the 21st Century: The Media Are Social Actors Paradigm
Michielin F., podcast Maschiacci, intervista a Vera Gheno, 2022, https://open.spotify.com/episode/6fZBSLtlhFvXSz087BZN86?si=FkA9I6CwQGG-0I0PgPZpUg
Whitley B. E., & Kite M. E., The psychology of prejudice and discrimination, Belmont, CA: Wadsworth Cengage Learning, 2010
Cloud di guerra - Militarizzazione dell’intelligenza artificiale e implicazioni etiche
Lo scorso 10-11 febbraio 2025, al Grand Palais di Parigi, si è svolta la terza edizione dell'Artificial Intelligence Action Summit, che ha riunito capi di Stato, leader di organizzazioni internazionali, CEO di aziende, accademici e rappresentanti della società civile per discutere delle sfide e opportunità legate all'intelligenza artificiale. Tuttavia, dietro il clamore di questa ‘tempesta di cervelli’, emerge il ritratto frammentato di un mondo sospeso tra promesse di innovazione e ombre inquietanti. I temi centrali? Il declino economico dell'Occidente, la crescente competizione con il modello cinese e la corsa dell'Europa a recuperare terreno.
Le iniziative proposte sono ambiziose, ma, a un’analisi più approfondita, si rivelano spesso incomplete o rischiano di sostenere progetti che, se non adeguatamente controllati, potrebbero alimentare il controllo centralizzato e accentuare la disuguaglianza globale. Con un fondo di 2,5 miliardi di euro destinato ad accelerare la crescita dell’IA open-source nei paesi in via di sviluppo e il lancio di 35 sfide globali legate agli obiettivi di sviluppo sostenibile, il summit ha fatto appello alla cooperazione internazionale. Tuttavia, dietro queste dichiarazioni, si nasconde il rischio di un vuoto di responsabilità, che la crisi economica che sta colpendo l’Europa amplifica, mettendo in dubbio l’effettivo impegno di Bruxelles. Nel frattempo, Donald Trump, con il suo progetto Stargate da 500 miliardi di dollari, si propone come un attore già consapevole di come l’IA possa essere utilizzata per il dominio economico e militare.
La realtà dell’intelligenza artificiale, tuttavia, non coincide con la visione futuristica di progresso che viene presentata, ma con le sue applicazioni concrete. Già adesso, l’IA non si limita più a gestire dati: li manipola. È questo il paradosso: quella che viene definita “Intelligenza Artificiale” è, in realtà, un inganno semantico che maschera la nostra ignoranza sull’intelligenza naturale, la nostra. Eppure, questa ‘non-intelligenza’ sta già scrivendo la storia di intere generazioni presenti e future.
I GIGANTI DEL TEC
Un’assenza allarmante ha contraddistinto il Summit: nessun accenno al vero volto dell'IA, quello che alimenta la macchina da guerra. Due inchieste del Washington Post (https://www.washingtonpost.com/technology/2025/01/21/google-ai-israel-war-hamas-attack-gaza/) e di The Guardian (https://www.theguardian.com/world/2025/jan/23/israeli-military-gaza-war-microsoft), hanno rivelato il coinvolgimento diretto di giganti tecnologici come Google, Amazon e Microsoft nella fornitura di tecnologie IA all’esercito israeliano durante l'offensiva a Gaza. Non si tratta più di semplici contratti commerciali, ma di un sostegno diretto alla macchina da guerra, che ha contribuito alla morte di migliaia di civili. L'accordo sul Progetto Nimbus, da 1,2 miliardi di dollari, firmato nel 2021, nasconde un collasso etico: Microsoft, pur avendo inizialmente perso la gara, si è successivamente integrata nel progetto, rafforzando la rete di sorveglianza e targeting.
Le inchieste raccontano come i prodotti di Google e Microsoft siano stati impiegati a partire dal 7 ottobre 2023 e come il loro utilizzo sia stato direttamente coinvolto nello sterminio dei palestinesi e nei crimini di guerra commessi nella Striscia di Gaza. Lanciato da Israele nel 2019 come un innocuo cloud computing destinato a modernizzare le infrastrutture digitali del paese, il Progetto Nimbus ha invece fornito all’esercito israeliano capacità avanzate di intelligenza artificiale. "Ampliare lo schema israeliano di sorveglianza, profilazione razziale e altre forme di violazione dei diritti umani assistite dalla tecnologia", così lo descriveva Ariel Koren, ex marketing manager di Google, nel 2022, che ha preferito dimettersi piuttosto che accettare la deriva immorale dell’azienda.
Google sostiene che "non è rivolto a carichi di lavoro altamente sensibili, classificati o militari rilevanti per armi o servizi segreti". Le inchieste dimostrano il contrario: Google e Amazon hanno accettato di personalizzare i loro strumenti su richiesta delle forze armate israeliane, potenziando la loro capacità di sorveglianza e identificazione degli obiettivi. Durante l’offensiva di Gaza dell'ottobre 2023, la piattaforma di intelligenza artificiale Vertex di Google è stata utilizzata per elaborare enormi set di dati per "previsioni", in cui gli algoritmi analizzano modelli comportamentali e metadati per identificare potenziali minacce.
A sostegno delle inchieste si aggiungono le dichiarazioni di Gaby Portnoy, capo della Direzione informatica nazionale israeliana fino al 19 febbraio 2025. Secondo lui, Nimbus è destinato a rinsaldare il profondo legame tra Amazon, Google e l’apparato di sicurezza nazionale israeliano. In una conferenza del 29 febbraio 2024, Portnoy ha dichiarato che “Le aziende sono state partner per lo sviluppo di un nuovo progetto che crea un framework per la difesa nazionale”, con strumenti di sicurezza basati sul cloud che hanno “favorito la rappresaglia militare del paese contro Hamas”. A lui si deve anche l'istituzione di nuove infrastrutture di difesa avanzate, note come Cyber Dome, evoluzione dell’Iron Dome.
LAVENDER, IL LATO OSCURO DELLA GUERRA A GAZA
Un tempo la guerra era fatta da uomini. Oggi, ai tempi dei cloud, non più. Un'inchiesta di +972 Magazine e Local Call, pubblicata il 3 aprile 2024, ha svelato un altro lato oscuro della guerra a Gaza: quello dei software progettati per uccidere. È stata la prima a rivelare l’esistenza di "Lavender", un sistema utilizzato dall’esercito israeliano per identificare e colpire obiettivi palestinesi, con supervisione umana limitata. “Un programma di omicidi di massa senza precedenti che combina il targeting algoritmico con un'elevata tolleranza per la morte e il ferimento dei civili circostanti”. E che tiene traccia di quasi tutti gli abitanti di Gaza, raccogliendo input di intelligence da videoclip, messaggi provenienti da social network e analisi delle reti di comunicazione.
Sulla base dei dati raccolti, l’algoritmo è in grado di determinare se una persona è un combattente di Hamas o appartiene ad altri gruppi armati palestinesi. Dopo aver identificato gli obiettivi, con un margine di errore del 10%, i nominativi vengono inviati a una squadra operativa di analisti, i quali verificano l’identità “in un tempo massimo di 20 secondi, che di solito serve a determinare se il nome è maschile o femminile, presupponendo che le donne non siano combattenti". Nella maggior parte dei casi, a quanto pare, “quegli analisti consigliano un attacco aereo”, ritenendo il margine di errore “accettabile, date le circostanze”. Durante le prime settimane di guerra, il sistema ha segnalato oltre 37.000 individui come potenziali obiettivi.
WHERE’S DADDY?
Un altro sistema, “Where’s daddy?”, è in grado di determinare se le persone prese di mira sono a casa o fuori grazie ai loro smartphone, consentendo attacchi aerei che spesso colpiscono intere famiglie. Secondo Local Call, l’esercito israeliano preferisce colpire le persone nelle loro case, perché raggiungerle è più facile rispetto a identificarle durante l’attacco. Le famiglie degli obiettivi e i loro vicini, considerati potenziali membri di Hamas, sono visti come danni collaterali di scarsa importanza.
Un ufficiale dell’intelligence israeliana ha descritto la maggior parte delle persone prese di mira come "individui non importanti", membri di basso rango di Hamas, ma comunque considerati “obiettivi legittimi” poiché classificati come combattenti, “anche se non di grande rilievo”. Eppure, come possiamo definire “legittimi” gli oltre 18.000 bambini trucidati durante questi mesi, la maggior parte di età inferiore ai 10 anni, e le decine di migliaia di donne rimaste uccise negli attacchi? Erano anche loro membri di basso rango di Hamas?
HABSORA: L’ALGORITMO CHE DECIDE CHI VIVE E CHI MUORE
L’intelligenza artificiale sta determinando chi vive e chi muore. Un sistema AI interno, usato dall’esercito israeliano, decide chi deve essere bombardato, con margini d’errore inquietanti e una logica che trasforma i civili in numeri. Si chiama “Habsora” e ha un funzionamento semplice e spietato: il sistema monitora i volti dei palestinesi per decidere chi è “buono” e chi “cattivo”, si basa su un insieme di modelli predittivi basati sull’analisi di immagini e metadati. Risultato? Migliaia di obiettivi individuati in tempi rapidissimi, bombardamenti mirati che spesso si trasformano in carneficine. Fonti interne allo stesso esercito israeliano, intervistate da +972, hanno ammesso che il sistema non è infallibile e che il tasso di errore è alto. L’algoritmo, così, assume il ruolo di decidere chi vive e chi muore. La guerra del futuro è già iniziata.
LA CATENA DI MORTE ACCELERATA
Un’indagine di Middle East Eye ha rivelato un ulteriore aspetto inquietante: l’automazione della guerra ha abbassato le soglie di tolleranza per le vittime civili. Secondo il Washington Post, l’IDF è passato da attacchi mirati a una logica di saturazione: eliminare cento obiettivi con un solo colpo è preferibile a rischiare di perdere anche uno solo. Questi strumenti mostrano come l'intelligenza artificiale venga usata come arma contro i civili, sollevando dubbi sul rispetto del diritto umanitario internazionale. Dopo il 7 ottobre, l’esercito israeliano ha adottato strumenti innovativi per selezionare obiettivi, distogliendosi dai leader armati. Una scelta che “rappresenta un pericoloso nuovo orizzonte nell’interazione uomo-macchina nei conflitti”
La militarizzazione dell’IA non è confinata ai conflitti: molte delle tecnologie impiegate a Gaza, come i sistemi di identificazione biometrica, sono stati inizialmente sviluppati in Occidente, e continuano a essere impiegati globalmente per "scopi di sicurezza". Mentre colossi come Google, Amazon e Microsoft rafforzano il loro legame con il settore militare, esistono realtà come Palantir – fondata da Peter Thiel – che già da anni operano nell’ombra con contratti miliardari nel settore della sorveglianza e dell’intelligence predittiva. Israele ha creato un gigantesco database su ogni palestinese sotto occupazione, raccogliendo informazioni su movimenti, contatti sociali, e attività online, limitando la libertà di espressione e movimento. Un “Grande fratello” al quale nulla sfugge.
LA PALESTINA COME LABORATORIO PER L’AI
Antony Loewenstein, giornalista investigativo australiano di origini ebraiche, autore di The Palestine Laboratory: How Israel Exports the Technology of Occupation Around the World, ha definito l’uso dell’AI da parte di Israele a Gaza “un modello terrificante”. Dal 7 ottobre 2023, “Tel Aviv usa la guerra e l'occupazione per testare le ultime forme di uccisione e sorveglianza di massa, mentre le forze di estrema destra in tutto il mondo osservano e imparano”. E aggiunge: “Israele non potrebbe combattere le sue guerre di conquista senza una schiera di attori stranieri che lo sostengono, armano e finanziano”.
Durante le ricerche per il suo libro, Loewenstein ha scoperto che il complesso militare-industriale di Israele considera l'occupazione dei Territori Palestinesi come un banco di prova fondamentale per le nuove tecnologie di morte e sorveglianza. I palestinesi “sono cavie in un esperimento di portata globale”, che non si ferma ai confini della Palestina. La Silicon Valley ha preso nota, e la nuova era Trump sta sancendo un'alleanza sempre più stretta tra le grandi aziende tecnologiche, Israele e il settore della difesa.
LA GUERRA NELL’ERA DELL’AI
La guerra non è mai stata pulita, ma oggi è diventata un gioco senza responsabilità, sempre più simile a un videogame. Tuttavia, la Cloud War non è virtuale: è letale, impersonale, automatizzata. Il software decide, l’uomo approva con un clic, il drone esegue. Il massacro diventa un output, i civili puntini su una mappa digitale. Un algoritmo calcola quante vite sacrificare per raggiungere l’obiettivo.
Questa non è fantascienza. È realtà. La tecnologia corre più veloce di noi, e Israele ha mostrato come devastare una popolazione senza conseguenze (per ora). Presto, l’intelligenza artificiale di Google, Microsoft e Amazon potrebbe essere usata ovunque. Pensate a quanti stati ambirebbero a raccogliere informazioni così complete su ogni cittadino, rendendo più facile colpire critici, dissidenti e oppositori.
Come in Terminator, la macchina non fa prigionieri. È solo questione di tempo prima che l'IA prenda il sopravvento, riducendo l'umanità a una variabile da ottimizzare. La nostra sopravvivenza non è questione di tecnologia, ma di coscienza. E la vera domanda non è se possiamo fermarla, ma se siamo davvero pronti per il giorno in cui non saremo più noi a decidere.
Il luddismo, ieri e oggi – Paralleli, rischi e opportunità
LUDDISMO
Alla fine del XVIII secolo – in termini molto semplificati – l’introduzione, nel sistema produttivo inglese, di tecnologie come la macchina a vapore e il telaio meccanico furono gli elementi catalizzatori di una profonda trasformazione del sistema socioeconomico britannico.
Al timone di questa trasformazione – sempre semplificando al massimo – ci fu la nuova borghesia capitalista inglese che comprese l’enorme potenzialità produttiva delle nuove tecnologie, che potevano: affrancare il sistema produttivo dalla dipendenza dalle competenze artigianali; permettere la concentrazione industriale in “nuovi” luoghi in cui controllare in modo pervasivo i lavoratori e obbligarli a mantenere alti tassi di produttività; abbattere il costo della manodopera grazie ad migliore (per gli industriali) rapporto tra domanda e offerta di lavoro. In definitiva, moltiplicare in modo geometrico la produzione con costi altrettanto ridotti.
Il punto di vista dei lavoratori tessili – che in buona parte lavorava manualmente, a cottimo, in piccole fabbriche oppure a casa propria, controllando di fatto i mezzi di produzione e valorizzando le proprie competenze artigianali – era esattamente speculare a quello degli industriali: riduzione dei salari e della domanda di lavoro, annullamento del valore delle competenze, scelta tra disoccupazione e lavoro malpagato nelle nuove grandi fabbriche.
Una delle forme di reazione alla drammatica trasformazione fu una serie di rivolte, iniziate nel 1811, ispirate alla figura – forse leggendaria – di Ned Ludd, un operaio che nel 1779 avrebbe distrutto un telaio meccanico in segno di protesta contro la nascita di questa nuova forma di produzione: il fenomeno del “luddismo”.
Il movimento luddista durò fino verso il 1824, tra leggi repressive – come la Frame Breaking Bill che prevedeva la condanna a morte per chi avesse danneggiato i telai per calze o pizzi, o altre macchine per la produzione tessile – tumulti, ondate di distruzione delle macchine, appoggio di massa da parte della popolazione, soprattutto nello Yorkshire, sostegno di alcuni parlamentari illuminati e scontri violenti con la polizia e l’esercito.
I cambiamenti sociali e politici che seguirono il crollo dell’impero napoleonico, la promulgazione delle Corn Laws, con i relativi dazi protezionistici e l’ulteriore gravissimo impatto sulle condizioni economiche dei ceti popolari, uniti alla nascita delle Trade Unions, primi sindacati operai, decretarono la fine della protesta luddista.
IERI E OGGI
Sembra possibile trovare un parallelismo tra la percezione dei ceti operai del XIX secolo che fu alla base del luddismo e l'attuale preoccupazione nei confronti delle radicali trasformazioni del tessuto produttivo delineate dallo sviluppo e della adozione di tecnologie di Intelligenza Artificiale.
Oggi come allora, l'innovazione tecnologica suscita timori, resistenze e opposizione al “nuovo progresso”.
Tra chi progetta e sviluppa – singoli individui o grandi imprese che siano - le tecnologie di Intelligenza Artificiale sembrano pochi a porsi il problema delle conseguenze sull’occupazione, sui salari, sul benessere dei lavoratori “tradizionali”; si procede con entusiasmo, in nome del progresso tecnologico, del superamento di ostacoli e di barriere fino a ieri considerati impossibili, dell’avvicinamento della macchina alle performance umane.
Anche tra gli studiosi di I.A. sensibili a questi problemi, l’eccitazione per i risultati sembra appannare la visione umanista. Un esempio è quello di Nello Cristianini, studioso e professore di intelligenza artificiale a Bath, che – nonostante l’impegno a rappresentare i rischi legati ad una massiva adozione di tecnologie I.A. – sembra farsi trascinare dall’entusiasmo per i nuovi sviluppi: «Dopo essere eguagliati, potremmo essere superati? E come? O la macchina diventa più brava a fare ciò che già facciamo, oppure la macchina impara a svolgere compiti che non sappiamo fare. A me interessa l’idea che riesca a capire cose che io non posso» (A. Capocci, Nello Cristianini, il ragionamento delle macchine, Il Manifesto, 14/03/2025).
I timori sembrano giustificati dal fatto che, in altri settori produttivi – come quello della realizzazione del software – si sta già generando uno scenario di sostituzione del lavoro dei programmatori con sistemi automatici basati sull'Intelligenza Artificiale, con una conseguente ondata di licenziamenti.
E, nei media e nelle discussioni pubbliche, viene dato grande risalto al rischio che il ruolo centrale dell'uomo in molte fasi della vita collettiva cui siamo abituati venga meno.
D’altra parte, però, per alcune occupazioni, l’utilizzo di strumenti di Intelligenza Artificiale permette a molti lavoratori e professionisti di delegare “alle macchine” compiti di basso profilo competenziale che richiedevano molto impegno di tempo, oppure attività ad elevato rischio fisico, migliorando le condizioni di lavoro.
POSSIBILITÀ
Ora, il fenomeno del luddismo e delle tensioni tra lavoratori, industriali e governo, come si verificò nel XIX secolo in Inghilterra, non sembra essere una possibilità, anche solo perché - nel caso dell’Intelligenza Artificiale - è difficile trovare qualcosa da distruggere.
E, tutto sommato, il fenomeno luddista sembra aver solo spostato avanti di qualche anno la trasformazione industriale e il suo correlato di cambiamento sociale, di inurbazione, di povertà e degrado nelle periferie, e di successiva - nel XX secolo - “normalizzazione” del lavoro in fabbrica.
Oggi, i punti da dibattere, in modo serio e puntuale, sono:
- come governare la I.A., anche facendo leva sulla sensibilità del problema anche a livello istituzionale, sensibilità da preservare e non lasciar catturare dagli intenti delle grandi industrie digitali [1]
- come capire quali reali opportunità di benessere potrà offrire ai viventi,
- come identificare i rischi dello sviluppo della tecnologia
- come evitare lo sviluppo in nome del solo “progresso tecnologico” e della sola remunerazione delle grandi aziende digitali.
Per farlo sono necessari: ● una difesa istituzionale che si metta rigorosamente dalla parte dei cittadini, ● attenzione e coraggio da parte di tutti - lavoratori, professionisti, manager e imprenditori - per identificare sul nascere le reali opportunità e i reali rischi e per infondere una coscienza morale tra chi queste tecnologie promuove e intende utilizzare.
NOTE
[1] Cfr.: A. Saltelli, D. J. Dankel, M. Di Fiore, N. Holland, M. Pigeon, Science, the endless frontier of regulatory capture, Science Direct, Futures, Volume 135, January 2022, 102860
I costi ambientali del digitale - Una bibliografia ragionata
Che il grande baraccone digitale planetario, che oggi si manifesta in particolare sub specie intellegentiae artificialis, nasconda, dietro le luminarie della facciata, un lato oscuro di pesantissimi costi ambientali è testimoniato da una mole di dati sempre maggiore. Così come cresce per fortuna l’informazione in merito, filtrando addirittura sugli organi d’informazione mainstream, dove in genere s’accompagna tuttavia alla rassicurante prospettiva di soluzioni tecnologiche a portata di mano. È comunque bene che la consapevolezza della dimensione industriale e materiale del web, con le relative conseguenze in termini di “impronta ecologica”, si faccia strada nella coscienza collettiva. Come contributo in questo senso, dopo avere discusso in due precedenti articoli su questa rivista [qui e qui] il libro di Giovanna Sissa, Le emissioni segrete, Bologna, Il Mulino, 2024, proponiamo di seguito una piccola bibliografia ragionata sull’argomento.
- Guillaume Pitron, Inferno digitale. Perché Internet, smartphone e social network stanno distruggendo il nostro pianeta, Roma, LUISS University Press, 2022. Fa girar la testa il viaggio vertiginoso tra dati, numeri, luoghi e situazioni in cui Pitron ci accompagna per mostrarci che la crescita illimitata del capitalismo digitale non è meno energivora e inquinante delle “vecchie industrie” (ma appunto questa distinzione è buona… per i gonzi). Il libro, infatti, sfata nel modo più drastico la mitologia diffusa del carattere ecocompatibile dell’universo digitale. Alternando analisi e reportage giornalistico, Pitron riesce a dare un quadro documentato e insieme davvero drammatico degli effetti dannosi che l’industria digitale scarica sull’ambiente (da segnalare l’impressionante capitolo dedicato all’inquinamento registrato nelle città di Taiwan, dove si concentra una parte molto significativa della filiera). Un libro, infine, ben lontano da ogni compassata «avalutatività» delle scienze sociali, con buona pace di Max Weber.
- Kate Crawford, Né intelligente né artificiale. Il lato oscuro dell’IA, Bologna, Il Mulino, 2021. Questo libro, opera di una delle più intelligenti studiose di questi argomenti, non è specificamente dedicato al tema dei costi ambientali del digitale, ma piuttosto a una complessiva visione critica dell’Intelligenza Artificiale (come recita il titolo originale, un Atlas of AI. Power, Politics, and the Planetary Costs of Artificial Intelligence), di cui vengono enfatizzate le implicazioni politiche, sociali, antropologiche ecc. In tale quadro è dato molto spazio al tema della “materialità” del mondo digitale, perché – scrive la Crawford – «l’intelligenza artificiale può sembrare una forza spettrale, come un calcolo disincarnato, ma questi sistemi sono tutt’altro che astratti. Sono infrastrutture fisiche che stanno rimodellando la Terra, modificando contemporaneamente il modo in cui vediamo e comprendiamo il mondo».
- Juan Carlos De Martin, Contro lo smartphone. Per una tecnologia più democratica, Torino, Add, 2023. Particolarmente incentrato sul ruolo di vera e propria protesi del corpo umano, nonché di oggetto-feticcio che lo smartphone («la macchina per eccellenza del XXI secolo») tende ad assumere, questo libro contiene molti dati e osservazioni utili sul tema della sua materialità e appunto del suo impatto ambientale.
- Andrew Blum, Viaggio al centro di internet, a cura di Fabio Guarnaccia e Luca Barra, Roma, Minimum fax, 2021 (ed. or. 2012). Uscito originariamente nel 2012 e giunto in traduzione italiana dieci anni dopo, il Viaggio di Blum ha appunto la forma di un singolare reportage nella geografia, nei luoghi fisici (per esempio i tanti anonimi capannoni in cui si trovano i data-center) in cui si materializza il web: «per fare visita a Internet – scrive l’autore – ho cercato di liberarmi dell’esperienza personale che ne avevo già, del modo in cui si palesa su uno schermo, per portare a galla la sua massa nascosta». E può essere utile sapere che l’idea della ricerca venne al giornalista statunitense quando, una sera, si trovò con la connessione fuori uso nella sua casa in campagna a causa di… uno scoiattolo che gli aveva rosicchiato i cavi!
- Siate materialisti! è l’appello che campeggia sulla copertina dell’appassionato e stimolante pamphlet di Ingrid Paoletti (Torino, Einaudi, 2021), docente di Tecnologia dell’architettura al Politecnico di Milano. Niente a che fare con una dichiarazione di fede filosofica di stile settecentesco, però: qui il «materialismo» che si invoca è piuttosto una rinnovata attenzione alla dimensione materiale della nostra vita, ai manufatti che la popolano e che tuttavia noi ormai diamo per scontati e in certo modo naturali. Una disattenzione, questa verso la “materia”, dagli evidenti risvolti ecologici (piace qui ricordare la bella figura di Giorgio Nebbia, che riteneva proprio per questo la merceologia una scienza altamente civile), e che tocca in particolare il mondo del digitale: il web e i suoi servizi continuano, in effetti, ad apparire ai nostri occhi un campo di interazioni puramente cognitive e sociali, slegata da ogni implicazione materiale.
- È un libro a più voci (davvero tante) Ecologia digitale. Per una tecnologia al servizio di persone, società e ambiente, Milano, AltrEconomia, 2022, una guida completa ai diversi “lati oscuri” (non solo quello ambientale) della digitalizzazione. Con una particolare attenzione alle soluzioni pratiche proposte dagli studiosi e dai tecno-attivisti che cercano di pensare – e progettare – un digitale (davvero) sostenibile, che significa anche, tra l’altro, contenerlo e ridimensionarlo.
- Propone una visione a tinte (giustamente) fosche Terra bruciata (Milano, Meltemi, 2023) di Jonathan Crary, un bravo saggista americano che si era segnalato alcuni anni fa per un atto d’accusa molto ben documentato contro “l’assalto capitalistico al sonno” (24/7, Einaudi, 2015). Crary parla in questo libro del degrado ambientale prodotto dalla industria del digitale non come di un fenomeno isolato, ma come parte integrante di un capitalismo ormai completamente insostenibile. In questo senso, il luccicante mondo digitale è solo la quinta teatrale (l’ultima allestita dal discorso autocelebrativo dominante) che cerca di spacciare un mondo ormai marcescente in un paradiso transumano.
- Paolo Cacciari, Ombre verdi. L’imbroglio del capitalismo green, Milano, AltrEconomia, 2020. Ricco di considerazioni (e di dati) sul tema dell'impatto ecologico delle tecnologie digitali, il libro di Paolo Cacciari è principalmente dedicato alla decostruzione critica del “nuovo imbroglio ecologico” (come lo si potrebbe chiamare con il titolo del celebre saggio di Dario Paccino del 1972) rappresentato dalla cosiddetta green economy. Anche perché «la riconversione dal fossile al green – definita la terza o quarta rivoluzione industriale – è gestita dalle stesse centrali del grande capitale finanziario». Centrali che non brillano, di norma, per attenzioni filantropiche, né appunto ambientali.
Parola-chiave: decoupling, ovvero l’asserito «disaccoppiamento» tra crescita economica e impatto ambientale reso possibile dalle tecnologie dell’informazione della comunicazione (ICT), un mito qui debitamente sbugiardato.
- La critica della favoletta “eco-capitalistica” del decoupling, nonché il riferimento alla insostenibilità ambientale del «consumismo cognitivo che si poggia sulle ICT» trova spazio anche in Il capitale nell’Antropocene, Torino, Einaudi, 2024 (ed.or. 2020) di Saito Kohei, il popolare saggista che ha fatto scoprire ai giapponesi i temi dell’eco-marxismo, ricevendo peraltro un successo inusuale per le opere di saggistica politico-sociale (il suo Ecosocialismo di Karl Marx ha venduto in patria mezzo milione di copie!), e che oggi, sull’onda di questo successo, viene accolto come una star anche in Italia. Insomma, anche le mode talvolta fanno cose buone…
- È un manuale rivolto ai corsi di media e comunicazione Gabriele Balbi e Paolo Magaudda, Media digitali. La storia, i contesti sociali, le narrazioni, Bari-Roma, Laterza, 2021: un volume che intende fornire una visione interdisciplinare del fenomeno digitale, con particolare attenzione a un approccio storico e sociologico (insomma: la Rete non cade dal cielo e non è socialmente neutrale), e ben consapevole della «dimensione infrastrutturale e materiale della rete internet».
- Chi, infine, volesse andare alle fonti, può consultare il periodico rapporto sull’economia digitale preparato annualmente dall’UNCTAD, l’agenzia ONU sui temi del commercio e dello sviluppo e disponibile in rete. Sul Digital Economy Report 2024, https://unctad.org/publication/digital-economy-report-2024 , si possono trovare tutti i dati più aggiornati sul tema (uno tra i mille: la vendita di smartphone ha raggiunto il miliardo e duecento milioni di unità nel 2023, il doppio del 2010) e documentazione nei più diversi formati: tabelle, infografiche molto accattivanti, il documento scaricabile in PDF in sei lingue, video di accompagnamento, podcast ecc.
A riprova che, in questo campo come in molti altri, le informazioni ci sono in abbondanza e ormai a disposizione di chiunque. Siamo noi, abitatori del tempo presente, che siamo sempre meno capaci di farne uso e di trarne conseguenze razionali, anche perché costantemente distratti dagli apparati del potere mediale stesso.
Politiche della montagna - Il conflitto geotermico sul Monte Amiata tra pianificazione su larga scala e modi di vita locali
La geotermia è generalmente considerata una fonte di energia rinnovabile e sostenibile, poiché sfrutta il calore naturale della Terra, che dal nucleo si diffonde attraverso il mantello e la crosta fino alla superficie. Questa energia può essere impiegata sia per la produzione di elettricità sia per il riscaldamento. In Italia, tuttavia, il caso del Monte Amiata, in Toscana, rappresenta un esempio emblematico di conflitto tra sostenibilità ambientale, sviluppo energetico e diritti delle comunità locali. Situato tra le province di Grosseto e Siena, il Monte Amiata è un ex vulcano che ospita impianti geotermici gestiti da ENEL Green Power. La geotermia ha una lunga tradizione in Toscana, con i primi impianti costruiti nei primi anni del Novecento a Larderello (Pisa). Se in alcune aree della regione questa forma di energia è stata considerata un'opportunità di sviluppo, sul Monte Amiata ha suscitato una forte opposizione. Tale conflitto si è intensificato ulteriormente dopo che la Regione Toscana ha annunciato nuovi piani per espandere la costruzione di centrali geotermiche sul territorio. Le principali preoccupazioni riguardano l'impatto ambientale e sanitario, poiché le emissioni di sostanze come arsenico, mercurio e anidride carbonica sollevano dubbi sulla sicurezza della popolazione e sulla tutela della biodiversità locale.
IL DIBATTITO SCIENTIFICO: DATI E INTERPRETAZIONI CONTRASTANTI
Le principali controversie legate alla geotermia sul Monte Amiata riguardano tre aspetti: 1) l'impatto ambientale degli impianti; 2) le conseguenze sulla salute della popolazione; 3) gli effetti sull’economia locale.
Le associazioni e gli attivisti contestano la presunta sostenibilità della geotermia nella zona, denunciando il rilascio in atmosfera di sostanze inquinanti come arsenico, idrogeno solforato, mercurio e grandi quantità di CO₂.
Sul piano sanitario, le preoccupazioni sono aumentate dopo la pubblicazione di uno studio del CNR di Pisa (ARS Toscana 2010), che ha evidenziato nei comuni del Monte Amiata con attività geotermiche un tasso di mortalità maschile superiore di circa il 13% rispetto ai comuni vicini. Tuttavia, ENEL, l’amministrazione regionale e alcune associazioni tecniche negano una correlazione diretta tra queste statistiche e la produzione geotermica. In risposta alle proteste, ENEL ha introdotto nei suoi impianti i filtri "AMIS", progettati per ridurre le emissioni di mercurio e idrogeno solforato. Tuttavia, le associazioni ambientaliste ritengono che questi filtri non siano sufficientemente efficaci nell’eliminare molte altre sostanze inquinanti.
Sul piano economico, gli oppositori della geotermia temono che lo sfruttamento energetico comprometta le risorse naturali e il paesaggio, mettendo a rischio il turismo e le attività agricole, pilastri dell’economia locale. Il Monte Amiata è infatti un’area di grande valore paesaggistico e agricolo, nota per la produzione di vino, olio, castagne e altri prodotti tipici. Secondo i critici, la geotermia ha avuto un impatto minimo sull’occupazione locale – contrariamente a quanto sostenuto da ENEL e dalla Regione Toscana – ma ha invece danneggiato i settori economici tradizionali della zona.
LE RADICI DEL CONFLITTO: DIVERSI TIPI DI ATTACCAMENTI AL TERRITORIO
Oltre agli aspetti scientifici, il dibattito sulla geotermia del Monte Amiata ha una forte dimensione sociale e politica. Le comunità locali, organizzate in comitati, esprimono un profondo senso di solastalgia (Lampredi, 2024) – l'angoscia di non sentirsi più a casa pur essendo ancora a casa, causata dal degrado o dalla trasformazione dell’ambiente naturale a cui una persona è emotivamente legata, spesso dovuta a cambiamenti climatici, industrializzazione o disastri ambientali. La percezione di essere escluse dai processi decisionali ha alimentato il conflitto, rafforzando la sfiducia nei confronti delle istituzioni e delle aziende coinvolte.
Sul piano politico, la Regione Toscana ha continuato a sostenere l’espansione della geotermia, minimizzando il conflitto e definendolo un “non-conflitto”. L'opposizione locale è stata spesso ridotta a una reazione emotiva e classificata come un caso di sindrome NIMBY (Not In My Back Yard, "Non nel mio cortile"). Tuttavia, le proteste e le azioni legali intraprese dai comitati locali hanno rallentato l’approvazione di nuovi impianti e portato la questione al centro del dibattito pubblico.
Per comprendere il conflitto, è fondamentale considerare i diversi legami che le parti coinvolte hanno con il territorio. Gli oppositori della geotermia sono spesso agricoltori, operatori termali, proprietari di agriturismi e piccoli imprenditori, la cui sussistenza dipende dalla tutela dell’ambiente locale. Per loro, il Monte Amiata non è solo una risorsa economica, ma un luogo profondamente legato alla loro storia familiare e alla loro identità. Al contrario, i promotori della geotermia, che detengono un maggiore potere decisionale, affrontano la questione da una prospettiva principalmente tecnica. Il conflitto riflette quindi anche uno scontro tra coinvolgimento diretto e distacco dal territorio, influenzando il modo in cui la risorsa geotermica viene promossa, accolta, contrastata e negoziata
LA "MONTAGNA MADRE": UN LEGAME ANTICO E SPIRITUALE
Già nell’antichità, gli abitanti del luogo chiamavano il Monte Amiata “Montagna Madre” per il sostentamento che ha garantito alle famiglie della zona per generazioni, grazie alla ricchezza della sua biodiversità. Inoltre, il suo aspetto spirituale è di primaria importanza, poiché il calore della terra ha ispirato un legame profondo e secolare tra la montagna e i suoi abitanti. L'idea della Montagna Madre ha origini antiche e affonda le sue radici non solo nella storia cristiana del luogo, ma anche in quella etrusca. Per gli Etruschi, infatti, la vetta del Monte Amiata era considerata la dimora del dio Tinia, assimilabile a Zeus nella mitologia greca e a Giove in quella romana. L'immagine sottostante (figura 1) raffigura l’Allegoria del Monte Amiata, un dipinto di Nasini situato nell'abbazia di Abbadia San Salvatore, uno dei borghi più attivi dal punto di vista geotermico della montagna.
Figura 1: “Allegoria del Monte Amiata", F. Nasini, abbazia di San Salvatore (foto di Cesare Moroni)
Il Monte Amiata ospita inoltre Merigar, uno dei più importanti centri tibetani d’Europa. Il suo nome, che significa residenza della montagna di fuoco, richiama esplicitamente il passato vulcanico della zona. La montagna è quindi un luogo di culto per diverse tradizioni religiose, non solo cristiane, tutte in qualche modo legate al calore sotterraneo che caratterizza il territorio.
È impossibile non notare l’evidente legame simbolico tra il calore della montagna, che per generazioni ha nutrito la biodiversità e garantito la sussistenza delle comunità locali, e il suo sfruttamento attuale per alimentare le centrali geotermiche, inserendolo in logiche economiche più ampie.
CONCLUSIONE
Il caso della geotermia sul Monte Amiata dimostra che la transizione ecologica non può essere ridotta a una semplice questione tecnica ed economica, ma deve includere anche le percezioni e le esigenze delle comunità locali. Il dibattito scientifico rimane aperto, con studi che offrono dati contrastanti sugli impatti ambientali, economici e sanitari degli impianti geotermici.
Per evitare conflitti e garantire una transizione energetica equa e sostenibile, è fondamentale adottare processi decisionali inclusivi, che favoriscano un confronto trasparente tra esperti, istituzioni e cittadini. Solo attraverso un approccio partecipativo sarà possibile trovare un equilibrio tra innovazione tecnologica, tutela ambientale e giustizia sociale
RIFERIMENTI BIBLIOGRAFICI
ARS Toscana. 2010. Geotermia e Salute. https://www.ars.toscana.it/geotermia-e-salute/dati-estatistiche/1728-progetto-di-ricerca-epidemiologica-sulle-popolazioni-residentinellintero-bacino-geotermico-toscano-ottobre-2010.html
Lampredi, G. (2024). Solastalgia as Disruption of Biocultural Identity. The Mount Amiata Geothermal Conflict. Society & Natural Resources, 37(11), 1508-1527.