Depositi Nazionali delle scorie radioattive - Uno, nessuno o centomila?

Il 5 maggio 2025, il Ministro dell’Ambiente Gilberto Pichetto Fratin dichiara che «Abbiamo ormai scartato l’idea di un centro unico» di stoccaggio delle scorie radioattive «perché è illogico a livello di efficienza» e sostiene che sarebbe meglio costruire più depositi o «andare avanti con i 22 già esistenti». Con questa dichiarazione, il ministro sembra archiviare il progetto del Deposito Unico Nazionale dei rifiuti radioattivi studiato da Sogin – la società statale responsabile dello smantellamento degli impianti nucleari italiani e della gestione e messa in sicurezza dei rifiuti radioattivi – nei passati 20 anni.

DI CHE RIFIUTI RADIOATTIVI SI PARLA?

È il caso di adottare una rappresentazione quantitativa molto schematica per avere un’idea chiara del fenomeno in Italia, cercando anche di semplificare al massimo[1]:

I rifiuti, o scorie, radioattivi sono generati nel corso di:

  • numerose attività mediche diagnostiche – come, ad esempio, le radiografie, le scintigrafie, le PET - e di cura di patologie tumorali, tiroidee, del fegato;
  • alcune attività industriali volte a verificare le condizioni strutturali e di sicurezza di  impianti e costruzioni, a effettuare sterilizzazione biologica di strumenti medici, sementi agricole e anche di alimenti
  • la generazione di energia con impianti nucleari

La produzione di scorie, in Italia, è di questi ordini di grandezza:

  • i produttori, ospedalieri e industriali, sono poco più di 800
  • la produzione è nell’ordine di 300 metri cubi[2] all’anno
  • le fonti sono principalmente di tipo medico, diagnostico e di cura
  • i nuovi rifiuti prodotti sono tutti a bassa o bassissima intensità di radiazione e, quindi, di ridottissima pericolosità

Le quantità di scorie già immagazzinate – secondo l’Inventario ISIN a dicembre 2023 – sono poco più di 32.000 metri cubi[3], tutti di origine medicale e industriale, di cui:

  • 622 m3 a vita media molto breve, che diventano non pericolosi molto rapidamente e poi possono essere smaltiti come rifiuti convenzionali
  • 500 m3 a bassissima e bassa intensità radioattiva
  • 500 m3 a intensità radioattiva intermedia

Queste scorie sono immagazzinate in 22 depositi temporanei, distribuiti in modo ineguale sul territorio nazionale, che garantiscono sicurezza e isolamento dall’esterno, almeno per un altro decennio.

I siti temporanei esistenti in Italia non contengono nessun rifiuto ad elevata radioattività e da impianti di produzione di energia nucleare; quelli prodotti nelle 4 centrali, in funzione fino al 1987, sono custoditi in depositi ad elevata sicurezza in Francia e in Inghilterra, con un servizio di stoccaggio che costa al Governo italiano più di 50 milioni all’anno[4]. Questi rifiuti dovrebbero rientrare in Italia entro il 2025, ma la condizione per farlo è la presenza di una struttura di stoccaggio adeguata, quella oggetto del progetto Deposito Nazionale, appunto.

IL DEPOSITO NAZIONALE

Il Deposito Unico Nazionale è un progetto sviluppato da Sogin dal 2010, che prevede la realizzazione di una struttura di superficie – una specie di collina di una decina di ettari con al suo interno gli edifici magazzino - di smaltimento definitivo di tutti i rifiuti radioattivi a bassissima, bassa e media attività e di stoccaggio temporaneo dei rifiuti ad alta intensità attualmente custoditi in Francia e Inghilterra.

La parte di struttura destinata allo smaltimento definitivo garantisce sicurezza per 300 anni; quella per i rifiuti ad elevata intensità sarà sicuro per 40 anni, durante i quali è necessario costruire un ulteriore deposito geologico ad elevatissima sicurezza che ne garantisca lo stoccaggio per centinaia di migliaia di anni. Sopra e intorno al deposito vero e proprio si sviluppa un Parco Tecnologico con centri di ricerca e di formazione nazionali e internazionali.

È immediato farsi alcune domande su questo progetto, sulla sua necessità e sull’unicità del sito e sui relativi costi.

Perché è necessario? La realizzazione di questo deposito centralizzato è dettata dalla normativa di sicurezza italiana e europea sulla gestione delle scorie radioattive e dalla inadeguatezza degli attuali depositi temporanei per un periodo superiore a un’altra decina di anni. Si tratta di una questione ineludibile di sicurezza sanitaria pubblica, quindi, e di una questione economica che fa capo ai 50 milioni all’anno pagati a Francia e Inghilterra, con una prospettiva temporale sostanzialmente indefinita.

Quanto costa? L’investimento stimato per la realizzazione è di circa 1,5 miliardi di euro, un decimo della stima per il ponte sullo Stretto di Messina, per un volume di circa 85.000 m3 di rifiuti.

Perché farne uno solo? Secondo Sogin e secondo la legge costitutiva del 2010, data la complessità del progetto e il costo di realizzazione di ogni impianto, la realizzazione di più di un deposito costituirebbe una inefficienza finanziaria importante; inoltre, il costo della gestione corrente di più siti è sostanzialmente quello di un sito unico moltiplicato per il numero di siti.

DOVE? CARTA DELLE AREE IDONEE E CONSULTAZIONE PUBBLICA

Parallelamente al progetto di realizzazione del Deposito è nato quello relativo alla sua collocazione sul territorio nazionale. Il processo di identificazione della località dove costruirlo è molto articolato e non prevede che la decisione sia “calata dall’alto” sulle teste di istituzioni locali e cittadini, ma che sia discussa e condivisa in modo trasparente.

È opportuno vedere quale sia il processo che è stato definito da Sogin e approvato dal Parlamento:

  • il primo passo è la definizione dei criteri di esclusione per la sicurezza del sito[5]; tra questi ci sono la l’attività vulcanica e sismica, la presenza di faglie, i rischi idrogeologici, i fenomeni carsici, la prossimità a centri abitati, alle coste, a falde affioranti, a autostrade, linee ferroviarie,aree protette;
  • il secondo passo è la redazione della CNAPI – Carta Nazionale delle Aree Potenzialmente Idonee, ossia di tutti i luoghi che non vengono esclusi dai criteri di rischio; ne sono state identificate 67;
  • il terzo passo è quello della Consultazione Pubblica[6], che prevede la discussione trasparente, pubblica, con i portatori di interesse – gli stakeholder – ossia «tutti i soggetti interessati alla realizzazione e all'esercizio del deposito, inclusi i comuni in cui potrebbero essere localizzati, le regioni coinvolte, le associazioni ambientaliste e i cittadini residenti nelle aree interessate» che possono sollevare osservazioni e obiezioni ed inserire ulteriori criteri di esclusione; a questa discussione segue la definizione della Carta delle Aree Idonee - CNAI, cioè le 51 aree non escluse a seguito della Consultazione Pubblica.
  • la CNAI deve, poi, essere approvata dal Ministero dell’Ambiente e della Sicurezza Energetica, con una Valutazione Ambientale Strategica
  • una volta compiuta la VAS, è previsto di raccogliere le candidature «volontarie e non vincolanti» di Regioni e di Enti locali ad ospitare il Deposito; in caso di più manifestazioni di interesse viene stilata una graduatoria di idoneità e il MASE cerca un’intesa per definire l’accordo di collocazione. Ove non fosse raggiunta un’intesa è previsto che si avvii un processo interistituzionale che definisce per decreto il sito di realizzazione.

UNO, NESSUNO E CENTOMILA

UNO: il processo di localizzazione delineato da Sogin, al cui nucleo c’è la Consultazione Pubblica, prevista per garantire gli spazi di discussione, l’espressione delle obiezioni e delle osservazioni da parte di tutti - davvero tutti, a partire dagli enti locali fino ai singoli cittadini – ha il fine di trovare una sola area in cui costruire il Deposito.

NESSUNO: il processo, però, dopo quasi un anno di lavori – dal 5 gennaio al 15 dicembre 2021 – non ha avuto successo: nessun Ente locale, fatto salvo per il Comune di Trino Vercellese che però non fa parte delle Aree Idonee, ha manifestato interesse ad ospitare il deposito;

CENTOMILA: dopo alcuni mesi, il Ministro dell’Ambiente ha dichiarato che il progetto di collocazione unica è stato mandato in pensione e che l’opzione da percorrere è – sostanzialmente - quella della distribuzione dei rifiuti negli attuali depositi temporanei, ovviamente con opportune opere di adeguamento ai criteri di sicurezza a lungo termine.

TRE CONTROVERSIE

Si delineano – in questa storia - tre controversie in cui gli attori sono: la popolazione (rappresentata perlopiù dagli enti locali), le tecnoscienze, il cui rappresentante principale è Sogin, con i progettisti del Deposito e – infine – la dimensione politica, rappresentata dal Governo e dal suo Ministro Pichetto Fratin.

Le poste in gioco più significative sono quattro: la sicurezza della popolazione e dell’ambiente, ossia il rischio di emissioni e contaminazioni radioattive, l’efficienza economica e finanziaria nel processo di realizzazione e gestione del deposito, la necessità di prendere una decisione e, ultima, inattesa posta, l’opportunità economica e di sviluppo legata alla realizzazione del deposito, o dei depositi.

La prima controversia è tra le tecnoscienze e la popolazione, e si gioca nel corso della Consultazione popolare sulla diversa percezione di sicurezza: le tecnoscienze fanno leva sulla validità della progettazione, sulle evidenze disciplinari, sulle valutazioni di minimo rischio e sulla necessità di fare l’opera in tempi utili. E, nel corso della discussione, non cedono di un passo; la popolazione percepisce diversamente il rischio, ha paura, non considera la dimensione quasi esclusiva dei rifiuti a bassa intensità di origine medicale, associa nucleare alle centrali messe al bando con i referendum del 1987 e del 2011. E si arrocca in una posizione NIMBY, Not In My Back Yard.

La seconda controversia è tra le tecnoscienze e la dimensione politica: ancora una volta Sogin e i progettisti insistono sulle ragioni pratiche ed economiche dell’unicità del sito. La politica, il governo, invece, vede lo stallo - che si è creato per la mancanza di candidati - come un problema oggettivo da risolvere e aggiunge alla propria assiologia la possibilità di estendere l’opportunità economica, quella della creazione di posti di lavoro e di indotto produttivo, che si moltiplicano con l’opzione di più siti. Il tema dell’efficienza degli investimenti perde rilevanza rispetto al valore dello sviluppo economico.

Complice di queste controversie è il fattore tempo che sembra essere molto dilatato, nell’ordine della decina di anni per mettere in sicurezza i siti attuali o per realizzare quello unico, di 40 anni per il deposito geologico, comunque di anni prima di far ritornare da Francia e da UK le scorie più critiche.

L’ultima controversia – implicita e non (ancora) agita - riguarda l’approccio al coinvolgimento degli stakeholder nelle decisioni tecno-scientifiche in cui è coinvolta una significativa dimensione sociale: il modello di Consultazione pubblica impostato da Sogin nel 2010 risponde a criteri di democratizzazione delle tecnoscienze e di inclusione di attori civici e popolari, non esperti, nella discussione e nel processo di decisione.

Questo processo e metodo, esteso ad un intero territorio nazionale, ha mostrato la corda e ha evidentemente mancato l’obiettivo, malgrado la mediazione di una esperta in processi partecipativi[7]; è possibile che abbia anche mostrato chiaramente i limiti delle teorie sociologiche di scienza partecipata, soprattutto di fronte alla dimensione non locale della questione.

Tuttavia, sarebbe il caso di esaminare in modo più approfondito il modo in cui è stata progettata e condotta la consultazione, con i relativi tempi e modalità di discussione, per comprendere meglio come NON è il caso di fare scienza partecipata e democratica e come si sarebbe potuto lavorare sulle aree di sovrapposizione delle rispettive posizioni valoriali.

 

 

NOTE

[1] Per approfondimenti si consiglia di consultare il sito del Deposito Nazionale, l’Inventario ISIN del 2024 e la relazione del Senato della Repubblica, XVII Legislatura, Doc. XXIII, N. 40; “Il governo non vuole più costruire un unico deposito di scorie nucleari”, Il Post, 6 maggio 2025 – che ha stimolato questa riflessione

[2] pari a un cubo di circa 7 metri di lato

[3] Per avere un’idea, 30.000 m3 occupano un’area pari a un campo da calcio con uno spessore di 4 metri

[4] Fino a pochi anni fa questo costo era sostenuto dagli utilizzatori privati e non di energia elettrica, come “oneri di sistema”

[5] Cfr. Ispra, Guida tecnica N. 29

[6] La Consultazione pubblica, realizzata tra gennaio e dicembre 2021, ha incluso il Seminario Nazionale sulla CNAPI, svoltosi tra settembre e la fine di novembre dello stesso anno, con 10 sessioni pubbliche tra plenarie e regionali, di 1-2 giornate ciascuna. Tutti i documenti e gli streaming sono reperibili qui.

[7] Si tratta di Iolanda Romano, Architetta e Dottoressa di ricerca in Pianificazione Territoriale


Cibo in cambio di impronte retiniche. Israele e gli algoritmi dell’oppressione e dello sterminio

In Cloud di guerra, ho documentato l’uso dell’intelligenza artificiale nel conflitto in corso a Gaza – e con modalità differenti in Cisgiordania – evidenziandone le drammatiche conseguenze. Da allora, nuovi dati rivelano che Israele ha sviluppato ulteriori strumenti per consolidare la sua guerra contro Hamas.

Le inchieste condotte da +972 Magazine, Local Call e The Guardian nel 2024, hanno rivelato che Israele ha sviluppato sofisticati strumenti per condurre la guerra contro Hamas, tra i quali l’algoritmo di apprendimento automatico Lavender, utilizzato fin dall’inizio del conflitto, e ora perfezionato, senza mettere in conto le lateralità degli attacchi. L’utilizzo di Lavender ha avuto un ruolo centrale nell’individuazione di almeno 37.000 obiettivi, molti dei quali colpiti in operazioni che hanno causato migliaia di vittime civili..

CAVIE SEMANTICHE: QUANDO ANCHE LA LINGUA VIENE PRESA IN OSTAGGIO

Una nuova inchiesta di +972 Magazine, Local Call e The Guardian, pubblicata lo scorso 6 marzo 2025, ha rivelato che Israele ha messo a punto un nuovo modello linguistico, simile a ChatGPT, costruito esclusivamente su conversazioni private dei palestinesi in Cisgiordania: milioni di messaggi WhatsApp, telefonate, email, SMS intercettati quotidianamente. Un LLM (Large Language Model) alimentato non da testi pubblici, ma da frammenti intimi di vita quotidiana.

Idiomi, inflessioni, silenzi: ogni sfumatura linguistica diventa materia prima per addestrare strumenti di controllo predittivo.

I palestinesi diventano cavie semantiche, banchi di prova per armi algoritmiche progettate per prevedere, classificare, colpire. L’inchiesta dimostra come l’IA traduca automaticamente ogni parola in arabo captata nella Cisgiordania occupata, rendendola leggibile, tracciabile, archiviabile, riproducibile.

Non è solo sorveglianza: è architettura linguistica del dominio, fondata sulla violazione sistematica della dimensione personale e soggettiva della popolazione palestinese.

L’I.A. MILITARE ISRAELIANA IN AZIONE: IL CASO IBRAHIM BIARI

Un’inchiesta del New York Times riporta la testimonianza di tre ufficiali americani e israeliani sull’utilizzo, per localizzare Ibrahim Biari, uno dei comandanti di Hamas ritenuti responsabili dell’attacco del 7 ottobre, di uno strumento di ascolto delle chiamate e di riconoscimento vocale, integrato con tecnologie I.A. e sviluppato dall’Unità 8200[1] in un team che conta anche sulla collaborazione di riservisti impiegati in importanti società del settore. Airwars [2] documenta che, il 31 ottobre 2023, un attacco aereo guidato da queste informazioni ha ucciso Biari e, anche, più di 125 civili.

La precisione apparente dell’IA ha mostrato i suoi limiti etici e umani: la ratio militare si nasconde dietro la presunta precisione chirurgica degli attacchi e oggettività disumanizzata delle identificazioni degli obiettivi, per giustificare un rapporto obiettivo/ danni collaterali che include uccisioni di massa.

GAZA: LABORATORIO MONDIALE DELL’I.A. MILITARE

Israele sembra essere, di fatto, l’unico Paese al mondo ad aver sperimentato l’intelligenza artificiale in un contesto bellico reale, in cui Gaza svolge il ruolo di cavia e il campo di operazioni quello di laboratorio.

L’israeliana Hadas Lorber, fondatrice dell’Institute for Applied Research in Responsible AI, ha ammesso che la crisi israeliano-palestinese innescata il 7 ottobre ha intensificato la collaborazione tra l’Unità 8200 e i riservisti esperti di tecnologie, e accelerato l’innovazione, portando a “tecnologie rivoluzionarie rivelatesi cruciali sul campo di battaglia (di Gaza)”. Ha, però, anche ricordato che l’IA solleva “serie questioni etiche”, ribadendo che “le decisioni finali devono restare in mano umana”.

Ma la retorica non regge l’urto dei fatti:

  • la portavoce dell’esercito israeliano ribadisce l’“uso lecito e responsabile” delle tecnologie, ma – per ragioni di sicurezza nazionale - non può commentare nulla di specifico,
  • il CEO di Startup Nation Central[3], ha confermato il nodo: i riservisti delle big tech sono ingranaggi chiave dell’innovazione militare. Un esercito che da solo non avrebbe mai raggiunto tali capacità ora punta all’invisibilità del dominio algoritmico.
  • le multinazionali della tecnologia dalle cui fila provengono molti artefici degli strumenti israeliani, tacciono o – discretamente - prendono le distanze da quello che sembra essere un tessuto di conflitti e intrecci di interessi tra l’industria bellica e l’innovazione tecnologica che permea il nostro presente e modella il nostro futuro;
  • Silicon Valley, cybersecurity, intelligenza artificiale, piattaforme cloud sembrano essere strumenti di facilitazione e, nello stesso tempo, di controllo di massa mutato in arma[4].

CIBO IN CAMBIO DI IMPRONTE DELLA RÈTINA

Se l’intelligenza artificiale può decidere chi uccidere, può anche decidere chi sopravvive?

La domanda non è più speculativa.

A Gaza l’ultima frontiera è “umanitaria”: l’IA governa la carità. Secondo una recente proposta fatta da Washington in accordo con Israele — rigettata il 15 maggio 2025 dalle Nazioni Unite — per accedere agli aiuti alimentari sarà necessario il riconoscimento facciale.

Il piano, ideato dalla Gaza Humanitarian Foundation (GHF) [5], sembra prevedere la privatizzazione della distribuzione del cibo attraverso contractor statunitensi ed ex agenti dell’intelligence e la creazione di hub biometrici, presidiati da forze armate private, dove il pane si baratta col volto, le razioni e la vita con le impronte digitali e retiniche. Con la giustificazione di evitare infiltrazioni di Hamas, l’accesso agli aiuti sarà regolato da algoritmi e sistemi di riconoscimento facciale.

Dietro l’apparenza umanitaria, la struttura e la governance sembrano rivelare un’operazione affidata ad un attore para-militare che rischia di trasformare il soccorso in un ulteriore strumento di dominio.

Lo scenario è quello di una carità condizionata, tracciata, selettiva: una “umanità filtrata”, dove l’identità digitale rischia di precedere il bisogno, e l’accesso al pane dipendere dall’accettazione della sorveglianza.

Gaza sembra confermarsi come un laboratorio d’avanguardia: non solo per testare armi, ma per sperimentare nuovi modelli di apartheid tecnologico, di ostaggi biometrici, in cui sembra valere il principio che l’aiuto debba essere concesso solo a persone “note per nome e volto”, violando i principi di neutralità umanitaria e trasformando la fame in strumento di controllo identitario.

L’INDIGNAZIONE (SOLITARIA) DELLE ONG

UNICEF, Norwegian Refugee Council e altri attori umanitari hanno denunciato il piano GHF come un ulteriore controllo forzato della popolazione, destinato a produrre nuovi spostamenti, disgregazioni, traumi. È – secondo le ONG che vi si oppongono - il passaggio finale di un processo già in corso: i tagli ai fondi ONU, la delegittimazione dell’UNRWA, che ha giudicato i piani di controllo totale degli aiuti umanitari «una distrazione dalle atrocità compiute e uno spreco di risorse», la sostituzione della diplomazia con le piattaforme, della compassione con l’identificazione biometrica[6].

ETICA E IA: ULTIMA CHIAMATA

Questo intreccio tossico tra business, guerra, aiuti umanitari e sorveglianza apre un precedente pericolosissimo. Non solo per i palestinesi, ma per ogni società che oggi è costretta a negoziare tra sicurezza e diritti fondamentali. Dove la privacy è già fragile, nelle mani di chi governa col terrore tecnologico si riduce a nulla. L’Unione Europea e gli Stati Uniti devono scegliere da che parte stare: restare in silenzio significa legittimare pratiche tecnologiche sterminatrici e diventare complici di un genocidio.

Una volta di più si profila l’occasione per l’Unione Europea di ritagliarsi un ruolo per riportare al centro del dibattito i suoi valori e i principi fondativi, denunciando l’abuso, pretendendo trasparenza sui legami tra eserciti e industrie tech, imponendo una regolamentazione internazionale stringente sull’uso dell’intelligenza artificiale in contesti di guerra[7].

Favorendo, soprattutto, una presa di coscienza collettiva che rimetta al centro la dignità umana e i diritti inalienabili, prima che queste macchine diventino i complici silenziosi e apparentemente oggettivi di dominio e di sterminio.

 

 

 

NOTE

[1] L'Unità 8200 è una unità militare delle forze armate israeliane incaricata dello spionaggio di segnali elettromagnetici (SIGINT, comprendente lo spionaggio di segnali elettronici, ELINT), OSINTdecrittazione di informazioni e codici cifrati e guerra cibernetica. (Wikipedia, Unità 8200)

[2] Airwars è una organizzazione non-profit di trasparenza e di controllo che investiga, traccia, documenta e verifica le segnalazioni di danni ai civili nelle nazioni teatro di confitti armati.

[3] Startup Nation Central è un’azienda israeliana, che si autodefinisce “filantropica”, dedicata a valorizzare «l’unicità dell’ecosistema tecnologico di Israele e le soluzioni che questo offre per affrontare alcune delle sfide più pressanti che si presentano al mondo»

[4] Alberto Negri, giornalista de Il Manifesto, ha definito questo intreccio il “complesso militare-industriale israelo-americano”

[5] Sostenuta dall’amministrazione Trump e dal governo israeliano, la Gaza Humanitarian Foundation (GHF) nasce con l’obiettivo dichiarato di aggirare le agenzie umanitarie delle Nazioni Unite – in particolare l’UNRWA, già delegittimata e accusata da Israele di favorire indirettamente Hamas – per gestire direttamente una delle più vaste operazioni di soccorso nella Striscia: oltre 300 milioni di pasti in 90 giorni. Il piano, ufficialmente bloccato dall’ONU, non è stato archiviato. Anzi, alcuni test pilota sono già in corso nel sud della Striscia.

Fondata nel febbraio 2025, la GHF si presenta come una non-profit, ma la sua composizione solleva più di un sospetto per la presenza di ex ufficiali militari statunitensi, contractor della sicurezza privata e funzionari provenienti dalle ONG. Il piano della GHF prevede la creazione di quattro “Secure Distribution Sites” (SDS) nel sud della Striscia, ognuno destinato a servire 300.000 persone, con l’obiettivo di coprire progressivamente l’intera popolazione di Gaza. Se dovesse assumere il controllo totale della distribuzione, la fondazione arriverebbe a gestire risorse paragonabili – se non superiori – a quelle delle agenzie ONU. Il solo Flash Appeal 2025 prevede un fabbisogno minimo di 4,07 miliardi di dollari, con una stima ideale di 6,6 miliardi.

Il budget iniziale della GHF si aggira attorno ai 390 milioni di dollari, provenienti in larga parte dagli Stati Uniti. Ma sono proprio la mancanza di trasparenza sulle fonti di finanziamento e le criticità operative a sollevare allarmi..

[6] Il modello, del resto, era già stato testato: l’app israeliana Blue Wolf, in Cisgiordania, cataloga da tempo ogni volto palestinese in un enorme database per facilitare i controlli militari. Ora, lo stesso meccanismo si replica a Gaza sotto la forma di “aiuto”.

[7] Invece di promuovere una regolamentazione stringente, l’Unione Europea continua a favorire — direttamente o indirettamente — lo sviluppo di armi basate sull’I.A., collaborando con i fautori dell’innovazione bellica israeliana– e, chissà, di altri Paesi; rapporti del Parlamento Europeo (2024) e analisi di EDRi (European Digital Rights, 2025) mostrano come numerose imprese europee – tra cui startup e colossi del tech – intrattengano rapporti con l’Israel Innovation Authority, l’agenzia governativa che finanzia queste “innovazioni” in nome di una cooperazione tecnologica presentata come neutra, ma che di neutro non ha più nulla.

 


C’era una volta il soggetto? Ibridi, protesi, algoritmi indossabili: tutti i supplementi di un latitante

Il supplemento viene al posto di un cedimento,
di un non-significato o di un non-rappresentato, di una non-presenza.
Non c'è nessun presente prima di esso,
è quindi preceduto solo da se stesso, cioè da un altro supplemento.

Jacques Derrida, Della grammatologia

 

1 MAPPE

Perché è stato Colombo a sbarcare sulle coste americane – e dopo di lui i ben più temibili Cortés e Pizarro – e non una flotta Inca ad attraccare nel porto di Lisbona o di Genova? Franco Farinelli ritiene che la casualità della storia e l’impredicibilità del comportamento degli uomini non possano soddisfare l’urgenza dell’interrogativo, quanto invece può fornire una risposta l’evidenza che è capitato agli europei di realizzare mappe dei mari e delle terre emerse, e non alle popolazioni amerinde. Si può diventare scopritori di continenti e conquistatori di imperi sconosciuti, solo carta alla mano. Non importa nemmeno se il contenuto della rappresentazione geografica sia corretto o meno; senza il diagramma, viene a mancare l’ingrediente che si rivela essere il più banale nella circostanza in cui la scrittura e la proiezione geometrica sono disponibili – il progetto dell’esplorazione, la motivazione alla partenza, il piano di conquista.

Le mappe offrono un contributo indispensabile alla formazione della soggettività dei navigatori, dei conquistatori e degli eroi. Tzvetan Todorov suggerisce però che per plasmare una coscienza come quella di Cortès serva un altro ingrediente tecnologico: la scrittura alfabetica e la sua capacità di «insegnare» la separazione e la connessione tra una catena di significanti e una di significati. Il conquistador infatti legge le operazioni epistemiche degli aztechi, interpreta la visione della realtà di Montezuma, simula attributi e ruoli per manipolare la loro comprensione degli eventi, partendo dalle credenze degli avversari: i segni possono essere separati dal loro referente, possono essere imitati, contraffatti, manomessi a piacimento. Al contrario, gli indigeni appaiono vincolati ad una prospettiva monolitica di percezione del mondo, in cui quello che accade deve essere la ripetizione di qualcosa di già avvenuto, e deriva la sua identità dal passato dei loro miti fondativi. La vittoria degli spagnoli viene conseguita sul piano cognitivo prima ancora che sul campo di battaglia.

2 SCRITTURA ALFABETICA

La scissione tra un piano del significante e uno del significato è la separazione che si è innalzata dalla scrittura alfabetica alla fondazione delle disgiunzioni essenziali della cultura occidentale, come quelle tra interno ed esterno, trascendenza e immanenza, spirito e materia.

In un articolo precedente su Controversie, Edmondo Grassi propone di osservare i dispositivi di wearable technology, gli strumenti che rendono smart le case e le città, e la generazione degli algoritmi che li gestiscono, un sistema o uno sciame di intelligenze che rimodellano la nostra presenza fisica, e soprattutto che ridefiniscono la nostra soggettività. La trasformazione in corso non avrebbe precedenti nella storia dell’umanità, perché non si limiterebbe a potenziare facoltà già esistenti, ma creerebbe nuove dimensioni di coscienza, estranee a quelle implicate nella natura umana. Credo che le considerazioni sviluppate su Colombo e su Cortès impongano di rivedere in modo più prudente queste dichiarazioni. L’entusiasmo per lo sviluppo delle macchine digitali degli ultimi decenni è legittimo, ma rischia di mettere in ombra alcune linee di continuità con la storia delle tecnologie più remote (di cui fanno parte anche il linguaggio e la scrittura), e di alimentare la fede in un fantasma  come quello della natura umana, intesa come una struttura consegnata dall’evoluzione filogenetica ai nostri avi ancestrali, che incarnerebbe la nostra sostanza compiuta e immutabile: dal suo fondo sarebbero derivate le culture e le civiltà, che ne avrebbero potenziato alcuni aspetti, lasciando però intatta la sua essenza fino ai nostri giorni. L’asimmetria tra il dinamismo delle trasfromazioni che abbiamo sotto gli occhi oggi, e la presunta staticità di quello che abbiamo già incorporato e metabolizzato, con la pratica del dialogo e delle lettere, è troppo evidente per non destare qualche sospetto.

La Scuola di Toronto, soprattutto con Harold Innis ed Eric Havelock, ha sottoposto a scrutinio il rapporto tra tecnologie della scrittura e formazione sia della soggettività, sia della struttura politica della società. L’elaborazione greca dell’alfabeto introduce, rispetto alle altre tipologie di grafia, un elemento di forte innovazione: i segni non richiedono un’interpretazione semantica, come accade con i pittogrammi, ma rinviano in modo meccanico ad altri segni, ai suoni delle parole. La loro presenza materiale non si impone allo sguardo pretendendo l’interpretazione di un esperto – scriba o sacerdote – con un esercizio di esegesi specialistica e creativa, ma si spalanca in modo immediato sulla catena dei significati. Il senso emerge alla vista prima ancora del suo rappresentante simbolico: basti pensare a quanta attenzione richiede la revisione editoriale dei testi, e alla facilità con cui gli errori di battitura sfuggono alla rilettura – perché il significato appare all’occhio prima ancora della sua raffigurazione fisica. La scrittura alfabetica schiude lo spazio logico come evidenza percettiva, esibisce la dimensione dell’essere che è sottratta alla contingenza dello spazio e del tempo, che si dilata nell’universalità e nella necessità, e che è la protagonista della filosofia di Platone. Le idee hanno scavato un’interiorità nella vita degli individui, e hanno sostenuto la nascita della comunità scientifica: la verità privata e la verità pubblica, l’articolazione della loro distinzione e della loro unità, sono estensioni impreviste dello sviluppo tecnologico subito dai meccanismi di annotazione del linguaggio.

3 TRACCE

Le procedure di redazione e di lettura nell’Atene del V secolo non somigliavano di sicuro a quelle dei nostri giorni; tuttavia la rivoluzione avviata dalla tecnologia della scrittura nella Grecia antica ha contribuito a configurare la forma stessa della soggettività occidentale, così come ancora oggi la sperimentiamo. Ma anche questo scavo nell’archeologia dei sistemi di produzione documentale non mostra in modo abbastanza radicale il doppio legame che si stringe tra processi di ominazione e tecnologia.

Jacques Derrida e Bernard Stiegler ampliano la nozione di scrittura per includere una serie di fenomeni più varia, il cui valore consiste nel registrare programmi di azioni, che vengono archiviati e resi disponibili da una generazione all’altra. In questo senso anche la scheggiatura della selce, la preparazione di ogni genere di manufatti, permette di conservare le tracce delle operazioni con cui è avvenuta la loro realizzazione, e quelle della loro destinazione. L’innovazione non è una galleria di episodi disparati, ma si dispiega in gruppi tecnici, che dislocano lo stesso principio fisico in diversi contesti: la ruota per esempio sollecita la trasformazione dei mezzi di trasporto, ma decreta anche la nascita del tornio e quella della cisterna. La tecnica, come il linguaggio, sono artificiali, ma non «capricciosi»: l’organicità della realtà costruita contribuisce a elaborare l’ordinamento della ragione, che è sia logos, sia kosmos. Ma questa filogenesi culturale è il sintomo di due processi che sanciscono la differenza, e la distanza, dell’uomo da ogni altra creatura.

Il primo è testimoniato dalle indagini di paleontologia, che provano la collaborazione del fattore biologico e di quello tecnologico nell’evoluzione del sistema nervoso centrale dell’homo sapiens. La lavorazione della pietra e del legno non è stata avviata quando l’evoluzione fisiologica poteva dirsi conclusa, ma ha contribuito allo sviluppo cerebrale, rendendo l’espansione della massa neuronale e la raffinatezza nel trattamento dei materiali, insieme alla la complessità nella collaborazione dei gruppi sociali, due percorsi che si rispecchiano, si modellano e si rappresentano in modo reciproco.

Il secondo tenta una fondazione trascendentale di ciò che l’archeologia espone sul piano dei fatti. Nella ricostruzione del confronto di Leroi Gourhan con la descrizione speculativa che Rousseau schizza dell’uomo originario, Stiegler evidenzia che entrambi gli autori devono supporre un salto tra l’ominide ancora senza linguaggio, e l’essere umano compiuto, con una razionalità in grado di esprimersi in termini di simboli universali. La ragione, la tecnica (e il linguaggio come prima tecnica) compaiono tutti insieme, dal momento che sgorgano dalla stessa istanza capace di individuare l’uomo e distinguerlo da tutti gli altri esseri viventi: la consapevolezza della propria morte, e l’assunzione di tutte le iniziative possibili per dilazionarne l’imminenza. Da questo progetto di differimento scaturiscono la storia e le storie; per questo ogni linguaggio è a suo modo un programma di azione, che deve disporre già sempre di un carattere di ripetibilità e di universalità, e per questo ogni tecnica e ogni linguaggio sono una scrittura che plasma al contempo la realtà esterna e la soggettività del suo esecutore.

Non esiste una natura umana, e nessun ominide che sia identico all’uomo – solo privo di tecnica e di linguaggio, prima del salto che invera il miracolo della cultura. Né esiste un’essenza dell’umanità che preceda e che sia la fonte dei sistemi simbolici e delle procedure operative, che si succedono nelle epoche della storia, e di cui potremmo sbarazzarci o che possiamo implementare, senza esserne modellati nel profondo. La storia e le differenze delle scienze e delle tecniche sono anche il dispiegamento della natura umana nella varietà delle forme e delle identità in cui – soltanto – essa può assumere esistenza concreta.

 

 

BIBLIOGRAFIA

Derrida, Jacques, Della Grammatologia, trad. it. a cura di Gianfranco Dalmasso, Jaka Book, Milano 2020.

Havelock, Eric, Cultura orale e civiltà della scrittura. Da Omero a Platone, trad. it. a cura di Mario Capitella, Laterza, Bari 2019.

Innis, Harold, Imperi e comunicazione, trad. it. di Valentina Lovaglio, Meltemi, Roma 2001.

Farinelli, Franco, Geografia. Un’introduzione ai modelli del mondo, Einaudi, Torino 2003.

Leroi-Gourhan, André, L’uomo e la materia, trad. it. a cura di Franco Zannino, Einaudi, Torino 1977.

Rousseau, Jean-Jacques, Discorso sull’origine della disegueglianza, trad. it a cura di Diego Giordano, Bompiani, Milano 2012.

Stiegler, Bernard, La colpa di Epimeteo. La tecnica e il tempo, trad. it. a cura di Claudio Tarditi, Luiss University Press, Roma 2023.

Todorov, Tzvetan, La conquista dell’America. Il problema dell’Altro, trad. it. a cura di Aldo Serafini, Einaudi, torino 2014.


Coltivare la vita in laboratorio - Come siamo arrivati a intendere la materia vivente come tecnologia

Pensando al lavoro di scienziati o biologi in laboratorio non ci risulta strana la possibilità che questi possano essere impegnati nella coltivazione di cellule o linee cellulari provenienti da vari organismi viventi. Ad esempio, attualmente le cellule che provengono da esseri umani sono ampiamente utilizzate nei laboratori e in programmi di ricerca biomedica, così come rivestono un ruolo centrale nella ricerca farmaceutica. In breve, la possibilità di mantenere in vita cellule e tessuti umani al di fuori del corpo e di usarle come una materia tecnologica è qualcosa che accade di routine, è ritenuto normale e non desta alcun particolare senso di straniamento. Tuttavia, com’è possibile questo? Quando siamo arrivati a pensare la vita al di fuori del corpo come qualcosa di normale e non problematico? E in quale momento la vita e le cellule hanno assunto questa particolare forma tecnologica? Questi sono alcuni degli interrogativi da cui parte anche Hannah Landecker (2007), sociologa e storica della scienza, nel ricostruire la storia della coltura dei tessuti. Tali questioni ci possono aiutare a focalizzare l’attenzione su alcune delle condizioni che hanno permesso la costruzione di infrastruttura in cui è stato possibile standardizzare metodi, tecniche e oggetti sperimentali impiegati nella coltura cellulare.

Un evento da cui iniziare può essere rintracciato nel 1907, quando Ross Harrison, a partire dal tessuto embrionale di una rana, riuscì ad osservare la crescita di una fibra nervosa al di fuori del corpo. In quegli anni era in corso un vivace dibattito scientifico sulla natura e sviluppo delle fibre nervose a cui risultava difficile trovare una soluzione con le tecniche e i metodi sperimentali impiegati. Infatti, gli scienziati si affidavano principalmente a tecniche istologiche, le quali consistevano nell’acquisizione di sezioni del corpo di un animale in diverse fasi nel tempo, per cui era necessario sacrificare vari animali in diversi momenti per osservare degli sviluppi tissutali. I tessuti ottenuti in questo modo erano resi adeguati alla conservazione e all’analisi attraverso sostanze fissative e coloranti, e in questo modo fornivano dei modelli statici di momenti precisi dello sviluppo. Nonostante ciò, con queste tecniche istologiche non era possibile trovare una risposta sostanziale allo sviluppo delle fibre nervose: gli scienziati potevano dare delle interpretazioni opposte dello stesso frammento di tessuto reso in forma statica. Harrison risolse questa controversia cercando di rendere visibile, al di fuori del corpo, il processo di sviluppo di una fibra nervosa mentre avveniva. Partendo da nozioni di coltura dei microrganismi, egli riuscì a realizzare una preparazione a “goccia sospesa” (hanging-drop) che forniva un supporto attraverso della linfa coagulata per far crescere le fibre nervose di rana al di fuori del corpo. In questo modo, Harrison utilizzando delle cellule vive risolse il problema di come gli organismi biologici viventi cambiano nel tempo e rese visibili i processi che erano interni al corpo degli animali. È in questo senso che all’inizio del XX secolo inizia ad emergere la possibilità e l’idea di sperimentazione in vitro e non più solo in vivo.

Qualche anno più tardi Alexis Carrel e il suo assistente Montrose Burrows tentarono di sviluppare le tecniche adottate da Harrison nel tentativo di mantenere in vita le cellule al di fuori del corpo. Carrel e Burrows trasformarono “il metodo di Harrison per la crescita a breve termine di un tessuto embrionale in un metodo generalizzato per la coltivazione di tutti i tipi di tessuto” (Landecker 2007, p.53) e nel 1910 coniarono il termine “coltura tissutale” per riferirsi a questa serie di operazioni. In particolare, Carrel e Burrows cercarono di mantenere in vita le cellule attraverso la creazione di colture secondarie a partire da un frammento di tessuto: spostando una parte delle cellule in un nuovo medium plasmatico si generava una sorta di riattivazione cellulare e queste continuavano a vivere. Tuttavia, con questa tecnica le cellule cessavano di aumentare di massa e diventavano più piccole ad ogni trasferimento, per cui la soluzione tecnica che adottò Carrel fu quella di aggiungere del tessuto embrionale macinato – chiamato “succo embrionale” – per nutrire le cellule. Fu in questo contesto che Carrel affermò la possibilità di poter coltivare delle “cellule immortali”, che potevano vivere in maniera indefinita al di fuori del corpo. Infatti, per Carrel la morte cellulare era un “fenomeno contingente” che poteva essere rimandato attraverso la manipolazione del medium plasmatico e le sostanze in cui era immersa la cellula. Per questa ragione, Carrel brevettò una fiaschetta, nota come “Carrel flask”, che gli permise di coltivare le cellule in modo asettico evitando infezioni e manipolando le sostanze in cui erano immerse le cellule in modo controllato. Tuttavia, va precisato che negli anni ’60 si dimostrò che le uniche cellule che potevano essere tecnicamente immortali erano quelle di origine cancerosa.

È attraverso le pratiche sperimentali di Harrison e Carrel che inizia ad emergere una nuova enfasi sul corpo e sulla possibilità di coltivare delle cellule in vitro. All’inizio del XX secolo non era nuova la possibilità di tenere i tessuti al di fuori del corpo per un po’ di tempo, ma in quel contesto il corpo era concepito come l’elemento essenziale che garantiva la vita delle cellule, le quali non avrebbero potuto sopravvivere al di fuori di esso. Le pratiche sperimentali di Harrison e Carrel segnano un passaggio all’idea che le cellule e i tessuti non solo possono sopravvivere al di fuori del corpo, ma continuano a dividersi, differenziarsi e vivere. In questo senso, inizia ad emergere un senso di possibilità legato al fatto che le cellule possono vivere con una certa autonomia anche se staccate dal corpo.

È tra gli anni ’40 e ’50 con la campagna contro il virus della poliomielite che, attraverso una serie di sforzi infrastrutturali, fu reso possibile l’impiego per la prima volta di tessuti umani su larga scala: in precedenza ciò non era possibile e le cellule venivano coltivate in singoli laboratori senza la possibilità di scambi e trasferimenti. Nella prima metà del XX secolo i virus erano molto difficili da osservare e coltivare: venivano conservati in laboratorio facendoli passare attraverso uova ed animali infetti; ciò era un metodo molto complesso e costoso. Per questa ragione nel 1940 John Enders pensò di utilizzare i metodi di coltura tissutale per osservare lo sviluppo delle infezioni virali. In questo modo, Enders e il suo collega Weller svilupparono un modello cellulare per osservare il lento sviluppo nel tempo del virus della parotite, questo si rivelò poi anche utile per studiare la poliomielite. Pertanto, attraverso la coltura dei tessuti è diventato possibile osservare lo sviluppo delle infezioni virali osservando i cambiamenti cellulari invece che guardare i sintomi che si manifestavano negli animali infetti. In seguito, nel 1954 John Salk attraverso l’impiego di queste tecniche di coltura cellulare riuscì a realizzare un vaccino contro la poliomielite.

Va sottolineato che ciò che Enders e Salk riuscirono a fare va inserito in uno sforzo più ampio della comunità scientifica a partire dagli anni ’40 che ha permesso il miglioramento delle tecniche di coltura tissutale e la loro standardizzazione. In particolare, in quegli anni organizzazioni come la Tissue Culture Association (TCA) e la National Foundation for Infantile Paralysis (NFIP) si impegnarono nel tentativo di standardizzare e rendere disponibile alla comunità scientifica materiali e tecniche per la coltura cellulare: vennero organizzati convegni e in breve tempo diventò possibile acquistare terreni ed estratti con cui far crescere le cellule. Fu anche grazie a questo lavoro coordinato che fu possibile utilizzare la linea cellulare immortale HeLa come materiale standard per il test del vaccino contro la poliomielite in diversi laboratori. HeLa era stata stabilita da George Gey nel 1951 grazie alla biopsia di una massa tumorale prelevata da Henrietta Lacks, la quale si era recata in ospedale per ricevere assistenza e non sapeva come sarebbe stato impiegato il tessuto prelevato (Skloot 2010). Al termine della campagna contro la poliomielite HeLa era ampiamente diffusa nei laboratori e gli scienziati iniziarono ad utilizzarla per gli scopi di ricerca più disparati, generando così un’ampia mole di studi e pubblicazioni. Dunque, se in precedenza era possibile lavorare su oggetti dello stesso tipo – lo stesso tipo di topo o lo stesso tipo di tumore – attraverso HeLa diventò possibile lavorare sulla “stessa cosa” in tempi e luoghi diversi. Pertanto, è in questa cornice che i tessuti umani sono diventati così una base standard e un modello per la ricerca biomedica.

Secondo Landecker questa storia ci racconta di come la biotecnologia dal 1900 ad oggi si associ ai “crescenti tentativi di esplorare e realizzare la plasticità della materia vivente” (Landecker 2007, p. 232). Nello specifico, la plasticità riguarda la capacità della materia vivente di essere modificata dagli esseri umani, la quale continuando a vivere può reagire all’intervento anche in modi inaspettati. Inevitabilmente, in questo racconto la plasticità si associa al tentativo di rendere operativo il tempo biologico attraverso una manipolazione della cellula, del medium e delle sostanze in cui questa è immersa. In breve, questa storia ci può aiutare a comprendere il modo attraverso cui siamo arrivati alla concezione odierna di “vita come tecnologia”; ovvero, la possibilità di utilizzare le cellule come una forma tecnologica per interventi terapeutici, sviluppi farmaceutici e per l’industria alimentare. In secondo luogo, questo resoconto permette di evidenziare alcune delle condizioni attraverso cui è stato possibile costruire un’infrastruttura con cui poter mantenere stabilmente le cellule in laboratorio. Infatti, uno scienziato tende a dare per scontata l’idea che sia possibile coltivare delle cellule in laboratorio proprio perché nel tempo è stata sviluppata un’infrastruttura funzionale, e che per questo motivo tende a risultare “invisibile” (Star 1999). In tal senso, ripercorrere gli sviluppi della coltura tissutale permette di portare alla luce gli aspetti infrastrutturali e tecnici che invece rimarrebbero opachi nello sfondo.

 

 

BIBLIOGRAFIA

Landecker H. (2007). Culturing Life: how cells become technologies. Harvard University Press, Cambridge.

Skloot R. (2010). La vita immortale di Herietta Lacks. Adelphi, Milano.

Star S.L. (1999). The ethnography of infrastructure. American behavioral scientist, 43(3), 377-391.


Gemelli digitali – Tutti i modelli sono sbagliati ma alcuni sono utili

Tutti i modelli sono sbagliati ma alcuni sono utili
(George Box)

 

A dicembre 2024 abbiamo iniziato – con un articolo pubblicato da  A. Saltelli con un largo gruppo di coautori - una riflessione sui modelli matematici e algoritmici che simulano la vita e le dinamiche di interi sistemi ambientali, fino a mettersi alla prova sulle dimensioni dell’intero pianeta. Questi modelli sono noti come gemelli digitali di qualcosa.

Seguiamo qui il percorso di un altro articolo di Saltelli, con Lieke Melsen ed Arnald Puy, uscito di recente su Minerva[1], Digital Twins of the Earth Between Vision and Fiction, per proseguire questa riflessione sui gemelli digitali e – più in generale – sull’uso dei modelli di simulazione nella analisi e nei tentativi di soluzione di problemi ambientali e sociali, e cercare una prima, parziale, conclusione di tipo morale.

La definizione di riferimento per gemello digitale ci viene data da IBM:

Un gemello digitale è una rappresentazione virtuale di un oggetto, o di un sistema, disegnata in modo da rifletterlo accuratamente. Il gemello copre il ciclo di vita dell’oggetto rappresentato, viene aggiornato in tempo reale con dati provenienti dall’oggetto situato nel mondo reale o dall’evoluzione del modello stesso. Per funzionare ed aiutare a prendere decisioni, può fare uso di diversi modelli di simulazione, di machine learning e di intelligenza artificiale. [2]

POSSIBILI ONTOLOGIE DEI GEMELLI DIGITALI

Gli autori dell’articolo su Minerva propongono una serie di interessanti e critiche interpretazioni ontologiche dei gemelli, che possono essere diversamente visti come:

  • Strumenti per vedere un mondo [3] attraverso la lente della sua rappresentazione digitale e, grazie a questa rappresentazione, studiarne le caratteristiche, scoprirne le dinamiche e la realtà (The World in the Model – The World in the Twins). Secondo questo punto di vista, il mondo “viene illuminato” dal modello.
  • Artefatti o forme culturali, secondo la teoria di G. Simmel; i modelli sono una “moda” relativamente recente e possono essere interpretati – in generale - come il prodotto culturale degli anni dello sviluppo delle tecnologie informatiche in cui, di converso, si può rinvenire una geografia delle scienze disegnata dalla popolarità di diversi tipi di modelli in diverse parti del mondo.
  • Oggetti distanti [4] dal mondo che rappresentano e che, tuttavia, ne contendono il posto nella narrazione della comunicazione di massa: il modello assume il ruolo di neo-realtà, abolendo e facendo volatilizzare la realtà che simula.
  • Burocrati senza pensiero e senza responsabilità: un gemello digitale di un ambiente può produrre conoscenza e – di conseguenza – materia su cui basare decisioni in maniera automatica e senza assumersi, in quanto macchina, alcuna responsabilità su quanto produce, sia il risultato delle elaborazioni vero, falso, onesto o distorto.
  • Realizzazioni pratiche del sogno cartesiano di predizione e di controllo umano sulla natura, del realismo metafisico di cui Husserl accusa Galilei: il modello permette – sotto una serie di assiomi semplificativi e riduzionisti – di espandere il concetto di legge di natura ad un intero ambiente.
  • Metafore di come percepiamo il mondo, che esprimono in forma indiretta i nostri punti di vista, preconcetti e opinioni sul mondo e sul problema rappresentati, se non addirittura sulle possibili soluzioni.
  • Strumenti di divinazione, che predicono il futuro ma senza l’uso di magia o di poteri divini, e – in quanto tali – dotati di una elevata autorevolezza.

VALORE EPISTEMOLOGICO DEI GEMELLI DIGITALI

Ci pare che dalla interpretazione ontologica “The World in the Model – The World in the Twins” possa discendere la più calzante visione del ruolo epistemico dei modelli di simulazione e dei gemelli digitali, quella proposta dagli autori di mediatori [5] tra teoria e realtà, e tra realtà e osservatore.

Questo punto di vista – dicono gli autori - funge anche da antidoto contro il rischio di concepire i gemelli e i modelli matematici come “sola matematica” e sposta la discussione dalla categoria di ciò che è vero e ciò che è falso a quella della qualità […] dell’artefatto e dei suoi componenti, su cui il giudizio è messo in relazione al task che deve svolgere.

Tuttavia – nell’adozione di questa visione epistemologica - vanno tenuti in considerazione una serie di elementi potenzialmente critici:

  • Quando definiamo come “matematici” i modelli di simulazione e i gemelli, rischiamo di focalizzarci su una vista parziale della loro natura poiché ben spesso questi includono nozioni teoriche (ricordiamoci come ogni esperimento sia carico di teoria), concetti matematici, tecniche digitali, fatti stilizzati, dati empirici, visioni normative , analogie e metafore. Questa considerazione richiede la consapevolezza che il modello – nel suo ruolo di mediatore – espande notevolmente la dialettica tra teoria e realtà.
  • La complessità – in termini di ipotesi principali ed ausiliarie, teorie principali e “di sfondo”, elementi “non matematici” – dei gemelli digitali e di molti modelli, li espone, secondo la tesi di Duhem-Quine, a grandi difficoltà interpretative degli insuccessi e delle divergenze tra i risultati della simulazione e la realtà osservata: spesso non è possibole comprendere quale parte del modello non stia facendo il suo dovere e se sia necessario “fare il mondo più semplice o il modello più complesso”.
  • L’ontologia di mediatore dei modelli richiede, inoltre, l’accortezza di non sovrapporre il modello con il suo referente, di non dimenticare che il gemello è un modello e non la realtà.

ETICA DELLA COSTRUZIONE E DELL’USO DEI GEMELLI

Le avvertenze e le considerazioni di stampo epistemologico evidenziate dagli autori  (e da molti autori citati nell’  articolo, si vedano per questo gli appunti bibliografici), aprono la porta ad una serie di considerazioni di carattere morale [6], la prima considerazione delle quali – secondo me alla base di tutte le successive - è quella, ironica, di G. Box, tutti i modelli sono sbagliati ma alcuni sono utili. Il focus sull’utilità deve far riflettere, sia chi li costruisce che chi li usa, sul perché sono stati creati, sulle ragioni di chi li commissiona o li finanzia e su chi e come li utilizzerà.

Come conseguenza, gli autori mettono in guardia sulla possibilità che i gemelli possano essere:

  • riduzionisti, che ignorano dimensioni scomode o difficili da rappresentare, inficiando la validità del modello o trascurando istanze morali minoritarie;
  • economicisti, che mettono in primo piano, proprio come valore morale, la dimensione economica [7], trascurando i bisogni non materiali;
  • giustificazionisti, costruiti e adattati con il fine di giustificare delle soluzioni, degli obiettivi o delle politiche - definite a priori o che emergono in corso d’opera
  • decisionisti, mirati a semplificare la realtà in modo tale da permettere ai policy maker di prendere delle decisioni più agevolmente.

Queste distorsioni fanno capo all’obiezione di Niklas Luhmann, per cui «la scienza è spesso chiamata a “risolvere i paradossi” delle decisioni politiche, ossia a farle sembrare il risultato di un processo razionale [basato sull’oggettività dei numeri] invece che il risultato di una negoziazione tra interessi in competizione», oppure – peggio ancora – a privare i cittadini della loro possibilità di azione politica, che viene inclusa nei modelli solo in apparenza.

CONCLUSIONI

La consapevolezza di questi rischi e di queste potenziali distorsioni conducono gli autori a concludere che i gemelli vanno considerati parte del dibattito sulle questioni – ambientali, sociali, energetiche - che sono chiamati a simulare e non i produttori di risposte vere ed autentiche, di interpretazioni scientifiche ed oggettive.

Non è – secondo gli autori– la natura digitale dei modelli e dei gemelli ad essere critica ma il sistema di governance e di ownership da cui sono motivati e in cui sono immersi.

Nella realizzazione e nell’uso, quindi, devono essere tenute in debito conto le due dimensioni, tecnica e normativa, della loro qualità; la dimensione delle istanze morali che li motivano; la dimensione più ampiamente pubblica delle assunzioni e delle conclusioni e delle azioni che suggeriscono.

Ricordando la lezione di Giuseppe Scifo e interpolandola con le indicazioni normative di Funtowicz e Ravetz di cui abbiamo parlato recentemente, viene da suggerire di affidarsi meno ai modelli e ragionare, quando si deve analizzare, su “cosa succederebbe se” per avere supporto nelle decisioni politiche, in termini di scenari, cioè di fasci di modelli che variano al variare delle assunzioni su variabili il cui comportamento non è prevedibile; su gli known unknowns; sulle istanze morali minoritarie.

Programmare le azioni future sulla base di scenari permette di mantenere aperto lo spettro delle possibilità e di non trascurare le reali esigenze delle collettività.

 

 

NOTE

[1] Minerva, A Review of Science, Learning and Policy, Springer Nature, 09 April 2025

[2] Traduzione mia dall’originale: A digital twin is a virtual representation of an object or system designed to reflect a physical object accurately. It spans the object's lifecycle, is updated from real-time data and uses simulation, machine learning and reasoning to help make decisions.

[3] “Il mondo” è il referente del modello, può essere un oggetto o un ambiente, come abbiamo visto sopra

[4] Distanti anche in senso logistico: soprattutto quando si tratta di rappresentazioni del mondo naturale o dell’ambiente, i modellisti operano lontani dall’oggetto rappresentato e questa distanza favorisce la sovrapposizione del modello alla realtà.

[5] Cfr.: Morgan & Morrison (1999)

[6] Come di consueto, preferisco adottare il termine morale, anziché etico, per sottolineare la necessità di chiarire quali siano le istanze di fondo, i principi morali, appunto, su cui si basano le valutazioni, i giudizi e l’azione. È l’azione – basata su principi morali, ad essere etica. Tutte le volte che si parla di etica è – a mio avviso – necessario chiarire (o chiarirsi) quale sia la morale ispiratrice.

[7] La dimensione economica del mondo è, a mio avviso, una istanza morale che non va condannata o trascurata, poiché è quella che permette a tutti noi di mangiare, vestirci e avere una vita soddisfacente. Deve, però, avere questa visione ampia, non esclusivamente mirata allo sviluppo delle aziende.


Perché complicare ci viene più naturale che semplificare - Il bias dell’addizione

In teoria, la semplicità dovrebbe attrarci. Le soluzioni semplici sono meno costose, più eleganti, più facili da implementare. In pratica, ci troviamo costantemente ad aggiungere anziché togliere: funzioni, oggetti, procedure, parole, strutture. Questo comportamento non è soltanto una cattiva abitudine culturale o manageriale. È, in realtà, un tratto sistematico del nostro funzionamento cognitivo.

Uno studio pubblicato su Nature da Gabrielle Adams, Benjamin Converse, Andrew Hales e Leidy Klotz, tutti affiliati a università americane, documenta l’esistenza di un bias dell’addizione (“People systematically overlook subtractive changes”, Nature, 2021). Gli autori hanno condotto una serie di esperimenti in cui ai partecipanti veniva chiesto di migliorare oggetti, testi o situazioni. I risultati sono stati sorprendenti: in assenza di un suggerimento esplicito, i partecipanti tendevano quasi invariabilmente ad aggiungere qualcosa piuttosto che togliere.

Uno degli esperimenti più caratteristici prevedeva la stabilizzazione di una struttura asimmetrica costruita con mattoncini Lego. Ai partecipanti veniva mostrata una piattaforma instabile poggiata su un unico pilastro, come un tavolo con una sola gamba. L’obiettivo era far sì che la piattaforma reggesse un mattone. Ogni pezzo aggiunto costava dieci centesimi, mentre rimuovere era gratuito. La soluzione ottimale – togliere il pilastro sbilenco, lasciando che la piattaforma poggiasse direttamente sul piano sottostante – era semplice ed economicamente vantaggiosa. Ma solo il 41% la sceglieva. Tutti gli altri, aggiungevano mattoncini. Questo comportamento si è ripetuto in contesti anche molto diversi: dalla revisione di testi scritti alla progettazione di schemi architettonici, fino alla risoluzione di problemi astratti. Il pattern è rimasto costante: le persone tendono a trascurare le soluzioni basate sulla sottrazione. È come se la possibilità di togliere fosse invisibile al nostro pensiero spontaneo.

Questo bias potrebbe trovare una spiegazione alla luce di diversi meccanismi cognitivi già noti in letteratura. In primo luogo, si collega a ciò che Kahneman e Tversky hanno descritto come euristiche del giudizio: strategie rapide ma imperfette che utilizziamo per prendere decisioni in condizioni di incertezza. In questo caso, l’aggiunta rappresenta una risposta “di default”, più accessibile nella memoria operativa e più coerente con il desiderio di “fare qualcosa” per risolvere un problema.

In secondo luogo, il bias dell’addizione potrebbe essere interpretato attraverso il concetto di status quo bias (Samuelson & Zeckhauser, 1988). In questo caso le persone tenderebbero a preferire l'opzione che conserva gli elementi esistenti. Rimuovere qualcosa implica una modifica visibile dello stato attuale e può apparire più rischioso, anche quando è la scelta migliore. Inoltre, le decisioni sottrattive – ovvero quelle che comportano la rimozione di un elemento – generano spesso un maggior senso di rimpianto se l’esito non è positivo. Come mostrato da Kahneman e Miller, le azioni che modificano una situazione stabile sono più facilmente soggette a controfattuali (“se solo non avessi tolto quel pezzo...”) e dunque più dolorose da rivivere mentalmente.

Una ulteriore possibile spiegazione cognitiva potrebbe derivare dall’effetto endowment (Thaler, 1980): le persone attribuiscono maggiore valore a ciò che già possiedono. In termini cognitivi, una componente di un oggetto o di una soluzione diventa automaticamente parte dell’insieme “da preservare”, anche quando non ha alcuna funzione utile. La sua rimozione è percepita come una perdita.

Tornando allo studio di Adams e colleghi, un elemento particolarmente interessante è emerso quando i ricercatori hanno introdotto una semplice modifica: ricordare ai partecipanti, prima dell'esercizio, che anche la rimozione di elementi era una possibilità. Con questa minima manipolazione, il numero di soluzioni sottrattive è aumentato significativamente.

Questo suggerisce che il bias non dipende da un errore di valutazione – le persone, una volta rese consapevoli, riconoscono i benefici della sottrazione – ma da un difetto nel processo generativo delle soluzioni. È una cecità progettuale, una sorta di buco nell’immaginazione. E la cosa affascinante è che riguarda anche contesti “alti”: la burocrazia istituzionale, le politiche ambientali, i processi decisionali pubblici. La complessità, anche quando è inutile, ha un’aria rassicurante. Ma è spesso un inganno cognitivo, un’abitudine mentale più che una necessità razionale.

Lo sanno meglio di tutti i designer. Studi in questo ambito (Norman, 2002; Maier & Fadel, 2009) indicano come i designer inesperti preferiscano sempre “caricare” un progetto con nuove funzioni piuttosto che eliminare ridondanze.

Le implicazioni di questa distorsione non dovrebbero essere sottovalutate. Nei processi decisionali, nei modelli organizzativi, nella comunicazione pubblica, nella progettazione tecnologica, nella governance istituzionale, siamo costantemente portati a complicare le soluzioni. Ogni elemento aggiunto – che si tratti di una regola, un modulo, una funzione, un vincolo – sembra rassicurante. Ma ha un costo nascosto: aumenta la complessità, rallenta i processi, rende tutto meno adattabile e resiliente.

Essere consapevoli del bias dell’addizione non è sufficiente per evitarlo. Come per molte altre distorsioni cognitive, la consapevolezza è una condizione necessaria ma non sufficiente. Servono promemoria, checklist, strumenti di valutazione che mettano sistematicamente sotto i riflettori la possibilità di togliere, semplificare, ridurre.

La nostra mente non sembra fatta per sottrarre. Ma possiamo allenarla a vederne il valore. Come ci ricorda Dieter Rams, uno dei maestri del design minimalista, Good design is as little design as possible.

Oggi sappiamo che vale anche per il pensiero creativo. Anche questo articolo, probabilmente, sarebbe stato migliore, se avessi tagliato qualcosa.

 

 

BIBLIOGRAFIA

Adams, Gabrielle, Benjamin A. Converse, Andrew Hales, and Leidy Klotz. “People Systematically Overlook Subtractive Changes.” Nature, vol. 592, no. 7853, 2021, pp. 258–261.

Kahneman, Daniel, and Amos Tversky. “Choices, Values, and Frames.” American Psychologist, vol. 39, no. 4, 1984, pp. 341–350.

Kahneman, Daniel, and Dale T. Miller. “Norm Theory: Comparing Reality to Its Alternatives.” Psychological Review, vol. 93, no. 2, 1986, pp. 136–153.

Lovell, Sophie. Dieter Rams: As Little Design as Possible. Foreword by Jonathan Ive, Phaidon, 2024.

Maier, Jennifer R., and Georges M. Fadel. “Affordance-Based Design Methods for Innovative Design.” Design Studies, vol. 30, no. 4, 2009, pp. 383–410.

Motterlini, Matteo. Trappole mentali: Come difendersi dalle proprie illusioni e dagli inganni altrui. Rizzoli, 2008.

Norman, Donald A. Il design delle cose di tutti i giorni. Translated by R. Boggiani, Giunti, 2002.

Samuelson, William, and Richard Zeckhauser. “Status Quo Bias in Decision Making.” Journal of Risk and Uncertainty, vol. 1, no. 1, 1988, pp. 7–59.

Thaler, Richard H. “Toward a Positive Theory of Consumer Choice.” Journal of Economic Behavior and Organization, vol. 1, no. 1, 1980, pp. 39–60.


Stand by me, LucrezIA - Ovvero, l’università resa superflua da sé medesima

L’industria digitale ha ormai da tempo colonizzato completamente il mondo dell’educazione e della formazione in tutte le sue componenti, dalle scuole elementari all’università, senza peraltro conseguire gli effetti migliorativi a suo tempo promessi.[1] Da ultimo, questo fenomeno si manifesta, in particolare, sotto forma di onnipresenza della intelligenza artificiale, che sempre più si configura non solo come un insieme di applicazioni e servizi più o meno utili, ma anche come il must-have della stagione, per dirla con il linguaggio della moda. Non c’è azienda, amministrazione pubblica, giornale, apparato poliziesco, militare o governativo, giù giù fino all’ultima gelateria e bocciofila, che non ritengano proprio dovere affidarsi ai fantasmagorici servigi dell’IA (se poi ci si accorge che i vantaggi sono scarsi o nulli, fa niente: è un Dovere, una Fede, forse anche un Mistero… “E chi siamo noi per rifiutarla”?).

Il mondo dell’educazione e dell’università, per certi aspetti, guidano questa Marcia Gloriosa del Progresso. È del resto recente l’ultima profezia dell’immarcescibile Bill Gates (peraltro già sentita giusto un migliaio di volte) sulla prossima estinzione di medici e insegnanti: «in futuro gli esseri umani non saranno più necessari per la maggior parte delle cose, oltre ai medici si potranno rivoluzionare metodologie didattiche e il ruolo stesso dell’insegnante; sistemi basati sull’intelligenza artificiale possono fungere da tutor personalizzati».[2]

A che punto sono arrivate le cose si può vedere chiaramente da una notizia che ho scovato in un oscuro (ma sempre ben informato e curioso) quotidiano economico italiano, di cui mi sembra opportuno dare conto su “Controversie” (Carlo Valentini, L’ateneo che ha sposato l’IA, “Italia Oggi”, 5 febbraio 2025, p. 6). Si tratta dell’Università di Padova e della sua scelta di dotarsi di un proprio sistema di IA capace di coprire grande parte dell’attività amministrativa, di informazione ma anche didattica dell’ateneo.

Presentato (togliattianamente) come «la via italiana all’intelligenza artificiale», pare che questo sistema sia uno dei più avanzati d’Europa in ambito accademico. Il suo nome è LucrezIA, in omaggio a Lucrezia Corner Piscopo che, laureatasi (in Filosofia) a Padova nel 1678, può essere considerata la prima donna laureata del mondo.

1. LE FUNZIONI DI LUCREZIA

LucrezIA consente all’utente di ottenere tutti i documenti prodotti dall’Università di Padova, tutti i servizi offerti dall’ateneo, ma soprattutto – ed è quello che qui interessa – è a disposizione per le attività didattiche; anzi, ne è caldamente consigliato l’uso. Leggiamo, infatti, che gli studenti «possono avvalersi di ChatUniPd anche per elaborare la tesi di laurea, pur se con qualche cautela».

Capito? Son passati i tempi in cui uno si iscriveva all’università e concludeva il proprio percorso di studi preparando una dissertazione detta tesi di laurea: adesso la tesi se la fa fare dall’IA. Certo, però, «con qualche cautela». Ma come? Non siamo, ormai da tempo, nelle scuole come nelle università, alle prese con eserciti di giovani che scopiazzano dalla rete, tanto che sono stati inventati addirittura dei ridicoli “software antiplagio”? Non ci si lamenta, da tempo, che in ogni caso contrastare questa tendenza è una battaglia assai ardua, data la onnipervasività dell’informazione online? Che fare, allora? Ma certo! Invitare direttamente gli studenti a usare l’IA per realizzare la propria tesi… Come abbiam fatto a non pensarci prima!

E allora, di grazia, cosa vogliamo da questi nostri figli? Vogliamo che copino mettendo da parte il cervello, perché ormai la cultura è questo rifriggere cose rifritte (con tanti saluti per ogni guizzo di pensiero critico e autonomo – forse il vero obiettivo strategico del Potere attuale), oppure vogliamo che ancora pensino e studino in proprio? E che messaggio mandiamo, allorché gli facciamo sapere che devono fare la tesi con LucrezIA, però – sia ben chiaro – con «qualche cautela»?

Sapete a cosa mi fa pensare tutto questo? Mi fa pensare alla teoria del doppio legame [double bind] di Gregory Bateson.[3] Ricordiamola brevemente.

Secondo l’antropologo, psichiatra e zoologo britannico (1904-1980), patologie psichiche come la schizofrenia sarebbero causate da forme di comunicazione ambivalente interne alla famiglia, in particolare nella relazione del bambino con membri significativi, tipicamente con la madre (ma non solo). Posto, per esempio, in una situazione in cui la mamma gli chiede di abbracciarlo ma in realtà gli fa capire con il linguaggio del corpo o con altre forme di meta comunicazione che non ne ha alcuna voglia, il bambino vivrà una situazione senza uscita: non potrà riconoscere una mancanza di affetto da parte di una figura per lui vitalmente importante, ma neanche accogliere il messaggio “dichiarato”. Con effetti, a parere di Bateson, altamente dannosi sul piano psicologico.

In modo forse non molto dissimile, la comunicazione disfunzionale del capitalismo tecno-nichilista attuale comunica allo studente una doppia ingiunzione contraddittoria:

(1) usa gli strumenti dell’IA per produrre in forma automatica la “tesi di laurea”, così da essere pienamente un abitatore del tempo presente;

(2) ma anche cerca di essere un bravo studente, autonomo, originale, che controlla e verifica le fonti, uno studente “come ai vecchi tempi”, potremmo dire.

Il potere oggi vigente non può e non vuole vietare o anche solo limitare una tecnologia, fosse pure totalmente distruttiva,[4] ma non è neanche ancora pronto a liquidare apertamente i vecchi cascami della Cultura come appunto l’università europea (ci tiene forse ancora, a scopo ornamentale, come un tempo molte famiglie borghesi tenevano le librerie rifornite di volumi elegantemente rilegati all’unico scopo di esibirne i dorsi dietro le vetrine ben chiuse…). Di qui il messaggio ambivalente.

Ai ragazzi di oggi, incolpevoli destinatari di questa comunicazione patogena, la mia piena solidarietà, non disgiunta dall’invito alla rivolta.

2. ABOLIRE LE UNIVERSITÀ?

Continuiamo comunque nella lettura dell’articolo. Apprendiamo anche che grazie a LucrezIA «si è potuto realizzare un intero libro», di ben 241 pagine, intitolato Dialoghi con il futuro sulle future trasformazioni indotte nella società dai sistemi di intelligenza artificiale. E non solo. Per iniziativa di un docente dell’Università di Padova esperto di tecnologie digitali,

«è stato chiesto all’IA come Marx avrebbe commentato l’avvento dell’intelligenza artificiale. Questa è stata la risposta: “Se fossi Karl Marx, potrei considerarne l’avvento da una prospettiva critica. Marx era un teorico sociale ed economico noto per la sua analisi critica del capitalismo, e probabilmente esaminerebbe come queste nuove tecnologie influenzano le dinamiche di potere e le relazioni di produzione. (…) Marx potrebbe esplorare come la proprietà e il controllo dei mezzi di produzione delle informazioni influenzano la struttura sociale ed economica. Inoltre potrei considerare come l’automazione e l’intelligenza artificiale impattano sul lavoro umano. Marx si sarebbe interessato alle implicazioni per la classe lavoratrice e a come la tecnologia può essere utilizzata per migliorare o minacciare il benessere delle persone”. Commenta Nicola Bruno: “Da questo esempio emerge come l’IA possa essere usata con una prospettiva fuori dagli schemi. Collegando il pensiero di Marx alle tecnologie contemporanee un docente potrebbe trarre spunto dalla risposta dell’IA per spiegare la filosofia di Marx calandola nell’attualità”».

Sì, senz’altro, Marx potrebbe dire queste e simili cose sull’introduzione dell’intelligenza artificiale. Sicuramente, poi, un docente universitario potrebbe «trarre spunto» da quanto gli ha detto LucrezIA per fare una lezione o due su Marx…. Ma – mi chiedo e chiedo ai lettori – queste cose non potrebbe anche pensarle un docente a ciò deputato e a questo fine retribuito dall’università stessa, senza alcun bisogno di… interpellare l’IA? Non potrebbe un docente dell’università stessa, forte di un suo percorso di studi in filosofia o sociologia o economia che immaginiamo gli abbia fruttato il posto che occupa, scrivere un saggetto di quel genere, o organizzare una lezione o un corso, «calando nell’attualità» il pensiero di Marx? Non potrebbe, secondo la humboldtiana concezione dell’università di cui in Europa un tempo mi pare ci vantassimo, preoccuparsi di trasmettere il suo sapere e i risultati delle sue ricerche agli studenti che hanno la ventura di frequentare l’università (cacciando, peraltro, un po’ di soldini) e che coronano infine il loro percorso di studio appunto con la redazione di un saggio? Non era proprio questo, almeno fino a qualche annetto fa, il fine delle nostre università? Ma, allora, perché non abolirle proprio?

 

Poscritto – Al momento di chiudere questo articolo, apprendo che all’Università di Cassino si è tenuta la prima discussione di laurea sostenuta da un… avatar digitale. Durante l’esposizione – ci informa “Il Messaggero” – la candidata si è limitata «ad assistere la sua rappresentazione AI», da lei debitamente istruita e “allenata” con i contenuti della sua ricerca.

Dopo gli operai, anche gli studenti sempre più «appendici umane» (di marxiana memoria) del sistema di macchine?

 

NOTE

[1] Di «politiche forsennate della digitalizzazione del sistema scolastico, dall’asilo fino all’università» parla Michel Desmurget (Il cretino digitale, Milano, Rizzoli, 2020, p. 237), che porta molti dati sulle recenti ricerche (PISA ecc.) in base alle quali emerge che digitale e buoni risultati scolastici non sono affatto direttamente proporzionali (cfr. p. 237 e seg.). Per un bilancio critico equilibrato sulla questione dell’invasione tecnologica negli ambienti scolastici, si veda Marco Gui, Il digitale a scuola. Rivoluzione o abbaglio?, Bologna, Il Mulino, 2019. Da notare che considerazioni critiche filtrano anche in testi decisamente apologetici come, per esempio, Luca Tremolada, La lezione è finita, Milano, Il Sole 24 Ore, 2024.

[2] Cfr. Bill Gates: l’intelligenza artificiale sostituirà medici e insegnanti entro 10 anni, “com.unica”, 2  aprile 2025, https://www.agenziacomunica.net/2025/04/02/bill-gates-lintelligenza-artificiale-sostituira-medici-e-insegnanti-entro-10-anni/  e Paolo Del Debbio, Gates tifa l’intelligenza artificiale per rimpiazzare dottori e docenti, “La verità”, 3 aprile 2025, p. 15.

[3] Cfr. Gregory Bateson, Verso una teoria della schizofrenia (1956), in Id., Verso un’ecologia della mente, Milano, Adelphi,1976, p. 244-274. L’idea di applicare questo concetto di Bateson al linguaggio della comunicazione tipico delle società capitalistiche avanzate è in Nello Barile, La mentalità neototalitaria, Milano, Apogeo, 2008. In effetti, il discorso pubblico neoliberale è ricco di queste ingiunzioni contraddittorie: pensiamo al campo del lavoro, nel quale da un lato viene mantenuta la retorica (per così dire “weberiana”) della professionalità, del lavoro e  dell’impegno (lo abbiamo visto di recente in Italia, quando si voleva demonizzare il reddito di cittadinanza!), ma dall’altro l’estrema precarietà estrema, i bassi salari, i miti della società liquida, nonché la continua evocazione della robotizzazione imminente spingono i lavoratori a perdere qualunque tipo di attaccamento al lavoro (cfr. Francesca Coin, Le grandi dimissioni, Torino, Einaudi, 2023).

[4] «VIETATO VIETARE, la legge fondamentale del progresso tecnoscientifico è diventata dunque l’unica legge di un mondialismo senza legge?» si chiedeva retoricamente Paul Virilio in L’incidente del futuro, Milano, Cortina, 2002, p. 32.


Le sfide della scienza post-normale - Come costruire comunità estese di pari

La scienza post-normale (PNS) di cui parliamo in questa serie di articoli (ad esempio nel nostro precedente intervento) non descrive solo la condizione moderna che attraversa la scienza nella sua relazione con la politica e la società, ma ambisce a fornire pratiche utili per affrontare le situazioni conflittuali che spesso emergono in contesti di crisi ambientali e sanitarie.

Quando «i fatti sono incerti, i valori in contrasto e la posta in gioco elevata», secondo la PNS, le decisioni di policy non possono basarsi solo su fatti tecnici e scientifici. Serve, invece, il contributo di una «comunità estesa di pari» fatta da scienziati e scienziate portatrici di prospettive minoritarie, persone esperte di altri settori rilevanti, cittadini e cittadine che possono contribuire con conoscenze locali non riconosciute dalla scienza “normale”: serve, cioè, una comunità fatta da tutte le persone portatrici degli interessi in gioco.

GLI OSTACOLI ALLA COSTRUZIONE DI COMUNITÀ DI PARI (E COME RIMUOVERLI)

Nonostante moltissime delle sfide globali di oggi si configurino come propriamente post-normali, l’idea di costruire una comunità estesa di pari si scontra sia sul piano metodologico che su quello simbolico, con uno dei fondamenti ideologici della scienza moderna: l’idea che la produzione di fatti scientifici sia frutto del pensiero collettivo di una comunità omogenea di soli esperti. Per far spazio ai nuovi ruoli della scienza nei contesti pubblici, è fondamentale, pertanto, decostruire queste narrazioni.

Il pensiero femminista, che a lungo si è interrogato sull’esclusione delle donne dalla scienza, può offrire strumenti critici per osservare e comprendere gli ostacoli al riconoscimento delle comunità estese nei contesti PNS, contribuendo a ripensare il ruolo di persone esperte e non esperte nella produzione di conoscenza. Le studiose femministe sono state tra le prime a mettere in discussione la presunta oggettività della conoscenza scientifica e l’illusoria separazione tra fatti e valori, insite in tale visione della scienza. Come ricordano Eleonora Severini, Elena Gagliasso e Cristina Mangia nel volume che abbiamo curato[1], con l’epistemologia dei punti vista, queste pensatrici propongono un’idea di scienza come traguardo sociale da perseguire collettivamente per arrivare a costruire una “oggettività forte”.

L’attitudine al dialogo inter e transdisciplinare, necessaria per creare comunità di pari, non è incentivata neanche nei percorsi formativi di ricerca. Nella cultura scientifica contemporanea si tramanda spesso un’idea gerarchica tra scienza e altri saperi, che stabilisce la rilevanza dei problemi, gli attori e le conoscenze che possono (o non possono) contribuire alla loro definizione e soluzione. In questo rapporto asimmetrico tra i saperi, ai poli opposti si trovano spesso scienza e arte, considerate sfere culturali separate: rappresentazione oggettiva della realtà, strumento privilegiato per conoscere e agire nel mondo, la prima; espressione della soggettività e delle emozioni, puro veicolo del bello, la seconda. Nel progetto di ricerca presentato da Rita Giuffredi nello stesso volume, è proposto un percorso transdisciplinare che mira a far emergere queste narrazioni. A partire da un caso di studio complesso, la fertilità del suolo, un gruppo di giovani ricercatrici e ricercatori italiani è stato coinvolto in un’azione di scavo collettivo, proposta come metodologia di indagine estetica che investiga le identità dei partecipanti, le connessioni tra i diversi sistemi di conoscenza, i confini (spesso veri e propri muri) che definiscono e legittimano le discipline diverse forme di conoscenza. Il percorso ha permesso di mettere a confronto, immaginare e costruire nuove visioni e relazioni tra scienza, società, ecosistemi e attori umani e non umani, e può costituire una traccia da seguire in questo contesto.

NUOVI RUOLI ANCHE PER LA CITTADINANZA NEGLI SCENARI PNS

La comunità di pari non implica solo nuovi ruoli per chi si occupa di ricerca scientifica, ma anche per la cittadinanza che oggi - in una società dove il sapere non si genera solo nelle accademie e nelle istituzioni di ricerca - diventa parte attiva nella produzione di conoscenza, dilatando la stessa nozione di comunità estesa di pari. È quanto è accaduto durante la pandemia da Covid, dove i comportamenti individuali e collettivi si sono rivelati cruciali per affrontare l’emergenza. Le persone, spiega Mariachiara Tallacchini nello stesso volume, hanno ricevuto una doppia delega, cognitiva e normativa: da un lato, il compito di comprendere e contestualizzare le informazioni scientifiche alla base delle proprie scelte; dall’altro, la responsabilità di aderire con fiducia alle direttive istituzionali che si sono succedute in quei momenti drammatici.

Le potenzialità di questa configurazione partecipativa per uno sviluppo democratico e responsabile del rapporto istituzioni-esperti-società sono enormi, ma ancora largamente sottovalutate. È necessario il riconoscimento delle “capacità epistemiche” diffuse nella cittadinanza e l’attivazione di nuove pratiche di apprendimento, individuale e collettivo. Solo in questo modo sarà possibile fronteggiare con adeguata preparazione (preparedness) le sempre più frequenti situazioni di incertezza in cui ci troviamo ad operare.

COSTRUIRE COMUNITÀ DI PRATICHE

Nello stesso volume cui ci riferiamo in questo post, il tema della comunità estese di pari è esplorato anche nel suo farsi pratica di ricerca collaborativa, inter, multi e transdisciplinare. Anna Scolobig, ad esempio, presenta alcune riflessioni su un processo partecipato finalizzato all’elaborazione di un piano di mitigazione del rischio da frana per la città di Nocera Inferiore in Campania. Attraverso il confronto tra le diversità disciplinari del personale di ricerca coinvolto, - dalla geotecnica alla sociologia – e il coinvolgimento di soggettività locali (residenti, imprese, amministrazioni) - sono state identificate priorità comuni che hanno portato alla definizione di un piano di mitigazione condiviso, poi implementato con interventi di ingegneria naturalistica, che dura tuttora.

 

NOTE

[1] L’Astorina, A. & Mangia, C. (eds). (2022). Scienza, politica e società: l’approccio post-normale in teoria e nelle pratiche. SCIENZIATI IN AFFANNO? (Vol. 1): pp.296. Cnr Edizioni. https://doi.org/10.26324/SIA1.PNS


Intelligenza artificiale e creatività – Quarta parte: stili e strategie

Su Controversie, qualche mese fa abbiamo aperto un'interessante quanto feconda discussione, che verte sul rapporto tra I.A. e arte (oppure, tra intelligenza artificiale e intelligenza umana durante il processo artistico).

Abbiamo declinato questo tema secondo diversi percorsi di riflessione e svariati argomenti quali la creatività, l’essenza dell’artista, il futuro della stessa pratica artistica o, infine, l’I.A. come inciampo nella storia dell’arte

Insomma, il dibattito che abbiamo avviato nelle scorse settimane ha aperto numerose ramificazioni e possibilità argomentative, grazie ai contributi sia di membri della Redazione di Controversie, sia di autori ospiti. Tra i secondi, lo scorso dicembre abbiamo pubblicato le impressioni di Aleksander Velišček, artista visivo che lavora anche con l’I.A. Nel suo intervento, Aleksander scrive che l’artista umano svolge un ruolo fondamentale nella creazione di un’opera con questa tecnologia, affermando inoltre che «l’I.A. è sicuramente uno Strumento, sempre più potente e innovativo, ma non sostituisce l’immaginazione e il giudizio umano».

I nostri ragionamenti ripartono proprio da intuizioni simili; infatti, il nostro viaggio riprende da questa domanda: nell'epoca dell'I.A., qual è il destino dello stile? Di fronte a uno strumento che potenzialmente può copiare qualunque stile, la mano dell'artista scompare oppure si innova?

Lascio dunque la parola ad Aleksander.

ALEKSANDER: Da pittore e grande amante della storia dell’arte in questo scenario, diventa quasi "ingenuo" pensare che un artista possa ancora essere autore di uno stile unico. Oggi, più che mai, è un trasformista estetico consapevole, che attraversa “stili” con lucidità e intenzione. Lo stile non è più una firma permanente, ma una scelta strategica, funzionale all’idea o al messaggio di ciascun progetto. Il concetto di coerenza evolve: ciò che tiene insieme una produzione non è più la ripetizione stilistica formale, ma la forza del pensiero critico, la visione che attraversa le opere.

A questo punto cito una riflessione di Magnus Carlsen, ex campione del mondo di scacchi, ormai diventata quasi una citazione classica. Secondo lui, non ha più senso sfidare un computer: “Non posso batterlo, quindi non lo considero più un avversario”. La vera svolta però non sta nella resa, ma nel cambio di prospettiva: e se l’AI, invece di essere un nemico da superare, diventasse un compagno di gioco?   

Cosa succede, allora, se la pittura non è più legata a uno stile personale ma a una logica relazionale, situazionale, processuale? Il destino dello stile potrebbe non essere la scomparsa, ma il suo smembramento. Diventa instabile, mobile, diffuso. Non più segno di una coerenza autoriale, ma frammento di una conversazione continua tra intelligenza "umana" e intelligenza "artificiale".

 

Studi preliminari a olio su carta, misure variabili - esempio del processo di collaborazione tra me e il mio collega ChatGPT per ricreare un finto dipinto di Peter Paul Rubens a tema Bacco.

 

 

 

 

 

 

 

 

 

 

 

 

 


Algoritmo di Prometeo - Oltre la malinconia: se non ci sono alternative, inventiamole

«I miti sono storie che raccontano il nostro passato, ma anche ciò che siamo destinati a diventare»
(Carl Gustav Jung)

 

In risposta a “Algoritmo di Prometeo o civiltà della depressione?

1. UOMO E TECNICA: OLTRE LA MASCHERA, IL SISTEMA

Negli ultimi anni, il dibattito sull’intelligenza artificiale si è nutrito di immagini potenti, figure archetipiche, richiami a un inconscio collettivo tecnologico che sembra voler sfuggire a ogni presa razionale. È in questo paesaggio mentale che si inserisce l’articolo di Paolo Bottazzini, “Algoritmo di Prometeo o civiltà della depressione?”, che prende spunto dal mio precedente contributo per sviluppare un ragionamento ampio, colto, sfumato, sul legame tra tecnica, immaginario e malinconia. Un invito stimolante, soprattutto in tempi in cui il pensiero sembra costretto a scegliere tra apologia e condanna.

Ma è proprio questa eleganza evocativa, questo procedere per affinità elettive e richiami simbolici, che rischia – talvolta – di smarrire il punto. Perché se è vero che l’IA incarna ormai un pantheon di miti – da Prometeo a Frankenstein, da HAL9000 al replicante – è altrettanto vero che, oggi, l’algoritmo ha smesso di essere solo metafora: è diventato infrastruttura. E, in alcuni casi, arma. Una tecnologia che decide della vita e della morte degli esseri umani, con margini d’errore già normalizzati nel lessico bellico.

È da questo slittamento – dalla metafisica all'infrastruttura, dall’allegoria al codice operativo – che desidero ripartire, per intrecciare un contrappunto. Un dialogo che, attraversando le stesse stazioni toccate da Paolo Bottazzini, rivolga lo sguardo verso ciò che mi sembra resti fuori campo: l’uso politico e militare dell’IA, il suo radicamento nei dispositivi di dominio e controllo, e la necessità urgente di nominarla per ciò che è. Non per contraddire, ma per completare. Non per negare la forza dei miti, ma per riportare al centro ciò che i miti, a volte, rischiano di oscurare: la macchina che uccide, integrata nel cuore pulsante dell’infrastruttura occidentale.

2. INTELLIGENZA E TECNICA: UNA CO-EVOLUZIONE PERICOLOSA

Lungi dal voler negare l’intreccio tra umano e tecnica, ritengo che oggi non basti più evocare l’archetipo prometeico per leggere le trasformazioni in corso. L’idea di “co-evoluzione” tra essere umano e tecnologia, infatti, rischia di suggerire una simmetria che non esiste più. Se un tempo la tecnica poteva essere pensata come estensione simbiotica dell’umano, oggi siamo di fronte a un cambio di paradigma. La simmetria si è spezzata.

L’algoritmo non è più un semplice strumento di potenziamento cognitivo o produttivo. È diventato una griglia di interpretazione e decisione, un codice prescrittivo che informa il reale e lo trasforma. E proprio qui si apre la frattura: la tecnica non evolve con noi, ma spesso al posto nostro. Sostituisce processi, automatizza conflitti, cancella zone grigie. Non c’è più solo il sogno della macchina che ci supera: c’è la realtà della macchina che decide – e troppo spesso, giustifica.

È in questo orizzonte che ho scelto di evocare Prometeo, ma non quello pacificato, integrato nel racconto dell'evoluzione co-tecnica dell'umano. Il mio Prometeo è un archetipo perturbante, più vicino al rimosso freudiano che al fondamento antropologico. Se la tecnica è ciò che ci rende umani — impalcatura del gesto, della parola e del pensiero — nel mio sguardo è ciò che oggi rischia di renderci post-umani o addirittura disumani. Atto di emancipazione e condanna insieme, l’archetipo bifronte di Prometeo ci consegna a una soglia: quella in cui il dono si rivela maledizione, e il fuoco che ci ha illuminati diventa combustione che ci sfugge di mano.

Non si tratta più di pensare con la tecnica, ma di pensare contro la sua pretesa neutralità. Ed è qui che si apre lo spazio del conflitto: non tra uomo e macchina, ma tra uso politico della tecnologia e possibilità di riconoscere ciò che essa nasconde.

3. PIGMALIONE E IL GOLEM: MITI ANTICHI, PERICOLI MODERNI

L’analisi dei miti di Pigmalione e del Golem apre una riflessione sulla relazione ambigua tra creatore e creatura, una dinamica che, nell'era dell'intelligenza artificiale, ha ormai superato la soglia del simbolico. L'oggetto plasmato non è più una figura allegorica, bensì un agente che agisce nel mondo, con una sua autonoma capacità di influenzare il reale.

Il mito di Pigmalione, in particolare, si reincarna nei secoli, fino alla celebre commedia di George Bernard Shaw, Pygmalion (1913), dove il professor Higgins “addestra” Eliza Doolittle affinché parli e si comporti come una dama, modificando la sua identità attraverso la lingua. Questo atto, che si presenta come una semplice operazione di educazione o raffinamento, è in realtà profondamente violento: Eliza viene trasformata per aderire a uno standard culturale e sociale imposto da altri, subendo una coercizione che, pur raffinata, non lascia spazio alla sua autonomia. Un gesto che oggi riecheggia nel modo in cui le intelligenze artificiali vengono addestrate: si scelgono i dati, si definiscono le regole, si plasma il comportamento linguistico dell’algoritmo affinché risponda a un modello normativo.

Nel mio articolo Cloud di guerra, ho mostrato come questa “simulazione intelligente” — l’IA — venga addestrata per colpire corpi reali, delegando alla statistica la responsabilità di azioni devastanti come quelle in corso da oltre un anno e mezzo a Gaza. In questo senso, l’IA non è più Galatea che prende vita, né Golem che protegge, ma diventa un'arma di sterminio, un’entità che agisce con uno scopo ben preciso: la distruzione totale degli esseri umani così come dei territori.

Anche il Golem, però, è vivo e lotta, e si può dire che oggi lo vediamo muoversi in alcuni palazzi del potere. Nel discorso politico di alcuni leader israeliani il riferimento non è esplicito, ma la dinamica è la stessa: invocare una creatura primordiale nata per difendere un popolo da attacchi esterni, una macchina identitaria che giustifica qualsiasi azione, anche la più disumana, in nome della sopravvivenza. Il Golem che oggi prende forma nei bombardamenti su Gaza non è fatto d’argilla, ma di algoritmi, codici e fuoco, ed è caricato di uno scopo: proteggere Israele distruggendo l’altro.

Una declinazione che, tuttavia, tradisce la natura più antica e profonda del Golem, come ci ricorda la studiosa israeliana Hora Aboav. Nella parola Golèm (גֹלֶם,) risuona una dimensione trasformativa: il Golem non è solo una creatura da temere o controllare, ma è un simbolo della metamorfosi possibile. La lettera ג (Ghìmel), da cui prende vita il termine, è un ponte: conduce fuori dall’utero domestico, introduce il deserto dell’esistenza, accompagna verso la consapevolezza di sé. Il Golem rappresenta dunque una forma primordiale destinata a maturare, un bozzolo che si prepara a diventare farfalla.

Oggi, invece, il Golem è di nuovo invocato come pretesto per evitare la trasformazione, per rimanere incistati nella paura, nell’identità rigida, nella pulsione di annientamento e di morte. Ma un popolo che non sa svezzarsi — come insegna la radice לגְמֹל (lègmol) — non cresce. Rischia di rimanere prigioniero del proprio bozzolo, vittima di un’identità che non sa più ruotare né mutare.

4. MELANCONIA, NICHILISMO, DEPRESSIONE: SINTOMI DI UN SISTEMA MALATO

La depressione è spesso descritta come una malattia della civiltà moderna, un effetto collaterale di una società che celebra l’efficienza e la produttività. Sebbene questa analisi offra spunti interessanti, il rischio è ridurre il problema a una condizione individuale, mentre esso è in realtà profondamente sistemico, radicato nel cuore stesso del nostro modello socioeconomico.

La diffusione della depressione non è una mera coincidenza: è un sintomo di un sistema che premia l’automazione, il controllo e la resa a scapito della vita umana. L'intelligenza artificiale, in questo contesto, non è solo uno strumento neutro, ma un amplificatore delle logiche oppressive già in atto, con l’ambizione di ridurre ogni aspetto della nostra esistenza a un'operazione di calcolo. Come ho già sottolineato in L’algoritmo di Prometeo, è fondamentale interrogarsi su chi controlla queste tecnologie, con quali scopi e con quali conseguenze. Ma questo interrogativo non è sufficiente se non ci spingiamo a considerare come la depressione e la distruzione del soggetto umano siano in realtà prodotti di un sistema che automatizza e predice.

Un esempio lampante è l’automazione del lavoro di cura: un settore cruciale della nostra società, che tradizionalmente richiedeva l’intervento umano, è sempre più delegato alle tecnologie IA. I caregiver, un tempo professionisti umani, si stanno trasformando in assistenti algoritmici che gestiscono anziani, disabili e malati cronici. Questo modello di "cura predittiva" ha l’apparente vantaggio di ottimizzare il tempo e risparmiare risorse, ma dissolve progressivamente l’empatia e il valore della relazione umana. La solitudine e il disincanto, che sono già all’origine di numerosi disturbi psicologici, sono amplificati dalla sostituzione delle interazioni umane con logiche automatizzate. La depressione diventa allora un effetto collaterale dell'automazione, non solo nel senso psico-emotivo, ma anche come risultato di un impoverimento delle relazioni umane.

Allo stesso modo, negli Stati Uniti, il sistema carcerario si sta sempre più avvalendo dell’IA per determinare la condotta dei prigionieri, il rischio di recidiva e, in alcuni casi, la loro libertà condizionale. Algoritmi come COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) calcolano il rischio di recidiva, ma sono spesso basati su dati storici distorti che penalizzano ulteriormente le classi più vulnerabili, alimentando una spirale di ingiustizia. In questo contesto, la depressione non è solo il risultato dell'isolamento e delle dure condizioni carcerarie, ma anche un effetto sistemico del controllo automatizzato, che trasforma l’individuo in un numero da prevedere e trattare, senza alcuna considerazione per la complessità della sua esperienza e del suo vissuto.

In entrambi i casi — dalla cura al sistema penale — l’intelligenza artificiale non fa altro che amplificare e normalizzare l’alienazione già intrinseca nel sistema. La depressione diventa così un prodotto sistemico, un effetto inevitabile di una macchina sociale che privilegia l’automazione, il controllo e la predizione, sacrificando l’individualità e la libertà.

In conclusione, l'intelligenza artificiale non è solo uno strumento né un destino ineluttabile. È specchio e moltiplicatore del sistema che l’ha generata. Non è la coscienza a essere intrappolata nella macchina: è la macchina a essere già dentro la nostra coscienza. E se è vero che «non ci sono alternative», allora è tempo di inventarle. 

Riavvolgere il filo, sì — ma per tagliarlo.