La politica dopo l’emergere di Gaia, il migliore dei mondi possibili
«
Noi amiamo il bello, ma con misura; amiamo la cultura dello spirito, ma senza mollezza. Usiamo la ricchezza piú per l’opportunità che offre all’azione che per sciocco vanto di parola, e non il riconoscere la povertà è vergognoso tra noi, ma piú vergognoso non adoperarsi per fuggirla. […] Sola infatti, tra le città del nostro tempo, si dimostra alla prova superiore alla sua stessa fama ed è pure la sola che al nemico che l’assale non è causa di irritazione, tale è l’avversario che lo domina; né ai sudditi motivo di rammarico, come sarebbe se i dominatori non fossero degni di avere il comando. Con grandi prove, dunque, non già senza testimoni, avendo noi conseguito tanta potenza, da contemporanei e da posteri saremo ammirati; non abbiamo bisogno di un Omero che ci lodi o di altro poeta epico che al momento ci lusinghi, mentre la verità toglierà il vanto alle presunte imprese, noi che abbiamo costretto ogni mare e ogni terra ad aprirsi al nostro coraggio; ovunque lasciando imperituri ricordi di disfatte e di trionfi
»
Con il celebre epitaffio di Pericle (Tucidide 1971, La guerra nel Peloponneso, vol. 1, pp. 121-128) si può dire che la natura faccia il suo primo ingresso nella politica.
O, meglio, in questo discorso, in cui il politico ateniese tesse le lodi della costituzione proto-illuminista e liberale della propria città ed elogia le virtù dei suoi cittadini, confrontandole con quelle dei nemici spartani, educati al rispetto dell’ordinamento castale della propria monarchia arcaica e conservatrice, emerge in maniera inedita una matrice retorica che imposta l’argomentazione politica come uno scontro fra civiltà, un conflitto in-group/out-group, o fra amico e nemico come direbbe Carl Schmitt, in breve, la politica come un inevitabile scontro fra nature opposte e inconciliabili.
Infatti, è improprio dire che siano stati i movimenti ambientalisti e i partiti verdi dell’ultimo quarto del secolo scorso ad introdurre la natura nella politica. Niente è mai stato più politicizzato della natura, e viceversa nessuna politica ha mai potuto prescindere dal ricorrere alla naturalizzazione per legittimarsi (Latour B. 2000, Politiche della natura. Per una democrazia delle scienze).
La circolarità della logica emerge chiaramente dal discorso di Pericle, dove la potenza e le conquiste di Atene, addirittura nella stessa frase, divengono fatti necessari, poiché rispecchiano la Verità che eventi storici accidentali non avrebbero potuto impedire, ma soltanto ostacolare o ritardare dall’affermarsi.
La politica della natura, in analogia con la concezione del sacro della tradizione cristiana, ha prodotto così una biforcazione del mondo fra le peripezie e i conflitti di opinioni degli umani, sul piano dell’azione storica e contingente, e il regno dei fini, collocato su quello ultraterreno, o metafisico, della Verità e della Giustizia (con la maiuscola), emanate dal fondo eterno e immutabile dell’universo o stabilite dal verbo divino. Esattamente come delle icone religiose acheropite, che sono rivelate, e non realizzate dal lavoro umano.
Ancora oggi, che si tratti di “Make America Great Again” oppure, più surrettiziamente, di “affermare i diritti umani”, non siamo in grado di fare a meno di ancorare la nostra politica ad una forma qualsiasi di giusnaturalismo (laico o volontaristico è indifferente). In altre parole, non rinunciamo all’immagine della caverna platonica, secondo la quale deve essere intrapresa la ricerca, o la progressione, verso la luminosa realtà delle cose in sé, uscendo da una condizione di illusione, o momentanea deviazione, rispetto a ciò che sarebbe vero e giusto.
Così possiamo distinguerci intellettualmente da quello che, senza mezzi termini, consideriamo un esercito di stupidi di riserva, che si crogiola in una falsa rappresentazione del mondo. Per inciso, spesso e volentieri, nella politica progressista come in quella reazionaria, fa la sua comparsa come espediente retorico “l’uomo ad una dimensione”, il “servo dei poteri forti”, così “banale nella sua malvagità”, che tiene al proprio vestito culturale, rimanendo incurante dei fatti della natura, la realtà dietro l’apparenza.
Ebbene, come diceva Eco, «la critica della cultura di massa è il peggior prodotto della cultura di massa» (1964, Apocalittici e integrati: comunicazioni di massa e teorie della cultura di massa), il cliché più trito e ritrito che esista.
Tuttavia, adesso abbiamo l’occasione di redimerci da questo classismo tascabile, dato l’avvento dell’Antropocene, o quello che Chakrabarty chiama l’emergere del planetario (2021, The Climate of History in a Planetary Age): questa etichetta per una nuova era geologica, in cui l’attività umana supera, letteralmente, quella delle altre biomasse, fino a sconvolgerne completamente la costituzione, segnala non già “la ribellione di madre natura”, ma proprio la morte della natura stessa. Infatti, con questa svolta, non si può piú fare riferimento a un fuori di alcun tipo.
Date le ingenti trasformazioni dell’ambiente, esso non può più essere ripreso come invariante naturale, cioè come posizione terza nella ripartizione fra il vero e il falso, il giusto e l’ingiusto, all’interno del quale ci andremmo a posizionare, compiendo delle azioni e delle scelte dentro a delle condizioni prestabilite. In altre parole, si tratta di scoprire ciò che abbiamo sempre saputo, ma al tempo stesso ignorato perché troppo impegnati a separare la natura dalla cultura: a pensarci bene, che senso ha dire che le formiche nel formicaio da loro costruito, o gli uccellini nel loro nido, si trovano nel loro habitat? È chiaro che invece l’habitat non è che un’estensione degli esseri viventi e della loro attività. Per cui non è davvero possibile ordinare il mondo come una matrioska, il contenuto non appartiene al contenitore: sono proprio la stessa cosa.
Questo è l’avvincente cambio di prospettiva suggerito dalla teoria di Gaia, sviluppata dai lavori di James Lovelock e Lynn Margulis, le cui scoperte contestano l’idea che la vita sulla terra si sia sviluppata perché erano già presenti le condizioni adatte, il famoso contesto: al contrario, sarebbero stati i primi microrganismi, attraverso la cooperazione, e non la competizione, a plasmare l’ambiente adatto alla propria sopravvivenza. Ciò significa che la natura ha una storia, essa non è un sistema indipendente di cui avremmo turbato l’equilibrio (tipo il mercato autoregolantesi).
Ma allora, come possiamo passare dall'essere al dover essere, se «Dio, fra tutti i mondi possibili, avesse scelto proprio il migliore, ovvero quello col maggior grado di perfezione»? Cioè se dovessimo restare nel mondo che abbiamo, rinunciando ad andare altrove? Come possiamo essere nel vero e nel giusto senza riferimenti a valori assoluti? In questo caso, dobbiamo ricordarci, come dice Deleuze, che aldilà del bene e del male non vuol dire aldilà di buono e cattivo. L’esistenzialismo infatti non ha niente a che vedere col nichilismo, ma con la trasformazione di tutti i valori: noi possiamo sempre odiare la guerra e amare la pace, avversando le forze che reprimono la vita e cospirando con quelle che la favoriscono. E se la vita è un collettivo di cui prendersi cura, un condivenire multispecie (Haraway, 2023, Chthulucene. Sopravvivere su un pianeta infetto), il suo benessere è rimesso alla risonanza fra le entità, umane e non-umane, che sanno vivere attraverso le une attraverso le altre, accogliendone le esigenze in unità sempre provvisorie e discutibili.
Allora, ci occorre una nuova definizione del bello, una nuova costituzione assurda e controversa: l’estetica potrebbe essere intesa come l’esercizio della sensibilità alle altre modalità di vita, altri modi possibili di articolare, modificare ed espandere la società, oltre la distinzione fra natura e cultura. Così più “nemici” e “stranieri” saremo in grado di includere nel nostro mondo, più saremo pluralisti e rappresentativi con esigenze aliene alle nostre, e più quello che potremo costruire sarà solido, vero e giusto (con la minuscola).
La cattura del regolatore - Come l’industria piega le regole alle proprie necessità
Per cattura del regolatore si intende quella pratica attraverso la quale un settore regolato dell’industria si impossessa del regolatore, e lo piega alle proprie necessità.
Per l’economista Ernesto Dal Bó, «la cattura del regolatore è quel processo attraverso il quale interessi particolari influenzano l’intervento dello stato in ciascuna delle sue forme, in aree diverse come l’imposizione di tasse, le scelte di politica estera o monetaria, o le leggi che regolano la ricerca e lo sviluppo».
L’attività regolatoria viene studiata in economia seguendo due diverse scuole di pensiero. La prima è quella dell’Interesse Pubblico e la seconda quella della Cattura del Regolatore.
Secondo la prima scuola il mercato fallisce nel conseguimento di politiche orientate al bene comune, per esempio per la formazione di monopoli, ed è quindi necessaria una istituzione, il regolatore appunto, che difenda i cittadini ed i consumatori.
All’estremo opposto la seconda scuola vede l'istituzione di un meccanismo di regolazione come il risultato di una cattura istituzionale: gli interessi industriali ed economici favoriscono essi stessi la creazione di un regolatore che li difenda dalla concorrenza. La seconda scuola non vede questa creazione come risultato di un fallimento dei mercati.
Il lettore italiano ricorderà il motto di Giovenale: ‘Quis custodiet ipsos custodes’, cioè chi custodisce i custodi, a significare che se il regolatore deve regolare, ci si deve accertare che non venga esso stesso regolato a seguito di un fenomeno di cattura.
Il fenomeno osservato da Giovenale nel secondo secolo dopo Cristo è probabilmente antico quanto lo stabilirsi di prime forme di controllo tese ad assicurare il corretto svolgimento della vita pubblica. Tanto ciò è vero che la cattura del regolatore viene considerata come ineluttabile in entrambe le scuole summenzionate.
George J. Stigler, esponente della scuola della cattura del regolatore, e uno dei padri fondatori della Chicago School of Economics, ritiene che «la regolamentazione viene richiesta principalmente dall’industria ed è disegnata ed operata principalmente per il beneficio della stessa». Questa teoria si occupa dei meccanismi che conducono a leggi di regolamentazione identificando i gruppi che traggono profitto dagli effetti redistributivi della legislazione medesima.
Anche per gli economisti Marver H. Bernstein e Beryl R. Crowe la cattura è ineluttabile. Questi prevedono l’esistenza di cicli, laddove una agenzia regolatrice viene creata inizialmente per rispondere ad un allarme o preoccupazione sociale, in seguito gruppi di interesse ben organizzati ne prendono il controllo con la conseguenza che l’operato dell’agenzia li favorisce. Nella fase finale del ciclo l’agenzia regolatrice fornisce rassicurazioni e soddisfazioni simboliche al pubblico mentre “l’attività e le decisioni giornaliere dell’agenzia contribuiscono, rafforzano e legittimano le richieste di piccoli ma ben organizzati gruppi".
In conclusione, per Stigler, meglio non creare affatto i regolatori e lasciare al mercato mano libera, nell’ottica di small government tipica della scuola di Chicago, mentre i sostenitori della regolamentazione insistono sulle strategie di controllo per evitare la cattura – quali ad esempio migliori compensi per i regolatori, maggiori controlli governativi e la creazione di gruppi di interesse pubblico fra i cittadini che si occupino di monitorare l’azione delle agenzie.
La cattura può anche essere culturale: in tal caso il regolatore non viene sedotto dalle offerte dei lobbisti, ma finisce per vedere il mondo come lo vedono i settori regolati. La scienza al servizio degli interessi privati può giocare un ruolo importante in questo tipo di cattura. Secondo alcuni, un caso evidente degli effetti della cattura culturale, politica e cognitiva è proprio l’ultima recessione, resa possibile dalla conquista delle autorità di supervisione finanziaria da parte delle banche medesime.
Un concetto più recente è quello del capitalismo della regolamentazione, come parte di un mondo globalizzato all’interno del quale l’esistenza di regole e standards favorisce il potere degli incumbents (cioè di coloro che dominano il mercato al momento dato) – si parla in questo caso anche di tragedia della mercificazione. Un esempio di questo tipo di evoluzione trova la sua dimostrazione nel passaggio della tutela della conoscenza da organizzazioni quali UNESCO e la UNCTAD all’Organizzazione per il Commercio Mondiale, World Intellectual Property Organization ed al GATT (General Agreement on Tariffs and Trade), dove la conoscenza è trattata come un bene privato da proteggere per consentirne il commercio.
Un importante caso di cattura è quello relativo alla scienza aperta, dove aspirazioni ad una democratizzazione della conoscenza sono state catturate dalla potente macchina lobbistica degli editori scientifici, finendo per aggravare disuguaglianze e squilibri globali nord-sud e favorire – a detta di alcuni – una ulteriore concentrazione del potere delle mani di pochi giganti del settore.
Papa Francesco e l'Ideologia Gender - Uno scivolone etico e politico?
Papa Francesco si è recentemente scagliato contro la cosiddetta “ideologia gender”, apostrofandola come «il pericolo più brutto del nostro tempo». A suo dire, essa abolisce le differenze e «rende tutto uguale», dichiarando inoltre, in modo lapidario, che «cancellare la differenza è cancellare l’umanità».
Ma che cos’è il gender? E poi, cos’è tale “ideologia gender”?
Gender e sesso biologico
In prima approssimazione e a grandi linee, è possibile intendere il genere (in inglese “gender”), come «orientamento psicosessuale che l’individuo acquisisce su basi culturali»; pertanto, esso è una costruzione sociale che investe, e condiziona, i nostri corpi, le nostre identità e le nostre vite.
Il genere è quel dispositivo che viene attivato a partire dal nostro sesso anatomico e ci indirizza verso i ruoli che la società ha già preparato per noi. Infatti, «mentre il termine sesso viene […] usato per indicare la dimensione biologica dell’essere donna o uomo, [genere] implica la variabilità delle interpretazioni che culture, tra loro diverse, hanno costruito a partire dal dato di partenza biologico». Pertanto, sesso e genere sono distinti: anatomico-biologico il primo, culturale-sociale il secondo.
Prendiamo, come esempio, i sessi femminile e maschile. La società impone a donne e uomini di conformarsi a quello che si ritiene essere il modo “naturale” di esser femmine e il modo “naturale” di esser maschi; l’assegnazione alla nascita dell’uno o dell’altro sesso, dunque, indirizza da subito verso un genere definito.
La costruzione sociale è decisamente pervasiva; è facile pensare subito a temi e oggetti destinati a un pubblico femminile e i relativi equivalenti che, invece, sono indirizzati a un pubblico maschile, con rigide distinzioni e confini che non devono essere superati per non incappare nella discriminazione, nell’esclusione sociale, nel giudizio negativo. Infatti, ha una connotazione di genere un numero considerevole delle cose con cui entriamo in contatto ogni giorno, sia concrete che astratte: capi d’abbigliamento, accessori, giocattoli, interventi sul corpo, desideri, professioni ecc.
Tuttavia, affrontare il tema del genere in modo critico è una via che può permettere la decostruzione dei condizionamenti sociali, in quanto porta a riflettere sui rapporti che distinguono tra femminile e maschile, aprendo così a diverse narrazioni e a maggiori libertà individuali.
Infatti, «il [genere] si inscrive in un più ampio ripensamento dei temi legati all’identità, al soggetto, alla sessualità, alla corporeità, che si coniugano con possibilità di espressione e trasformazione, in rapporto critico e innovativo con categorie che tendono a fissarsi e ad assumere forza regolativa e normativa». Non dimentichiamo che le costruzioni sociali sono rinegoziabili.
Dunque, sembra chiaro che il genere è un dispositivo costruito in parte dai condizionamenti sociali e in parte dalle scelte e dalle storie personali, [1] con tutte le possibilità che ne derivano.
LA COSIDDETTA "IDEOLOGIA GENDER"
L’oggetto dell’invettiva papale, l’Ideologia Gender, è, in realtà, un concetto-ombrello nato verso la fine degli anni ’90 nell’ambiente cristiano cattolico conservatore statunitense, e precisamente ad opera del “Family Research Council, una lobby familiarista cattolica statunitense, attivista dell’Opus Dei, e vicina ai Narth (Associazione nazionale per la ricerca e terapia dell’omosessualità) cioè ai sostenitori delle terapie riparative per l’omosessualità”.
Perché questi gruppi di cattolici conservatori hanno “inventato” questo concetto-ombrello?
Il fine – abbastanza evidente nella prima pubblicazione, “The Gender Agenda: Redifining Equality” di Anne O’Leary – è quello di comprendere sotto lo stesso termine e contrastare l’ampio spettro di pensieri e pratiche di quegli anni, pensieri e pratiche che non rientravano nelle posizioni cristiano-cattoliche più tradizionaliste; in questo spettro troviamo, secondo gli estensori della “Gender Agenda”, chi “si occupa del controllo della popolazione; i libertari della sessualità; gli attivisti dei diritti dei gay; i promotori multiculturali del political correct; la componente estremista degli ambientalisti; i neo-marxisti/progressisti; i decostruzionisti/postmodernisti.”
Una crociata “contro”, insomma, in cui la componente di contrasto verso delle pratiche di tolleranza e di normalizzazione sociale degli orientamenti sessuali e di genere “non tradizionali” è solo una piccola parte.
L’Ideologia Gender sembra, quindi, non esistere se non nelle intenzioni di chi non ne fa parte.
Sembra essere un altro argomento fantoccio, creato per sostenere teoreticamente un’operazione di rafforzamento di confini molto ampi, tra il tradizionale e “l’altro”, di esclusione di ciò che è “strano”.
Sotto questo concetto-ombrello, però, si riparano dalla pioggia delle posizioni “strane” anche, nell’ordine:
- i vertici della dottrina cristiano-cattolica, il Consiglio Pontificio pubblica un corposo testo, il “Lexicon. Termini ambigui e discussi su famiglia, vita e questioni etiche” (2003), che studia e critica la fantasmatica “Teoria del Genere”;
- alcune frange dell’associazionismo cattolico;
- il cardinale Ratzinger;
- militanti conservatori e associazioni familiariste cattoliche come «Manif pour Tous-Italia», «Sentinelle in piedi», «Hommen-Italy»;
- il Forum delle Associazioni familiari [2] e un’ampia serie di soggetti tradizionalisti.
Dall’altra parte, sono invece seri e ampi studi sociologici, psicologici e medici sul genere, sulla sessualità e sulla relazione tra persona e orientamenti comportamentali, affettivi e sessuali.
LA POSIZIONE DI PAPA FRANCESCO
Ora, sull’affermazione di Jorge Mario Bergoglio, è opportuno fare delle puntualizzazioni preliminari:
- Bergoglio parla nella veste di Papa, massima autorità della Chiesa Cattolica;
- il contesto in cui parla è quello del Convegno Internazionale "Uomo-Donna immagine di Dio. Per una antropologia delle vocazioni" promosso dal Centro di Ricerca e Antropologia delle Vocazioni (CRAV); [3]
- la famiglia tradizionale uomo-donna-figli è, secondo la dottrina cristiano-cattolica, un pilastro, la cellula fondamentale della società. [4]
Non credo, quindi che ci si possa scandalizzare se il Papa difende questo elemento, storicamente alla base della dottrina della religione di cui è massima autorità.
Né, tantomeno, credo che si possa criticarlo se lo fa di fronte ad una platea di cattolici che si appresta a riflettere sul ruolo dei cristiani cattolici nella società contemporanea, sulla vocazione e sulle relazioni che i cristiani e la chiesa devono intrattenere con posizioni “altre”, diverse e variegate, non allineate all’ortodossia dottrinale.
Ancora meno, credo, che si possa lamentare una discrasia, una contraddizione, tra queste affermazioni e le recenti aperture nei confronti delle relazioni affettive e delle coppie “in situazioni irregolari e di coppie dello stesso sesso”: il mondo cattolico è ampio, complesso, poliedrico e ci vuole un ombrello molto grande per contenerlo tutto.
Quello che sembra fare Bergoglio, con quelle parole e in quel contesto, è un’operazione – me lo si passi – di marketing affiliativo, di legittimazione della propria autorità di fronte ai partecipanti al convegno, richiamandosi alle posizioni dottrinali tradizionali. Posizioni da cui ritengo normale, direi quasi opportuno, che una organizzazione inizi per pensare il confronto con la diversità.
Insomma, il papa Francesco fa il suo mestiere e lo fa, mi pare, abbastanza bene.
Stupiscono, però, due fatti, che sembrano veri e propri scivoloni di Bergoglio:
- L’uso del concetto dell’Ideologia Gender che, seppur strumentale all’operazione di auto-legittimazione, ha esposto il capo della chiesa cattolica ad ampie critiche da parte dei media e di tutti coloro che ne conoscono genesi e storia: Bergoglio, di fatto, ha attaccato un prodotto della chiesa, il cui referente empirico è fumoso;
- Il secondo scivolone, a mio avviso moralmente più grave, è il comparativo di maggioranza associato all’Ideologia Gender: “il pericolo più brutto del nostro tempo”; riesce difficile pensare che il fantasma delle minacce alla famiglia tradizionale siano, in questo momento, più pericolose e più brutte – ad esempio - della strage di famiglie israeliane compiuta da terroristi nei cosiddetti territori occupati il 7 ottobre del 2023 e il successivo massacro di dimensioni spropositate di altre famiglie, palestinesi questa volta, ancora in corso, nella striscia di Gaza.
NOTE
1 Nel parlare di scelte individuali, assumo una posizione neutrale rispetto alla questione che vede contrapposti il libero arbitrio e il determinismo materialista, con tutte le posizioni e sfumature intermedie. In questa posizione, pertanto, mi disinteresso temporaneamente della genesi della scelta e ne osservo solo il risultato.
2 Il quale ha diffuso via internet un «vademecum strumenti di autodifesa dalla teoria del gender per genitori con figli da 0 a 18 anni».
3 L’obiettivo del convegno è di discutere apertamente della vocazione al sacerdozio cristiano, della “trasmissione del patrimonio culturale e spirituale dei cristiani richiede ai credenti di tutto il mondo di riposizionarsi di fronte a un ambiente che è diventato estraneo, indifferente o addirittura ostile, anche nei Paesi tradizionalmente cattolici”. “Dobbiamo pensare in altri termini al futuro del cristianesimo, in un contesto che si aspetta che i cristiani trovino un nuovo paradigma per testimoniare la loro identità”. Obiettivo e scopo del Simposio a cui parteciperanno specialisti internazionali di Sacra Scrittura, filosofia e teologia, scienze umane e pedagogia, è “offrire una visione aggiornata dell’antropologia cristiana in un’epoca di pluralismo e dialogo tra le culture, per sostenere il significato della vita come vocazione” (Cardinale Ouellet, vedi qui).
4 «La Famiglia è costituita dall'unione indissolubile tra un uomo e una donna, aperti al dono della vita. Questa istituzione ha il suo fondamento nel disegno di Dio, ovvero nella legge naturale e perciò precede qualsiasi riconoscimento da parte della pubblica autorità. Per questo è considerata la "cellula fondamentale della società"», recita Cathopedia, l’enciclopedia cattolica.
Quando un esperimento non basta: il regresso dello sperimentatore
Un risultato sperimentale da solo è sufficiente per dare credibilità ad a un asserto scientifico?
Sì, secondo l’epistemologia classica. La conoscenza prodotta in un laboratorio è “la realtà” perché gli scienziati, seguendo il metodo scientifico, riescono a cogliere la rappresentazione esatta del mondo. Ma chiunque abbia messo piede in un laboratorio di biologia, fisica, chimica ecc. si accorge che questa è una rappresentazione idealistica e normativa della scienza ideologica. Basti pensare a quante volte all’interno di un gruppo di ricerca gli scienziati discutono davanti a un esperimento, prodotto da loro o da altri laboratori, o si confrontano di fronte a un risultato sperimentale che non è in linea con quanto si aspettavano.
Dunque, cosa succede nel momento in cui risultati di un esperimento sono in disaccordo con una teoria già consolidata?
Secondo il sociologo della scienza Harry Collins, un risultato sperimentale non è sufficiente per dare credibilità a un asserto scientifico. Nel suo libro Changing Order (1985) ha analizzato una controversia scientifica avvenuta verso la fine degli anni ’60 e inizi degli anni ‘70 sulla rilevazione delle onde gravitazionali.
Collins osserva come nel 1969 il fisico Joseph Weber affermò di essere riuscito a rilevare grandi quantità di radiazioni gravitazionali. Progettò personalmente il suo rilevatore, costituito da una grossa barra in lega di alluminio sulla quale poteva misurare le deformazioni e le vibrazioni provocate dalle onde attraverso dei rilevatori. Molti scienziati non credettero alle affermazioni di Weber, perché in quel periodo la maggior parte della comunità scientifica era d’accordo nel sostenere che i corpi massivi in movimento producessero onde gravitazionali ma con intensità molto deboli, dunque difficilmente rilevabili. Non solo. Lo strumento progettato da Weber presentava alcune criticità. Un primo aspetto critico era che rilevatori registravano delle vibrazioni e non le onde gravitazionali; dunque, non erano in grado di distinguere fra vibrazioni causate da radiazioni gravitazionali e vibrazioni causate da altre forze o fonti di disturbo. Nel 1969 Weber affermò di aver rilevato sette picchi al giorno non generati da fonti esterne di rumore. Queste affermazioni furono accolte con scetticismo dalla comunità scientifica perché si trattava di una quantità troppo alta di radiazioni rispetto alle teorie cosmologiche dell’epoca. Nonostante ciò, Weber riuscì comunque a convincere altri scienziati a prendere seriamente in considerazione i suoi risultati, anche se non ufficialmente accreditati. Dunque, non basta semplicemente riportare i risultati di un esperimento per trasformarne l’esito in un fatto scientifico consolidato in grado di “uscire dai confini” del laboratorio che lo ha prodotto. Infatti, nel 1972 altri laboratori avevano costruito altre barre in lega di alluminio per captare le radiazioni gravitazionali: in questo momento inizia quello che Harry Collins chiama regresso dello sperimentatore, ovvero un ciclo di interdipendenza tra teoria ed evidenza.
Lo scienziato che proverà a replicare l’esperimento di Weber dovrà alla fine confrontarsi con una serie di iscrizioni grafiche su carta prodotte da un registratore. Il problema sarà capire se fra quelle iscrizioni ci sono dei massimi che rappresentano impulsi di onde gravitazionali, oppure semplicemente segni prodotti dal rumore. La posizione maggioritaria della comunità scientifica dell’epoca riteneva che quei picchi non fossero causati da onde gravitazionali, e per accettare questa tesi bisognava replicare l’esperimento di Weber.
Se però le repliche dell’esperimento avessero dato un risultato negativo, sarebbe stato giusto pubblicare i risultati sperimentali e affermare che non c’erano grandi flussi di gravità da trovare? E di conseguenza dichiarare errate le affermazioni di Weber?
La risposta non è semplice, perché il risultato negativo di un esperimento potrebbe essere dovuto anche a ragioni diverse (per così dire “esterne”) da quelle relative al contenuto dell’asserto scientifico stesso, che l’esperimento vorrebbe provare. Ad esempio, l’amplificatore utilizzato nella replica dell’esperimento potrebbe essere diverso, o meno potente, rispetto a quello utilizzato da Weber. Infatti Weber sosteneva che i suoi rivali non avessero preparato l’esperimento nel modo più appropriato per lo studio di un fenomeno così sfuggente. Anzi, la mancanza di risultati poteva essere dovuta all’imperizia dei rivali di Weber, che non potevano certo vantare la sua esperienza nella progettazione di strumenti così sofisticati
In questo caso le onde gravitazionali esisterebbero realmente ma lo strumento usato in quel particolare esperimento potrebbe non essere in grado di rilevarle e lo scienziato, nel registrare la non esistenza dei flussi gravitazionali, mostrerebbe la propria incompetenza a livello tecnico-sperimentale.
Dunque, se non si conosce il risultato, il corretto svolgimento dell’esperimento non può essere valutato facendo riferimento soltanto al risultato sperimentale perché non c’è un consenso su cosa sia considerato un “risultato corretto” o sull’esistenza di un fenomeno. Per cui la domanda da porsi diventa “qual è il risultato corretto?”.
Afferma Collins:
«
La conoscenza del risultato corretto non può fornire la risposta. Il risultato corretto è la rivelazione delle onde gravitazionali o la non rivelazione delle onde gravitazionali? Dal momento che l'esistenza delle onde gravitazionali è il punto in questione, è impossibile conoscere la risposta all'inizio. Quindi, quale sia il risultato corretto dipende dal fatto che ci siano o no onde gravitazionali che colpiscono la Terra attraverso flussi rivelabili. Per scoprirlo, dobbiamo costruire un buon rivelatore di onde gravitazionali e guardare. Ma non sappiamo se abbiamo costruito un valido rivelatore fino a che non lo abbiamo messo alla prova e ottenuto il risultato corretto. Ma non sappiamo quale sia il risultato corretto fino a che... e così via, ad infinitum (Collins e Pinch, 1995, Il Golem. Tutto quello che dovremmo sapere sulla scienza, p. 132).
»
L’attività sperimentale può essere valutata facendo riferimento al risultato soltanto se si riesce ad interrompere questa spirale. Nella maggior parte dell’attività scientifica (che Kuhn chiamerebbe “scienza normale”) questa catena circolare viene interrotta perché sono già noti i limiti entro cui un esperimento si può considerare “corretto”. Invece, nelle controversie in cui il regresso dello sperimentatore non può essere evitato, gli scienziati ricorrono ad altri criteri per valutare la qualità di un esperimento, che sono indipendenti dal risultato stesso dell’esperimento. Collins, intervistando gran parte degli scienziati coinvolti nell’attività di ricerca sulle onde gravitazionali, ha messo in luce gli elementi che entrano in gioco per valutare gli esperimenti e i risultati sperimentali degli altri scienziati:
1- fiducia nelle capacità sperimentali e nell'onestà dello scienziato, basata su una precedente collaborazione di lavoro;
2- la personalità e la capacità intellettiva degli sperimentatori;
3- la fama dello scienziato ottenuta attraverso la gestione di un grande laboratorio;
4- l’aver o meno lavorato nel settore dell'industria o in un ambiente universitario;
5- il curriculum di uno scienziato, in relazione ai suoi eventuali precedenti fallimenti;
6- «Informazione confidenziale», cioè riservata e non destinata ad essere divulgata all’intera comunità scientifica;
7- lo stile dello scienziato e la sua capacità di presentare i risultati;
8- l'«approccio psicologico» dello scienziato all'esperimento;
9- l'importanza e il prestigio dell'università d'origine dello scienziato e di quella dove lavora;
10- il grado di integrazione dello scienziato in svariate reti di collaborazione scientifica;
11- la nazionalità dello scienziato.
Dunque, quando i risultati di un esperimento sono in disaccordo con una teoria consolidata, la pratica scientifica non segue mai soltanto criteri metodologici nel decidere se a essere sbagliato sia l’esperimento o la teoria. Ma anche criteri sociologici, come quelli appena elencati. Dunque, fare scienza richiede sia un’abilità retorica che tecnica (Collins 1995). ). Al termine di una controversia vengono definiti quali sono gli “esperimenti validi” – ad esempio gli esperimenti che rilevano le onde gravitazionali o quelli che non le rilevano – stabilendo così la competenza di alcuni scienziati a discapito di altri. In altre parole,
«
Riuscire (...) a definire che cos'è un buon rivelatore di onde gravitazionali, e determinare se le onde gravitazionali esistono, sono lo stesso processo. Gli aspetti sociali e scientifici di questo processo sono inscindibili. È questo il modo in cui viene risolto il problema del regresso dello sperimentatore (ivi, p. 136).
»
In conclusione, il concetto di regresso dello sperimentatore ha il merito di aver messo in luce come la veridicità di un asserto scientifico dipenda anche da “meccanismi di risoluzione” (ivi, p. 143)(in grado di chiudere una controversia) che generalmente non vengono considerati come costitutivi dell’attività scientifica, perché non fanno parte di argomentazioni di natura tecnica, ma elementi sociali. Tuttavia, senza questi la scienza non potrebbe esistere.
Come andò a finire la controversia sulle onde gravitazionali?
In questo modo: Joseph Weber e le onde gravitazionali – Vittime illustri di modi ideologici di fare scienza.
Omeopatia e memoria dell'acqua - Una storia di scienza
Ciclicamente la scienza è attraversata da grandi discussioni attorno a problemi che appassionano i ricercatori, forse anche perché trattano di temi che riguardano abbastanza evidentemente la quotidianità di tutti noi.
Temi che oltre a far discutere a volte anche animatamente, si rivelano alla fine divisivi nelle opinioni: chi sta di qua e chi sta di là della linea di demarcazione della verità. A volte le dispute sono feroci e lunghissime, e proprio la stessa storia delle scienze ne è fedele testimone.
Gli esempi che si potrebbero fare sono tantissimi, e alcuni riguardano l’elemento apparentemente più comune sul nostro pianeta: l’acqua.
-------
Non c’è solo il caso dell’abbaglio preso sulla cosiddetta poliacqua, un liquido che pareva essere differente ma che alla fine si era dimostrata semplicemente impura: uno dei casi ancora oggi aperti riguarda un altro aspetto dell’acqua, e cioè la sua presunta “memoria”.
Un dibattito che parte da molto lontano, e che forse non è ancora del tutto chiuso.
Pur senza mai nominare il termine “memoria”, che fu invece coniato dagli ambienti di divulgazione scientifica della notizia, questa presunta qualità che permetterebbe all’acqua di mantenere un "ricordo" delle sostanze con cui è venuta in contatto fu proposto per la prima volta nel 1988 dal medico francese Jacques Benveniste: l’idea era che, per produrre tale effetto, l'acqua debba essere agitata ("succussa") a ogni diluizione di nuova sostanza con cui entra in contatto. Benveniste nei suoi lavori ipotizzò un meccanismo che spiegava in questo modo il presunto funzionamento dei rimedi omeopatici, la cui efficacia è, a tutt’oggi, non dimostrata. I preparati omeopatici, chimicamente composti di acqua e zucchero, vengono di fatto preparati miscelando più volte il principio attivo in acqua a diluizioni così spinte da perdere ogni presenza di molecole del principio attivo originario con cui vengono messi a contatto.
In verità non esiste alcuna prova scientifica che supporti l'esistenza del presunto fenomeno. Sebbene siano stati pubblicati studi che sembravano andare in quella direzione, in realtà tali studi non hanno mai superato la verifica in doppio cieco, necessaria per dare attendibilità ai risultati ottenuti.
Peraltro, a successive prove scientifiche effettuate nuovamente da “terzi”, i risultati ottenuti dal medico francese furono clamorosamente smentiti: le ricerche risultarono false e manipolate, e fu la rivista Nature a darne ampio risalto pubblicando una dettagliata relazione che smentiva i risultati ottenuti dal dott. Benveniste. Come apparse in modo chiaro e inequivocabile, da un punto di vista chimico-fisico l’acqua mantiene una relazione con le altre molecole con le quali viene in contatto per un tempo infinitesimale, nell’ordine di qualche decina di femtosecondi (unità di misura del tempo, sottomultiplo del secondo, pari a un milionesimo di miliardesimo di secondo, corrispondente al più breve impulso di luce mai realizzato).
Il concetto di memoria dell’acqua, insomma, così come proposto dagli studi (manipolati) di Benveniste appare pseudoscientifico e quindi privo di fondamento.
Nonostante ciò, il fascino del concetto rimane. Nel 2011, nella Conference Series del Journal of Physics (nota fra gli addetti ai lavori come serie con peer review alquanto debole, e quindi facilmente esposta a rischi di pubblicazioni non scientifiche) appare uno studio firmato dal premio Nobel per la medicina Luc A. Montagnier, biologo insignito appunto nel 2008 del prestigioso premio per la scoperta (assieme a Françoise Barré-Sinoussi) nel 1983 del virus HIV. In questo articolo, il team di ricerca di Montagnier dimostra come soluzioni acquose altamente diluite di sequenze di DNA proprio del virus HIV (e anche di altri virus e batteri), produrrebbero segnali elettromagnetici di bassa frequenza caratteristici del DNA in soluzione. Per i sostenitori dell’omeopatia, una sorta di manna dal cielo: i risultati del premio Nobel sembrano andare esattamente nella direzione della validità scientifica della proposta. Peccato che anche questa volta le cose non vadano bene: il lavoro viene additato a livello internazionale come privo di validità scientifica, carente nel protocollo sperimentale, nelle apparecchiature utilizzate e perfino incoerente nelle sue stesse basi teoriche. Un disastro, insomma. Montagnier, d’altro canto, ha spesso prestato il fianco a critiche anche feroci da parte di moltissimi suoi colleghi medici, biologi e virologi: le sue prese di posizione su virus, batteri e vaccini sono state disconosciute dall’intera comunità scientifica.
In ogni caso, quello che va ricordato è che la storia dell’acqua come veicolo di trasmissione di rimedi curativi è molto più antica del secolo scorso.
Benveniste non è stato certo il primo a parlarne, anche se ha avuto la visibilità maggiore. Lo stesso termine omeopatia ha radici molto più vecchie: lo si deve a un brillante studioso tedesco vissuto tra il 1755 e il 1843, Samuel Hahnemann. Bimbo prodigio, a dodici anni parla già diverse lingue e in soli 4 anni si laurea in Medicina a Erlangen nel 1779. Diventa grande e geniale medico, ma anche chimico, botanico, fisico e traduttore: in soli quattro anni, a partire dal 1785, furono edite ben duemila sue pagine di traduzioni e di opere originali. Fondatore dell’Omeopatia, ne coniò anche il termine, Homoepathie e denominò Allopathie la terapia classica: a differenza di quest’ultima, infatti, il principio ispiratore del nuovo approccio alla cura è espresso dall’aforisma “similia similibus curantur”, i simili si curano con i simili. Hahnemann fu certamente colpito dalle affermazioni provenienti dagli studi di Cullen: l’uso del chinino in un soggetto in buona salute provoca una sintomatologia simile a quella determinata dalla malattia che il chinino stesso è chiamato a curare. A partire da questa considerazione elaborò la teoria secondo cui ogni malattia va curata con un medicamento che provochi nell’uomo sano una analoga sintomatologia.
Così nacque l’Omeopatia. Nella storia del pensiero medico occidentale, Hahnemann è il primo e l’unico medico e pensatore che rompe completamente con tutti gli schemi scientifici, mentali e metodologici sino allora conosciuti in medicina.
Nonostante il lungo tempo trascorso, la sua opera ed il suo metodo sono tuttora oggetto di diatribe e accese discussioni. Per quanto l’Omeopatia abbia subito per oltre duecento anni gli attacchi più feroci, i boicottaggi più incredibili, le pubblicazioni più infamanti e ostracismi di ogni tipo, oggi essa è diffusa e praticata in quasi tutti i paesi del mondo, fra l’altro in costante e continua crescita. L’Omeopatia è sicuramente la metodica terapeutica che raccoglie in sé più prove scientifiche di ogni altro metodo curativo e assieme quella che fa registrare più opposizioni da parte del mondo accademico rispetto a tutte le altre terapie non convenzionali.
-------
Certezze poche, insomma. Se non quella che, a un’analisi eseguita con un approccio scientifico tradizionale (e fatto di quelle conoscenze finora disponibili) il tema della memoria dell’acqua (e quello a ruota dell’omeopatia) non abbiano superato lo sbarramento delle prove di scientificità.
Perché dunque continuare a parlarne? Semplicemente perché la verità forse non è (ancora) conoscibile. O forse è davvero complessa, a volte.
A testimonianza che le cose accadono al di là della nostra capacità umana di vederle, di comprenderle, di addomesticarle. Il che, spesso, non è assolutamente una brutta notizia.
Omeopatia e memoria dell’acqua - Per una ricerca oltre le contrapposizioni
Quando si parla di memoria dell’acqua, solitamente si cita il lavoro dell’immunologo francese Jacques Benveniste (1935–2004) - che coniò l’espressione “memoria dell’acqua” - e quello più recente di Luc Montagnier, che occasionalmente si trovò a descrivere le proprietà di una soluzione ultra diluita. E si afferma che questi lavori sarebbero stati confutati dalle confutazioni che avrebbero messo una pietra tombale sull’omeopatia. Tali confutazioni, tuttavia, sono state a lor volta respinte e ritenute non attendibili: si veda, ad esempio, il Report del Governo Svizzero del 2011 che rappresenta la valutazione più completa sulla Medicina Omeopatica mai scritta da un Governo (Bornhoft e Matthiessen, Homeopathy in Healthcare: Effectiveness, Appropriateness, Safety, Cost).
Fra le critiche all’omeopatia si afferma, da parte di clinici e farmacologi, che l’Omeopatia sia efficace solo per l’effetto placebo. Ma la gran parte dei nostri pazienti si rivolge a noi perché delusi dalla medicina “allopatica”, dopo essere stati in prima battuta dal loro medico di famiglia, poi anche dallo specialista di riferimento che non di rado è un clinico rinomato, cattedratico ecc… Inoltre, sappiamo che l’effetto placebo è insito in ogni terapia ed è relativo all’investimento di speranza e fiducia che il paziente ha nei confronti della medicina assunta.
Per cui sorge la domanda: come mai migliorano o guariscono solo con l’effetto placebo dell’omeopatia e non con quello dell’allopatia, tanto che essi sono costretti ad intraprendere altre strade per prendersi cura della propria salute?
La sperimentazione pura, ossia la somministrazione di un medicamento diluito a un soggetto sano, provoca una sintomatologia che, se presente in un paziente malato, quello stesso rimedio è in grado di guarire. Questa procedura che è stata avviata da Hahnemann e proseguita dai suoi allievi è insegnata in alcune scuole di omeopatia; anch’io all’inizio, quando ero ancora studentessa un po’ incredula, l’ho provata. È un modo per toccare con mano la legge dei simili, ma soprattutto per imparare a osservare se stessi e dunque anche i malati.
Il medico agisce in base ai bisogni del malato e ancora oggi non può sottrarsi a una certa dose di empirismo se vuole essere efficace e tempestivo; e spesso è guidato meglio dall’esperienza che dalle cosiddette Linee Guida.
La medicina è nata prima della scienza moderna e quest’ultima spesso si è trovata a spiegare a posteriori il meccanismo di azione di farmaci usati fino a quel momento in modo empirico.
L’esperienza di migliaia di omeopati e dei loro pazienti non può non essere considerata un’evidenza solo perché non è chiaro, alla luce delle attuali conoscenze scientifiche, quali sia il meccanismo di azione dei farmaci omeopatici.
E’ ragionevole pensare, proprio alla luce dello sviluppo storico della scienza, che presto il meccanismo di azione di un ultra diluizione sarà spiegato forse anche grazie alla fisica quantistica, di cui oggi si parla tanto (e non sempre a proposito, spesso consegnando al mondo new-age quanto dovrebbe appartenere a una ricerca seria).
Non dovremmo inoltre dimenticare, limitandoci alle diatribe sull’omeopatia, che abbiamo tutto un patrimonio di medicine tradizionali, con un bagaglio secolare di sapienza che rischia di andare perduto, se non si cercano con urgenza nuovi epistemi e nuove modalità di ricerca.
Quello che sarebbe importante è sedersi intorno a un tavolo, allopati ed omeopati senza rivalità od ostilità, e iniziare a studiare insieme questi fenomeni perché il tema della salute non può essere ristretto a un solo pensiero dominante e prevalente.
In fondo lo scollamento fiduciario, tra quello che i malati si aspettano dai medici e quello che i medici sono in grado di offrire oggi, è sempre più ampio ed è l’espressione di una crisi della medicina e della professione medica che è sotto gli occhi di tutti.
L’apporto delle Medicine Tradizionali e Complementari, con un’attenzione alla complessità della persona che soffre, alla relazione medico-paziente (che non è amabilità ma strumento di conoscenza per la giusta prescrizione), dovrebbe essere riconosciuto e apprezzato anche dal mondo accademico, perché quello che dovrebbe premere a tutti noi è solo la salute delle persone.
Sull’incommensurabilità e incomunicabilità dei paradigmi - Il caso dell’omeopatia
Si discute da decenni di omeopatia (dal greco omeios, simile e pathos, malattia). Un approccio alla cura, basato sulla legge dei simili, che prevede l'utilizzo di un rimedio (omeopatico) che produce nella persona sana gli stessi effetti (sintomi) della malattia che si vuole curare. Pertanto, il rimedio è simile alla malattia nella manifestazione dei sintomi che produce, ma di specie od origine diversa, cioè non è derivato o composto dello stesso agente che causa la malattia.
È certamente un’idea contro-intuitiva; e quindi non facile da accettare.
Ma anche il principio su cui sono nate le vaccinazioni era fortemente contro-intuitivo: inoculare un agente patogeno in un corpo, al fine di prevenire la malattia causata dallo stesso agente patogeno, all’inizio era considerata un’assurdità. Di solito se voglio non ammalarmi, cerco di stare a distanza dall’agente patogeno; non certamente lo introduco intenzionalmente nel mio corpo. Eppure sappiamo che con le vaccinazioni si fa proprio questo.
Le origini
Il medico tedesco Samuel C.F. Hahnemann (1755 – 1843) arrivò alla definizione di questo metodo di cura attraverso l’intuizione, la sperimentazione (dapprima della corteccia di China, da cui si estrae il chinino con cui si curava la malaria, e poi di altri rimedi su sé stesso, i suoi familiari e i suoi allievi, e raccogliendo una grande quantità di esempi clinici) e l'osservazione dei meccanismi della biologia, analizzando ciò che accade quando nello stesso soggetto si incontrano due malattie che hanno sintomi completamente diversi (malattie dissimili), oppure malattie con sintomi comuni (malattie simili).
Per evitare gli effetti collaterali delle medicine o rimedi omeopatici, Hahnemann ridusse sempre di più il loro dosaggio, arrivando così a dosi estremamente basse. Di fronte all'obiezione che dosi così piccole non potevano più essere efficaci, egli ribatté che l'efficacia curativa delle sostanze poteva essere enormemente aumentata tramite un processo chiamato "dinamizzazione", consistente nello scuotere (succussione) ripetutamente il prodotto.
Esistono oggi numerosi studi fisico-chimici che spiegano il meccanismo d'azione di tali diluizioni. Il problema rimane la riproducibilità di tali esperimenti, data l'instabilità di queste diluizioni (si veda Associazione Lycopodium 2019, Introduzione all’omeopatia).
Ai giorni nostri
Nel 1988 venne per la prima volta avanzata l'ipotesi della memoria elettromagnetica dell'acqua da parte dell’immunologo francese Jacques Benveniste (1935-2004). Quella che allora sembrava un'eresia, oggi è documentata da diversi gruppi di ricerca:
«In pratica, l'acqua ha un comportamento dinamico e le molecole sono in grado di formare dei reticoli assimilabili a un filo conduttore. Quando l'acqua viene posta in un campo magnetico le molecole si mettono ad oscillare all'unisono in modo coerente, o come si dice, in fase. La frequenza di oscillazione può essere trasmessa ai liquidi biologici» (Associazione Lycopodium 2019, Introduzione all’omeopatia).
In altre parole, l'acqua si comporta non come un materiale inerte e passivo, bensì dinamico nella trasmissione di una informazione energetica. Ogni stimolo fisico-chimico, e quindi anche la sostanza del rimedio, ha una certa frequenza di oscillazione che viene trasmessa all'acqua della soluzione, la quale continua a vibrare con la stessa frequenza anche quando la sostanza non è più presente.
«Il processo di agitazione del liquido (succussione) avrebbe proprio il compito di ‘riattivare la memoria dell'acqua’ ad ogni passaggio di diluizione, cioè 'rienergizzarla' con la stessa frequenza corrispondente alla sostanza iniziale. L'acqua fungerebbe così da messaggero, trasferendo poi la frequenza di oscillazione, ovvero l'informazione, ai tessuti e ai liquidi biologici dell'organismo che l'assume.
Sono state fatte altre ipotesi sul meccanismo di trasferimento dell'informazione da parte dell'acqua (tramite degli aggregati di molecole particolari, cavi al centro, che incorporerebbero così la molecola di soluto, i cosiddetti cluster) e la possibilità di una verifica sperimentale non sembra più così lontana.
La ricerca di base in Omeopatia ha ormai permesso di ritenere che il rimedio omeopatico sia dotato di una specificità nei confronti di sistemi 'recettoriali' dell'organismo. Il segnale veicolato dalla soluzione viene riconosciuto specificamente dall'organismo bersaglio ed elaborato in modo da indurre un'azione positiva su tutto il sistema. Si tratterebbe comunque di un'attività biologica in presenza di tracce di molecole, tanto che è stato coniato il termine di biologia metamolecolare, e l'informazione veicolata differisce da quella conosciuta dalla biologia e dalla farmacologia classiche» (Associazione Lycopodium 2019,Introduzione all’omeopatia).
Sappiamo che queste affermazioni sono ritenute prive di fondamento e di solide basi sperimentali da parte di molta medicina, biologia e farmacologia (più aperti sembrano invece i fisici teorici). Le diluizioni vengono considerate “acqua fresca” e gli effetti benefici dell’omeopatia come un “effetto placebo” dell’empatia, ascolto, attenzione, cura che il/la medico omeopata mette nella relazione con il/la paziente.
Una difficile mediazione
Come se ne esce? È possibile trovare una mediazione? Sì e no.
Sì,
nel senso che una mediazione è da tempo già praticata, anche in diverse strutture pubbliche del Sistema Sanitario Nazionale (ad esempio la Regione Toscana, sin dal 1996), dove la “medicina integrativa” o TCIM (Traditional, Complementary and Integrative Medicine) mostra tutta la sua utilità ed efficacia.
La TCIM, per come l’ha definita l’OMS (Organizzazione Mondiale della Sanità),
“è la dimora di numerose concezioni e sistemi medici, come la medicina tradizionale cinese, la medicina ayurvedica, l’omeopatia, la medicina antroposofica e le medicine tradizionali locali. La caratteristica della TCIM è quella di integrare le cure convenzionali, farmacologiche e non, con altri approcci basati sull’esperienza artistica, sul movimento, sulle cure infermieristiche, sul colloquio biografico. Metodi diversi che si appellano all’attivazione del paziente e che risvegliano risorse latenti di guarigione molto differenti fra loro. Inoltre, la TCIM si propone strategie di ricerca che tengano conto della salute globale, per esempio sviluppando approcci di cura rivolti alle malattie croniche o a contribuire ad affrontare problemi collettivi come quello della resistenza antimicrobica (Kienle et al. 2019; Baars et al. 2019). Questi sistemi medici sono orientati primariamente alla qualità della vita, ma non si limitano ad essa; inoltre, si rivolgono non solo al paziente, ma anche ai curanti, per la prevenzione del burnout (Ben Arye et al. 2021).
No,
perché quello a cui assistiamo è uno scontro tra paradigmi, nel senso di Kuhn (1962, La Struttura delle Rivoluzioni Scientifiche).
Ogni paradigma ha i suoi assunti (taciti e/o espliciti), le sue premesse epistemologiche, le sue convenzioni metodologiche relative a quali siano i metodi adatti e cosa rappresenti un prova o un’evidenza.
Approssimando non poco, perché sia all’interno della medicina allopatica che in quella omeopatica esistono molte differenze, sfumature e sensibilità, attualmente nella medicina allopatica è dominante l’approccio basato sull’evidenza (EBM), che al di là dell’altisonante uso del termine ‘evidenza’, con esso intende «l'uso di stime matematiche del rischio di benefici e danni, derivate da ricerche di alta qualità su campioni di popolazione, per informare il processo decisionale clinico nelle fasi di indagine diagnostica o la gestione di singoli pazienti» (Greenhalgh 2010, How To Read a Paper: The Basics of Evidence-Based Medicine, p. 1). In altre parole, le evidenze sono risultanze statistiche derivate da studi a doppio cieco su campioni di popolazione. Conosciamo però (oltre ai pregi, anche) tutti i limiti di questo metodo. Pensiamo soltanto che non pochi farmaci sono stati ritirati dal mercato (ad es. dietilstilbestrolo, talidomìde, vioxx) dopo aver passato rigorosissimi (almeno si spera) studi statistici a doppio cieco.
Come mai? Le ragioni sono tante (e servirebbe un post apposito per elencarle). Una per tutte è che ognuno di noi è fatto in modo diverso; siamo portatori di una biologia individuale o personalizzata (Lock, 1995; Lock & Nguyen, 2010; Merz, 2021). Per cui l’interazione tra una biologia individuale e un farmaco standardizzato produce un numero enorme di possibili esiti; ancor di più, quando l’interazione è tra due individualità, come ad esempio un individuo e un cibo, oppure una malattia.
Al contrario l’omeopatia è una practice-based medicine, cioè si basa sullo studio e l’osservazione di un paziente considerato nella sua individualità anziché rappresentatività. Su quello che accade concretamente a lui o lei, e solo a lui o lei. Sulla sua interazione con l’agente patogeno e la malattia, che è un’interazione del tutto particolare, specifica, personale. Su studi clinici (pochi casi) anziché statistici (molti casi).
Due diversi (e incomunicabili) concetti di empiria
Ci troviamo di fronte a due empirie diverse e (forse) incomunicabili. La prima (quella statistica), per cui i casi singoli non contano nulla. L’altra (quella clinica) per cui contano solo i casi individuali.
Ed è su questi differenti concetti di cosa sia ‘empirico’ che si è (anche) giocato lo scontro sulle terapie anti-Covid: da una parte molti medici di base (peraltro pienamente appartenenti alla medicina convenzionale, che nulla o poco avevano a che fare con l’omeopatia) che proponevano terapie precoci anti-covid basate su farmaci convenzionali (come ketoprofene, ibuprofene a basse dosi, morniflumato, aspirina, nimesulide, corticosteroidi, eparine, idrossiclorochina, Azitromicina, Paxlovid, Remdesivir, ecc.); dall’altra gli ospedalieri e la gran parte dei ricercatori/scienziati che sostenevano che bisognava aspettare gli esiti degli studi standardizzati prima proporre una terapia, perché non credevano alle esperienze empiriche (limitate nel numero di casi) dei medici di base. E così, in attesa di un bel studio a doppio cieco, le persone morivano senza assistenza… La cecità del doppio cieco, potremmo dire.
Spesso chi critica l’omeopatia sostiene che i suoi asserti non hanno superato i requisiti di riproducibilità di un esperimento, che insieme alla verificabilità di una ipotesi di lavoro, rappresentano i due pilastri fondamentali della ricerca scientifica. Chi ragiona in questo modo, però, dimentica che l’esperimento è solo una fra i (tanti) metodi scientifici che le scienze dispongono per validare le scoperte e le conoscenze. Anche perché l’esperimento (oltre agli innumerevoli pregi) è un metodo con molti limiti, capace di controllare soltanto un numero molto esiguo di variabili, che per funzionare deve necessariamente ridurre la complessità dell’interazione tra un individuo e il mondo circostante. In questo sta la straordinaria potenza dell’esperimento, ma al contempo la sua povertà intellettuale e culturale. L’esperimento non è capace di padroneggiare la complessità. Ha bisogno di ridurre…
Un’altra accusa, complementare alla precedente, che si muove all’omeopatia è che non è in grado di mostrare e replicare i meccanismi chimici su cui si basano le sue ipotesi. Oppure che affida le spiegazioni sul funzionamento molecolare dei rimedi omeopatici a future “magnifiche sorti e progressive” della fisica quantistica; mentre le spiegazioni noi le vorremmo ora, e non domani. In altri termini, si vedono gli effetti di un trattamento omeopatico, ma non si evidenziano chiaramente le cause, i meccanismi. Accusa speculare a quella che, invece, gli omeopati rivolgono ai farmaci convenzionali: intervengono sugli effetti e non sulle cause (innescando, a volte, anche reazioni avverse).
Anche in questo caso, l’impossibilità di comunicare e comprendersi è alta. Eppure pretendere di capire tutto e subito (di un farmaco, di un trattamento, di una teoria) è segno di scarsa apertura al possibile, all’inconoscibile, all’ignoto, al mistero…
L’aspirina
L’ASPIRIN è acido acetilsalicilico, della famiglia dei salicilati. Erodoto (V sec a.C.) nelle Storie narra di un popolo stranamente più resistente di altri alle comuni malattie, che era solito mangiare le foglie di salice. Ippocrate (V sec a.C.) descrisse una polvere amara estratta dalla corteccia del salice che era utile per alleviare mal di testa, febbre, dolori muscolari, reumatismi e brividi. Un rimedio simile è citato anche dai Sumeri, dagli antichi Egizi e dagli Assiri. Anche i nativi americani lo conoscevano e lo usavano.
Nell'era moderna è stato il reverendo Edward Stone, nel 1757, a scoprire gli effetti benefici della corteccia di salice. Sei anni dopo scrisse una famosa lettera alla Royal Society in cui giustificava in modo razionale l'utilizzo della sostanza contro le febbri.
La sostanza attiva dell'estratto di corteccia del salice bianco (Salix alba), chiamato salicina, fu isolata in cristalli nel 1828 da Johann A. Buchner e in seguito da Henri Leroux, un farmacista francese, e da Raffaele Piria, un chimico calabrese emigrato a Parigi, che diede al composto il nome attuale (acide salicylique).
Nel 1860 Hermann Kolbe e i suoi studenti dell'Università di Marburgo riuscirono a sintetizzare l'acido salicilico, immettendolo poi sul mercato nel 1874 a un prezzo dieci volte inferiore all'acido estratto dalla salicina, e già nel 1876 un gruppo di scienziati tedeschi, tra cui Franz Stricker e Ludwig Riess, pubblicarono su The Lancet gli esiti delle loro terapie basate sulla somministrazione di sei grammi di salicilati al giorno.
Il meccanismo di azione dell'aspirina fu conosciuto in dettaglio solamente nel 1970, dopo millenni di suo uso e 150 anni dal suo isolamento chimico.
Perché escludere che potrebbe accadere lo stesso anche per i preparati omeopatici?
In conclusione: l’omeopatia è una scienza?
Qualche tempo fa, Ioannidis (2005), medico ed epidemiologo greco e statunitense, uno dei più importanti scienziati nel suo campo, pubblicò un articolo dal titolo destabilizzante: Why most published research findings are false. Dieci anni più tardi, l’11 aprile 2015, Richard Horton (dal 1995 capo-redattore de The Lancet, forse la rivista medica più importante del settore) pubblicò una sorta di editoriale dal titolo “What is medicine’s 5 sigma?“, in cui afferma senza mezzi termini:
“gran parte della letteratura scientifica, forse la metà, potrebbe semplicemente essere falsa (untrue). Afflitta da studi con campioni di piccole dimensioni, effetti risibili, analisi esplorative non valide e evidenti conflitti di interesse, insieme a un'ossessione nel perseguire tendenze alla moda di dubbia importanza, la scienza ha preso una svolta verso il buio. Come ha detto uno degli addetti ai lavori "metodi scadenti ottengono risultati".
Se adottiamo una visione realistica (lontana da una versione idealista o normativo/prescrittiva della scienza, purtroppo propria di molta filosofia della scienza) dobbiamo accettare che le situazioni descritte da Ioannidis e Horton sono… scienza. Che ci piaccia o no.
E se queste pratiche (incerte, dubbie, difettose) sono a tutti gli effetti attività scientifiche, perché non accogliere e considerare anche l’omeopatia una scienza?
Chi lo vieta? Soltanto un’ottusità di sapore neopositivista…
Bibliografia
Baars EW, Zoen EB, Breitkreuz T, Martin D, Matthes H, von Schoen-Angerer T, Soldner G, Vagedes J, van Wietmarschen H, Patijn O, Willcox M, von Flotow P, Teut M, von Ammon K, Thangavelu M, Wolf U, Hummelsberger J, Nicolai T, Hartemann P, Szőke H, McIntyre M, van der Werf ET, Huber R. (2019) The Contribution of Complementary and Alternative Medicine to Reduce Antibiotic Use: A Narrative Review of Health Concepts, Prevention, and Treatment Strategies. Evid Based Complement Alternat Med. Feb 3: 5365608.
Ben-Arye E, Zohar S, Keshet Y, Gressel O, Samuels N, Eden A, Vagedes J, Kassem S. (2021), Sensing the lightness: a narrative analysis of an integrative medicine program for healthcare providers in the COVID-19 department. Support Care Cancer, Sept. 15:1–8.
Gobo, G, Campo E. e Portalupi E. (2023), A Systemic Approach to Health and Disease: The Interaction of Individuals, Medicines, Cultures and Environment”, in Medicine: A Science in the Middle, Alessandro Pingitore and Alfonso Maurizio Iacono (eds.), Berlin: Springer, pp. 39-53.
Kienle GS, Ben-Arye E, Berger B, Cuadrado Nahum C, Falkenberg T, Kapócs G, Kiene H, Martin D, Wolf U, Szöke H. (2019), Contributing to Global Health: Development of a Consensus-Based Whole Systems Research Strategy for Anthroposophic Medicine. Evid Based Complement Alternat Med. Nov 12: 3706143.
Lock M. (1995). Encounters with aging: Mythologies of menopause in Japan and North America, Berkeley (California): University of California Press.
Lock M., & Nguyen V-K. (2010). An anthropology of biomedicine, Hoboken (New Jersey): Wiley-Blackwell.
Merz S. (2021). Global trials, local bodies: Negotiating difference and sameness in Indian for-profit clinical trials. Science, Technology, & Human Values, 46(4), 882-905.
L'argomento fantoccio (dall'inglese straw man argument o straw man fallacy) è una fallacia logica che consiste nel confutare un argomento, proponendone una rappresentazione errata, distorta o addirittura ridicola.
Senza tentar di scrivere nulla di originale, possiamo affidarci al relativo articolo di Wikipedia, che recita:
«
in una discussione una persona sostituisce all'argomento A un nuovo argomento B, in apparenza simile. In questo modo la discussione si sposta sull'argomento B. Così l'argomento A non viene affrontato. Ma l'argomento B è fittizio: è stato costruito espressamente per mettere in difficoltà l'interlocutore (ecco perché “fantoccio”). Se l'operazione retorica riesce sembrerà che l'avversario sia riuscito a smontare l'argomento A. Tutto sta nel far sembrare che A e B coincidano.
L'argomento fantoccio è generalmente un argomento più debole di quello iniziale e per questa ragione più facile da contestare.
L'argomento può essere costruito:
-
- estremizzando l'argomento iniziale;
- citando fuori contesto parti dell'argomento iniziale;
- inserendo nella discussione una persona che difenda debolmente l'argomento iniziale e confutando la difesa più debole dando l'impressione che anche l'argomento iniziale sia stato confutato;
- citando casi-limite dal forte impatto emotivo;
- citando eventi avvenuti sporadicamente e/o accidentalmente e presentandoli come se fossero la prassi;
- forzando analogie fra argomenti solo apparentemente collegati tra loro;
- semplificando eccessivamente l'argomento iniziale;
- inventando una persona fittizia che abbia idee o convinzioni facilmente criticabili facendo credere che il difensore dell'argomento iniziale condivida le opinioni della persona fittizia.
Esempi
A un argomento fantoccio si può fare riferimento per deviare una discussione nel corso di un dibattito.
-
- A: Il proibizionismo non è lo strumento migliore per evitare il diffondersi dell'alcolismo.
- B: Soltanto persone senza un'etica potrebbero proporre di consentire a tutti, compresi i minori, un accesso indiscriminato all'alcool.
La persona A non aveva proposto di offrire un accesso indiscriminato all'alcool, ma di tentare un approccio diverso da quello basato solo sulla proibizione e la repressione. La fallacia sta nell'estremizzare la posizione adottata da A fino a trasformarla in qualcosa di diverso da ciò che A intendeva dire e di molto più attaccabile nella discussione.
-
- A: Bisognerebbe ridurre gli investimenti in campo militare e aumentare gli investimenti nella ricerca.
- B: A vuole lasciarci indifesi contro i nemici.
La persona B ha estremizzato l'argomento della persona A che parlava di ridurre, non eliminare, gli investimenti in campo militare.
»
Questa lunga citazione ben introduce il terrapiattismo come argomento fantoccio per delegittimare la critica sociale.
Molti giornalisti, filosofi, sociologi, politologi e psicologi (nelle loro argomentazioni) amano inserire nella categoria dei complottisti un guazzabuglio di soggetti: no-vax, vegani, no-TAV, negazionisti climatici, 5G, antivivisezionisti, biodinamici, omeopati ecc. e terrappiattisti. Che cosa abbiano in comune queste persone non è dato saperlo, però il minestrone è sempre un piatto (intellettualmente) povero che sfama tutti.
Un fenomeno irrisorio
Ebbene, se tutti gli altri soggetti hanno al loro interno scienziati (anche di grande qualità e, a volte, anche più famosi di quelli che li denigrano), non mi risulta esistano scienziati terrapiattisti.
Se tornate su Wikipedia, dove si parla della Flat Earth Society (“Associazione della Terra Piatta”), nata in Inghilterra, che sostiene il mito della "Terra piatta" e che conta membri (quanti?) sparsi in tutto il mondo, non troverete un solo scienziato. Così anche in Italia.
Inoltre, chi il 24 novembre 2017 è andato (in un hotel della periferia milanese) al convegno dei terrapiattisti italiani, ha affermato che in sala «erano presenti 40-50 persone: togliendo relatori, giornalisti e curiosi, i terrapiattisti convinti tra il pubblico erano forse una ventina. Non molti, considerando che siamo in una grande città».
“Nel 2018, Le Iene e Vice Italia si spingono in un ristorante di Agerola, in provincia di Napoli per assistere a un convegno nazionale di terrapiattisti e contano meno di cinquanta persone. L’anno seguente, Wired e lo youtuber Barbascura li raggiungono in un hotel di Palermo: rilevano la stessa affluenza e sono entrambi convinti che almeno la metà dei presenti sia lì per ridere o contestare” (Lolli 2023, Il complottismo non esiste o Miseria dell’anticomplottismo, pp.240-1).
Sempre Alessandro Lolli racconta anche che nel 2021 il Censis fece una ricerca da cui risultava che il 5,8% della popolazione italiana (cioè circa 3.400.000) era terrapiattista. Un numero enorme. Significa che ogni 100 persone che conosciamo, 6 sono terrappiattisti. E siccome io non ne ho mai incontrato uno, il mio collega (certamente un complottista) ne conosce 12.
Ma dove stanno tutti ‘sti terrapiattisti? Tutti nascosti? Ma al Censis non è sorto il dubbio che gli intervistati forse lo stavano prendendo in giro (perculà dicono a Roma)?
In conclusione, di che cosa stiamo parlando? Del (quasi) nulla.
Perché, allora, si dà grande spazio (sui mass media e in accademia) a questo fenomeno praticamente inesistente? Scomodando nientepopodimeno che il fisico Luciano Maiani (ex direttore del Cern a Ginevra e del Cnr a Roma, professore di Fisica Teorica alla Sapienza di Roma, socio linceo), che scrive addirittura una lettera a un terrapiattista.
Con tutte le cose importanti da fare, proprio dei terrapiattisti ci si deve occupare?
E perché mescolarli con un fenomeno di critica scientifica e sociale ben più consistente (sia numericamente che qualitativamente)?
Cui prodest? avrebbero detto gli antichi latini… loro sì convinti terrapiattisti.
Il libero arbitrio oltre il dibattito filosofico – Incontri con le scienze empiriche
L’idea che l’essere umano disponga di una volontà libera e che, quindi, possa autodeterminarsi e controllare le proprie azioni, fa parte del bagaglio di intuizioni su cui poggiano le nostre pratiche quotidiane.
Si può certamente sostenere che l’idea del libero arbitrio non solo condizioni il senso che attribuiamo alla nostra esistenza, ma soprattutto guida le nostre pratiche sociali quotidiane, arricchendole di significato.
Dal punto di vista del “senso comune” il libero arbitrio è un concetto utilizzato per definire la libertà di agire di cui gode l’essere umano, concetto che permette di dire che «noi siamo liberi e non possiamo non esserlo» e che «è semplicemente ovvio che noi godiamo della libertà. Secondo questa intuizione, non c’è dubbio che noi controlliamo, in molti casi, le scelte e le azioni che compiamo, che di esse portiamo la responsabilità e che, dunque, possiamo dirci arbitri del nostro destino» (De Caro 2004, Il libero arbitrio - Una introduzione, p. 3).
Si tratta, secondo il senso comune della libertà di un soggetto che si percepisce come causa delle proprie azioni, che si autodetermina, in termini di possibilità di iniziare, mettere in atto e controllare dei comportamenti adeguati a produrre un’azione, sia nel senso che le azioni sono manifestazione di un’individualità, di un Sé costituito da un insieme di valori che guidano coerentemente le decisioni e, pertanto, le azioni.
Tuttavia, molti pensatori hanno messo in discussione tale intuizione, in quanto apparentemente incompatibile con le conoscenze che abbiamo del mondo naturale, spianando così la strada ad un dibattito che mantiene vivo l’interesse speculativo.
Ad esempio, in aperto contrasto con il senso comune troviamo la teoria del determinismo causale, che sostiene l’idea che ogni evento sia necessitato da eventi e condizioni antecedenti ad esso, in accordo alle leggi di natura (Hoefer 2016, Causal Determinism). Ogni evento dell’universo sottostà, quindi, a processi deterministici, è il prodotto di una concatenazione causale che non lascia spazio ad alcuna incertezza.
In quest’ottica, anche l’essere umano dovrebbe essere soggetto a tali processi deterministici ed essere inserito in una concatenazione causale definita.
In modo molto radicale e polarizzato, «la questione del libero arbitrio si può dunque porre come un’alternativa tra due scenari: uno nel quale gli esseri umani sono vincolati in modo ferreo, come fossero automi, ad agire e a scegliere in un certo modo; l’altro, nel quale gli esseri umani sono agenti che hanno la possibilità di determinare il proprio destino» (De Caro 2004, p. 6).
Tra le principali posizioni a favore di una concezione ampia del libero arbitrio c’è quella libertaria: il libertarismo è «la concezione secondo la quale la libertà è possibile soltanto in un mondo indeterministico» (De Caro 2004, p. 89). La posizione libertaria non solo sostiene l’esistenza del libero arbitrio, ma rappresenta anche la posizione teorica considerata più vicina all’immagine pre-filosofica della libertà offerta dal senso comune.
Oggi proviamo a vedere in che modo la riflessione filosofica si è avvicinata alla meccanica quantistica, e come abbia tentato una interpretazione dei risultati empirici come giustificazione dell’indeterminismo libertario.
La meccanica quantistica fu sviluppata nel 1900 a partire dalla teoria dei quanti di Max Planck. Secondo questa teoria «l’energia delle radiazioni non viene emessa o assorbita dalla materia per valori continui ma solo per multipli interi di una certa quantità, data dal prodotto della frequenza della radiazione per una costante, detta di Planck» (Benanti, 2018, Un secolo di novità complesse, p. 19).
Da qui, Niels Bohr sviluppò una descrizione dei fenomeni subatomici che non poteva che portare all’inevitabile rottura con la meccanica classica, poiché – secondo questa descrizione - i fenomeni subatomici non possono essere studiati secondo un modello deterministico ma solo probabilistico.
Emerge, inoltre, l’idea che la realtà stessa non abbia una natura stabile e univoca, poiché le modalità di osservazione incidono significativamente sul comportamento degli oggetti osservati.
Il tentativo di utilizzare la meccanica quantistica per legittimare l’indeterminismo libertario si basa proprio sull’idea che in natura vi siano dei fenomeni che si realizzano sulla base di meccanismi stocastici e, quindi, non deterministici.
Tuttavia, affinché tale proposta sia sottoscrivibile bisogna chiarire due questioni:
- in primo luogo, se l’indeterminismo descritto a livello microscopico sia effettivamente tale ed abbia qualche effetto a livello macroscopico;
- in secondo luogo, in che modo tale indeterminismo riesca a garantire il libero arbitrio nell’essere umano. Infatti, che gli eventi del mondo si realizzino su base probabilistica e non deterministica, non implica affatto che anche la nostra mente funzioni secondo un meccanismo di questo tipo.
1. Possibili effetti a livello macroscopico dell'indeterminismo microscopico
Per affrontare il primo punto dobbiamo ricordare che l’approccio probabilistico alla descrizione del comportamento di particelle subatomiche può essere interpretato in almeno tre modi:
- secondo l’interpretazione più diffusa, definita “interpretazione di Copenaghen”, le equazioni della meccanica quantistica descrivono integralmente come funziona la realtà fisica, ovvero «sono probabilistiche perché il mondo è fondamentalmente indeterministico» (Levy 2007, Challenges for the 21st Century, p. 224).
- Al contrario, interpretazioni alternative affermano che il carattere probabilistico di tali equazioni deriva dalla mancanza di osservazioni adeguate o della conoscenza di variabili nascoste. Pertanto, l’universo sarebbe interamente regolato da meccanismi deterministici, ma i nostri strumenti non sono adeguati a coglierli (Ibid).
- Altri autori, invece, hanno evidenziato il fatto che, pur ammettendo che i processi indeterministici postulati dalla meccanica quantistica siano veri, probabilmente questi non hanno «ricadute significative al livello macroscopico» e, pertanto, «è ragionevole ritenere che al livello macroscopico la tesi deterministica sia approssimativamente vera e che, dunque, gli eventi macroscopici in genere, e le nostre azioni in particolare, manifestino comportamenti sostanzialmente deterministici» (De Caro, p. 18).
Pertanto, sebbene la meccanica quantistica si sia rivelata uno strumento efficace per predire accuratamente certi fenomeni osservabili, è difficile affermare che possa essere una dimostrazione della verità dell’indeterminismo.
Addirittura, De Caro ci mette in guardia sul fatto che – se pure si trovassero dei riscontri a favore della tesi dell’indeterminismo nella meccanica quantistica - non «è impossibile (come ci ha insegnato la storia della scienza) che in futuro tale teoria venga abbandonata e rimpiazzata da una teoria esplicitamente deterministica» (2004, p. 18).
2. L’indeterminismo può essere una garanzia per il libero arbitrio?
Proviamo ora ad affrontare il secondo punto: in che modo la meccanica quantistica possa rappresentare un sostegno per le teorie indeterministiche del libero arbitrio.
Anche su questo troviamo opinioni contrastanti: una volta, infatti, accettate le premesse che il mondo sia regolato da processi indeterministici e che questi abbiano una qualche influenza causale anche al livello macroscopico, non è chiaro in che modo sia giustificabile il libero arbitrio.
Infatti, se anche le nostre azioni fossero causate da processi probabilistici condizionati dall’indeterminismo subatomico, questo non implica necessariamente che siamo liberi di fare ciò che vogliamo. Addirittura, il fatto che le nostre azioni possano essere condizionate da eventi randomici sembra piuttosto indebolire, e non rafforzare, il nostro libero arbitrio poiché non c’è possibilità di controllare le proprie azioni (Levy 2007, p. 224). Detto in altre parole, «se fosse vero l’indeterminismo le azioni umane, al pari di tutti gli altri eventi, sarebbero fisicamente indeterminate; nulla, dunque, ne determinerebbe il verificarsi – a fortiori, nemmeno gli agenti» (De Caro 2004, p. 19).
Una strategia alternativa consiste di servirsi della meccanica quantistica per costruire un’analogia con il libero arbitrio. Di fondo, per chi si occupa della questione della libertà dell’essere umano, poco importa «se la tesi del determinismo scientifico universale sia vera» (Ivi, p.16). Ciò che conta è se la nostra mente funzioni sulla base di processi deterministici o meno.
Evidentemente, la questione è ben lontana dall’essere risolta.
Quello che viene suggerito dall’evidenza empirica è che sembrano essere presenti - a diversi livelli dell’attività cerebrale - meccanismi sia deterministici che stocastici e questo non mette la discussione su un binario univoco ma, al contrario, sembra alimentare la controversia.
Seveso, 1976 - Il Comitato tecnico scientifico popolare attraverso le fonti orali e d’archivio
Nell’articolo Le nuvole scrivono il cielo di Seveso - Il crimine di pace, la scienza e il potere di qualche settimana fa avevo brevemente introdotto che cosa accadde il 10 luglio 1976 a Seveso-Meda, che cos’era l’Icmesa e alcuni problemi nati con il “disastro”, che interpellano il rapporto tra produzione industriale, ricerca scientifica, ambiente, salute e popolazione, alternando l’utilizzo di fonti bibliografiche, articoli di cronaca e interviste realizzate durante la mia ricerca etnografica a Seveso. Nelle prossime righe mi concentrerò sulle vicende del “Comitato tecnico scientifico popolare” che nacque all’indomani del “disastro”.
Con l’evento del 10 luglio 1976, a Seveso sorsero nuovi gruppi organizzati di abitanti e nuove soggettività sociali e politiche. Il rovesciamento della dimensione quotidiana e l’affacciarsi di una «crisi della presenza»1 avevano portato all’emergenza di coaguli di persone che «non si limitavano al ruolo di vittime, come dicevamo noi, ma appunto hanno cercato di costruire dei legami e dei rapporti e di darsi degli strumenti di comprensione critica»2 e la cui sede principale a Seveso era il Circolo del Vicolo. Stefano, un ragazzo di vent’anni nel 1976 che lavorava in una falegnameria e aveva l’intenzione di iscriversi all’università, ricorda nel documentario «Seveso, Memoria di parte» il momento di fondazione del circolo.
«
Ci si è trovati in un momento in cui la gente era estremamente preoccupata per la propria salute, ma avevano a che fare con un tossico impalpabile, inodore, incolore, invisibile. Il momento della fuoriuscita, che era il momento evidente, era passato. Il tossico ormai era depositato sui tetti, sui muri, sui pavimenti lastricati, sui terreni, ma non si vedeva. Per cui la gente iniziava ad avere la preoccupazione per la propria salute, ma andava esorcizzata perciò ci si appellava al matto di turno che diceva “non è successo niente, io vado a mangiare l’insalata lì dentro”, perché questo abbassava la tensione. Questo è servito per molti in buona fede, per molti altri ne hanno avuta un meno di buona fede dicendo le medesime cose, serviva per tenere moderata la tensione che vivevano quotidianamente. Abbiamo costruito questo che si chiamava Circolo del Vicolo perché la sede si trovò in una via che di chiamava Via del Vicolo, da lì Circolo del Vicolo.3
»
Stefano racconta che l’ingente lavoro politico e culturale prodotto dal circolo nasceva dalla necessità di rispondere a bisogni e desideri che riguardavano l’esistenza intera. Per lui è stato un periodo nel quale la gente discuteva dappertutto e vi era un’adesione sociale molto elevata a qualsiasi tipo di situazione per un «trascinarsi probabilmente di quello che era la partecipazione alle lotte operaie»[4].
Il Circolo del Vicolo, nella sua dimensione locale, era un’espressione di questa stagione dei “movimenti” e, come sottolinea Stefano, il movimento operaio e le lotte dei lavoratori e delle lavoratrici per il salario e la salute in fabbrica trascinarono e crearono momenti di mobilitazione estesi e partecipati. Tra i gruppi che attraversarono il laboratorio politico del Circolo del Vicolo vi era il “Comitato tecnico scientifico popolare”.
Per Davide, fu il gruppo più importante nel ciclo di lotte locali a seguito del “disastro” dell’Icmesa.
«
Il [gruppo, N.d.R.] più importante sicuramente è stato il Comitato tecnico scientifico popolare che era stato creato quasi subito da alcuni lavoratori dell’Icmesa, anche membri del consiglio di fabbrica, da giovani del territorio di allora e si è avvalso subito del supporto appunto di Medicina democratica che era a sua volta collegata alle lotte per la tutela della salute nelle fabbriche. In particolare, erano arrivati quelli del gruppo di Castellanza dove c’era un grosso stabilimento Montedison, dove si erano sviluppate delle esperienze molto interessanti di lotta ma anche di autotutela da parte dei lavoratori. E quindi diciamo sono arrivati qui e si sono messi in contatto con le realtà locali e appunto poi non solo, sono nati anche gruppi per esempio legati al movimento femminista il “Gruppo donne Seveso-Cesano”. E successivamente nacquero altri gruppi più piccoli come il “Comitato di controllo zone inquinate”. Insomma, erano nate diverse realtà spontanee che erano collegate un po’ da una serie di volontà di comprensione critica e di avere un ruolo nella tutela della propria salute e anche di verità rispetto a quanto accaduto e alle responsabilità rispetto a quello che era accaduto.5
»
Il comitato era un organismo di base di contro-informazione e di lotta e aveva relazioni con altri soggetti politici della sinistra extra-parlamentare o delle componenti meno allineate alla politica di solidarietà nazionale del Pci degli anni Settanta. In particolare, vi erano dei collegamenti con “Medicina democratica movimento di lotta per la salute” e con la consigliera regionale del Pci, Laura Conti.
Fin dai primissimi giorni successivi alla fuoriuscita della nube tossica, il CTSP assunse fondamentali funzioni di informazione, controllo e organizzazione nei confronti degli operai dell’Icmesa e della popolazione sevesina. Il suo primo impegno a circa otto-dieci giorni dallo scoppio del reattore fu quello di fornire una prima sommaria ricostruzione dell’accaduto sulla base del materiale documentario raccolto e fornito dal confronto con i lavoratori dell’Icmesa. Fu così esaminato il ciclo produttivo del triclorofenolo all’interno della fabbrica per comprendere le cause che avevano portato al fatto-tragedia-disastro di Seveso. Questo lavoro fu realizzato dal confronto tra gli operai della fabbrica medese e il Gruppo P.I.A della Montedison di Castellanza, congiuntamente a Bruno Mazza dell’Istituto di chimica, fisica, elettrochimica, metallurgia del Politecnico di Milano e Vladimiro Scatturin dell’Istituto di chimica generale e inorganica dell’Università degli studi di Milano. Il documento prodotto dal titolo “Contributo del CTSP costituitosi in seguito all’inquinamento prodotto dall’ICMESA, in appoggio ai lavoratori e alla popolazione colpita” fu presentato nell’assemblea organizzata dalla Federazione unitaria Cgil-Cisl-Uil nelle scuole medie di Cesano Maderno il 28 luglio 1976. La ricostruzione del ciclo produttivo è stata in seguito pubblicata come primo articolo[6] nel numero monografico di «Sapere» dedicato a Seveso. Comprendere l’eziologia del “disastro” era un passaggio fondamentale per riflettere e agire sulle conseguenze dello stesso e per farlo era imprescindibile il coinvolgimento di chi nella fabbrica passava le sue giornate. Nella ricerca si evidenziò che l’Icmesa aveva introdotto delle varianti nel ciclo produttivo con lo scopo – secondo il Gruppo P.I.A., Mazza e Scatturin – di ridurre radicalmente i costi di produzione, scegliendo di operare in condizioni sempre più pericolose. La logica adottata dalla multinazionale svizzera era volta alla massimizzazione del profitto e faceva tendere all’infinito il «coefficiente di rischio» della produzione di sostanze ad alto rischio di tossicità, trasformando – quindi - in una certezza la possibilità di un “incidente”.
Lo scopo dell’approfondito lavoro di ricostruzione del ciclo produttivo realizzato da un’apposita commissione del CTSP metteva in questione l’astrattezza dei concetti di «univocità» e «oggettività» del ciclo produttivo e di scienza.
«
Va detto, in conclusione, che il gruppo operaio non accetta in modo astratto la «univocità» e la «oggettività» del ciclo produttivo e della scienza e tecnologia che lo hanno imposto.7
»
Il documento racchiudeva e metteva al centro la soggettività operaia riferita al ciclo stesso di produzione per fornire uno strumento utile alla comprensione del rischio vissuto quotidianamente e per partire dal punto di vista degli operai stessi.
Nelle conclusioni dell’articolo, vengono evidenziate due tipi di culture e di progresso: quella «del capitale» e quella dello «sviluppo sociale». Se la prima, spinta dalla molla del profitto economico privato, persegue lo sviluppo di una cultura basata sulla neutralità ed asetticità della scienza, sulla sua separazione dalla politica, sugli incentivi per la ricerca che provengono dai poteri privati, la seconda è portatrice di istanze critiche nei confronti del “progresso” inteso come fine ineluttabile delle società umane. Al contrario, la “cultura sociale” si proponeva di azzerare il «coefficiente di rischio» attraverso lo sviluppo di una diversa forma di sapere avente come linea portante un inedito rapporto tra tecnici-operai-popolazione. Il CTSP si proponeva come esempio di tale relazione tra l’interno e l’esterno della fabbrica. Davide ricorda proprio questo passaggio come centrale nello sviluppo della lotta sevesina.
«
Mentre nello stesso periodo le autorità sanitarie balbettavano, non sapevano cosa dire, non potevano forse dire tutto. Quindi per una fase iniziale nei primi mesi sì, [il CTSP, N.d.R.] era molto ascoltato, poi magari non tutti erano d’accordo, ma sicuramente molto ascoltato. E devo dire che inizialmente questo rispecchiava anche un legame che si stava un po’ instaurando tra territorio e fabbrica, tra territorio e lavoratori della fabbrica. Ora non la faccio troppo lunga, ma per come si era sviluppata l’industria nel territorio, nel nostro territorio c’era molto uno distacco tra la fabbrica e il territorio agricolo-artigianale di quegli anni. Tra chi lavorava in fabbrica e gli altri erano mondi un po’ strani, convivevano, ma senza proprio incontrarsi. Per un attimo quella vicenda nella sua drammaticità aveva costruito un legame perché per la prima volta quelle nocività uscivano sul territorio. Quelle nocività che non solo nella fabbrica, erano percepite come un problema della fabbrica si riversano in modo traumatico sul territorio. Quindi è la prima cosa che fa la popolazione non operaia andare a dire bah, chissà, forse chi ci lavora dentro qualcosa sa. C’è un’intervista a un lavoratore del Consiglio di Fabbrica dell’ICMESA, che racconta che alcuni genitori di bambini con la cloracne hanno contattato loro perché le autorità risposte sembravano non darne o comunque non ne parlavano volentieri e quindi si rivolgono ai lavoratori. Tra l’altro è da lì che anche i lavoratori prendono coscienza definitiva della gravità di quello che è accaduto e sospendono la produzione. Proclamano lo sciopero ad oltranza. È praticamente la fine dell’Icmesa.8
»
Gli obiettivi del comitato furono esplicitati nel bollettino pubblicato nel settembre del 1976 e si posero in contrapposizione con l’operato delle istituzioni locali, regionali e nazionali che – secondo il CTSP – avevano coperto e soffocato ogni tipo di protesta e di organizzazione degli abitanti della zona, non fornendo sufficienti informazioni sulla situazione per fare maturare una consapevolezza collettiva del rischio.
Nel prossimo articolo sul CTSP, partirò proprio da qui per scendere nel sottobosco dei documenti conservati dall’Archivio Seveso. Memoria di parte e della storia del comitato.
NOTE
1 Per «crisi della presenza» si intende una situazione in cui un individuo o un gruppo umano si trovano ad affrontare un particolare evento, come per esempio la malattia o la morte, durante il quale si sperimenta un’incertezza, una crisi radicale della possibilità di esserci nel mondo e nella storia, tanto da scoprirsi incapaci di agire e di determinare la propria azione. Si veda, E. De Martino, La fine del mondo. Contributo all’analisi delle apocalissi culturali, Torino, Einaudi, 1977.
2 Intervista a Davide, abitante di Desio e testimone del “disastro” dell’Icmesa, 27 gennaio 2024.
3 Archivio Seveso Memoria di parte (Asmp), b. CTSP, Interviste-documentario “Seveso, Memoria di parte”. Si tratta di un documentario autoprodotto dall’ “Archivio Seveso Memoria di parte”.
4 Ibidem.
5 Intervista a Davide, abitante di Desio e testimone del “disastro” dell’Icmesa, 27 gennaio 2024.
6 Si veda, Gruppo P.I.A., B. Mazza, V. Scatturin, “ICMESA: come e perché”, in «Sapere», n. 796, nov.-dic. 1976, Bari, Dedalo, pp. 10-36.
7 Ivi, p. 34.
8 Intervista a Davide, 27 gennaio 2024.