La medicina è dei medici ma la salute è di tutti
Dopo la recente inflazione di mediche[1] sui mass media, si è fatta strada l’idea che le esperte di salute siano loro. Tant’è che capita frequentemente che qualche personaggio televisivo, molto aggressivo e arrogante, di formazione medica (me ne vengono in mente almeno un paio, uomini) dica alle sue interlocutrici che lo criticano: “lei prima si prenda una laurea in medicina, e poi ne parliamo”. Nessuna però risponde a lui, che parla di comportamenti a rischio o di come ragionano i pazienti: “lei prima si prenda una laurea in sociologia o psicologia, e poi ne parliamo”. Ma, si sa, la simmetria non è un’attività molto praticata da superbi e prepotenti.
Come la fisica è delle fisiche, ma la natura o l’ambiente è di tutte (ne parleremo in un prossimo post), così la salute è un tema a cui possono dare un contributo molti tipi di esperte; non solo le mediche.
Facciamo un paio di esempi [2]:
IL CASO DELL’AIDS
All’inizio degli anni Novanta, durante i drammatici dibattiti sulla sperimentazione di medicinali contro l’AIDS e l’HIV, il sociologo Steven Epstein notò come alcuni movimenti di attiviste, per lo più composti dalle stesse pazienti, erano riusciti a trasformare la loro posizione marginale in un contributo attivo e autorevole. Epstein (1995) si concentrò su come questi gruppi di attiviste fossero riuscite a ottenere una certa credibilità e farsi riconoscere come “esperte non professioniste” (lay experts), creando una breccia nella divisione tra esperte e non esperte. A quel tempo, la difficoltà di gestione della malattia da un punto di vista farmacologico, il suo veloce diffondersi soprattutto nelle fasce di popolazione in giovane età e la mancanza di risposte ritenute adeguate da parte della medicina convenzionale, avevano creato da un lato una certa sfiducia nel riguardo della sperimentazione dei nuovi farmaci, e dall’altro un terreno fertile per le attiviste che erano così riuscite a far ascoltare la loro voce all’interno del dibattito. Il contesto storico, culturale ed economico delle sperimentazioni farmacologiche, come spesso avviene, era caratterizzato da una moltitudine di attori sociali: mediche e scienziate di varia formazione (immunologhe, epidemiologhe, mediche di famiglia ecc.), autorità sanitarie locali, federali e nazionali, compagnie farmaceutiche ecc. Ma dove collocare le pazienti e i loro parenti? Secondo Epstein, mediante una serie di strategie — come per esempio l’acquisizione di alcune conoscenze particolari che le rendessero capaci di discutere con competenza di questioni mediche e legali, la creazione di una rappresentazione politica, la presa di posizione in dibattiti metodologici preesistenti e la fusione di richieste di ordine etico con quelle di ordine epistemologico — questi gruppi di attiviste creati dalle pazienti e loro familiari riuscirono a farsi accreditare come lay expert. In questo modo, esse riuscirono a mettere in discussione alcuni assunti impliciti delle sperimentazioni, che troppo spesso emarginavano (e ancora emarginano) dal processo decisionale proprio le dirette interessate.
GLI EFFETTI DEL DISASTRO NUCLEARE DI CHERNOBYL
A partire dagli anni Novanta, l’“information deficit model” (ovvero l’idea paternalista secondo cui ogni resistenza nei confronti dell’innovazione, e della scienza in generale, deriva da una sua mancata comprensione da parte dell’opinione pubblica. Di conseguenza, quest’ultima dev’essere educata e fornita di tutte le informazioni necessarie) è stato criticato su più fronti anche grazie a studi come quello del sociologo inglese Brian Wynne (1992) a proposito della crisi della pastorizia in Cumbria (UK) a seguito del disastro nucleare di Chernobyl. In un primo momento, il governo Britannico aveva minimizzato il rischio di contaminazione, incontrando tuttavia la resistenza delle allevatrici che invece si erano immediatamente allertate. Le “esperte” degli enti governativi avevano screditato queste proteste come “irrazionali” e frutto di una mancata comprensione della valutazione scientifica delle esperte. Fu solo in un secondo momento, e dopo un lungo dibattito, che le scienziate si videro costrette a rivedere la propria valutazione. Nel frattempo, però, la sottovalutazione del fenomeno aveva già creato ingenti danni economici alla pastorizia locale. Le interviste condotte da Wynne con le allevatrici rivelarono che la loro non era una semplice mancanza di comprensione. Al contrario, esse confrontavano le informazioni fornite dagli enti governativi alla luce della loro esperienza quotidiana degli eventi atmosferici, delle acque e delle caratteristiche del terreno di quella particolare regione. Le nozioni scientifiche riguardanti il rischio e le prescrizioni su come comportarsi, venivano certamente recepite e comprese da parte delle allevatrici; ma anche attivamente trascurate per la scarsa fiducia che esse riponevano nelle istituzioni. La fiducia, infatti, non riguardava le singole informazioni o indicazioni, ma l’intero “pacchetto sociale” fatto di relazioni, interazioni e interessi all’interno del quale i vari attori sociali di muovono.
UN NUOVO MODELLO DI COMPETENZA
Grazie a questi studi, Epstein e Wynne mostrarono sia che la scienza non è una sfera autonoma sia che anche coloro che vengono considerate semplicemente pazienti e allevatrici potevano, e volevano, avere un ruolo attivo. Questo non è un caso isolato e molti sono gli esempi che potrebbero essere menzionati: i gruppi femministi nella ricerca medica contro il cancro al seno, i gruppi ambientalisti, i movimenti delle agricoltrici e molti altri ancora. In tutti questi casi, la competenza si estende ben al di là dei limiti della comunità scientifica. Proprio perché la scienza non garantisce un accesso privilegiato alla “verità”, esistono altri tipi di sapere che possono tornare utili, altre competenze e priorità da prendere in considerazione. Attribuire competenza solamente alle scienziate impedisce all’intero processo decisionale di maturare una consapevolezza della complessità degli obiettivi da porsi e delle molte possibili strade per raggiungerli.
NOTE
[1] Uso il femminile sovraesteso.
[2] Cfr. Gobo, G. e Marcheselli, V. (2021), Sociologia della scienza e della tecnologia, Roma: Carocci.
RIFERIMENTI BIBLIOGRAFICI
Epstein, Steven. 1995. “The Construction of Lay Expertise: AIDS Activism and the Forging of Credibility in the Reform of Clinical Trials”. Science, Technology, & Human Values 20(4): 408-437.
Irwin, Alan e Brian Wynne (1996), Misunderstanding science? The public reconstruction of science and technology. Cambridge: Cambridge University Press.
Wynne, B. (1992), Misunderstood Misunderstanding: Social Identities and Public Uptake of Science, in “Public Understanding of Science”, 1, 3, pp. 281-304.
Cicli glaciali e attività antropica. La concentrazione dei gas serra in atmosfera - Seconda parte
Nel precedente post[1] abbiamo mostrato che, anche se è stata dimostrata la correlazione tra l’aumento spontaneo della concentrazione di gas serra in atmosfera e il comportamento dei moti millenari del pianeta Terra, rimanevano comunque da comprendere alcune incongruenze riguardo a:
- la grande e anomala quantità di gas serra attualmente presente in atmosfera e
- la sua non riconducibilità alla sola attività dell’era industriale.
Quando si parla di emissioni di metano e di cambiamento climatico, il primo e spontaneo pensiero è di puntare il dito verso gli allevamenti di ruminanti. Complice di questo automatismo è la contingenza storica di crescente avversione nei confronti degli allevamenti intensivi per l'approvvigionamento alimentare.
Meno frequentato è, invece, un altro concorrente a questo genere di emissioni che, anche se meno celebre, è non meno importante. Anzi, è forse storicamente ben più influente nell’emissione di questo specifico gas serra: si tratta della coltivazione sommersa del riso[2].
Come promesso, riporterò qui, per brevissimi tratti, l’interessante teoria che William F. Ruddiman, paleoclimatologo della Virginia University, pubblicò nel 2001 assieme all’allora suo studente Jonathan S. Thomson, e che mette in relazione l'invenzione e la diffusione di questa tecnica di coltivazione con l’aumento anomalo di metano immesso registrato a partire da cinque millenni fa.
Mi soffermerò maggiormente sugli aspetti storici e logici che hanno permesso la validazione di questo studio[3].
L’IMPATTO ANTROPOGENICO IN GENERALE
Nei termini di adozione tecnologica, di qualità del processo produttivo e di quantità produttiva, è oggi un’evidenza apprezzabile e scientificamente dimostrata quella dell’impatto che le attività umane hanno sull’alterazione di un equilibrio climatico “naturale”. La schiera di convinti negazionisti è ormai ridotta ad una esigua cerchia che conta più che altro provocatori con altri fini o fenomeni da studio sociologico, che si autoescludono dalle discussioni serie su questo tema.
Tra la fine XIII e la metà del XIX secolo vi è stato un aumento progressivo dell’attività di disboscamento col fine di alimentare gli stabilimenti produttivi e le attività di tipo estrattivo, mentre oggi prosegue principalmente per ampliare la superficie coltivabile del pianeta.
La scoperta dei combustibili fossili avvenuta nel XIX secolo e il loro progressivo impiego in ambito industriale hanno portato all’aumento spropositato delle emissioni di anidride carbonica.
L’aumento delle emissioni di metano è, invece, per lo più imputabile: alla sua fuga accidentale durante l’estrazione e il trasporto delle risorse fossili; all’aumento della popolazione mondiale, combinato al miglioramento delle relative condizioni di vita[4], all’aumento della produzione di rifiuti e alla conseguente dell’estensione delle relative discariche a cielo aperto.
A questi fenomeni si aggiunge anche il necessario aumento delle aree agricole irrigate e di allevamento, che portano a legittimare quel “dito contro” a cui abbiamo inizialmente accennato, rivolto contro le emissioni fisiologiche dei ruminanti, ossia dalle deiezioni e dalla fermentazione enterica, ovvero dalla digestione del cibo.
Alla fine del XX secolo queste emissioni saranno tali da aver raggiunto livelli che equivalgono ai record paleoclimatici di molti milioni di anni fa, in particolari fasi dei processi di intensa formazione delle terre oggi emerse.
Abbiamo, dunque, un sospetto più che fondato: l’impatto antropogenico è la principale causa di questo aumento anomalo degli ultimi tre secoli.
Siamo ora pronti a tornare alla proposta di Ruddiman e Thomson.
LA NASCITA DELL’AGRICOLTURA E LA SCOPERTA DELL’IRRIGAZIONE SOMMERSA: L’ALTRA METÀ MANCANTE DELLE EMISSIONI DI METANO
Intrapresa la strada della ricerca sulla via del sospetto ruolo antropogenico precedente all’era industriale, i due iniziarono a valutare anche i dati archeologici provenienti proprio dall’epoca di quella prima anomalia: la naturale diminuzione di concentrazione di metano in atmosfera si arrestò e iniziò invece a risalire, contrariamente a quanto sarebbe dovuto accadere per migliaia di anni da allora fino alla prossima glaciazione.
Secondo Ruddiman e Thomson la più probabile spiegazione di questa inversione è da attribuirsi all’invenzione dell’irrigazione del riso, la cui domesticazione della pianta risalirebbe ad almeno 9000 anni fa in Cina, nel bacino dello Yangtze.
La tecnica della coltivazione sommersa, lo dimostrano i ritrovamenti archeologici, era già in uso nelle pianure Sud-Est Asiatiche 5000 anni fa[5], e si estese, 2000 anni dopo, fin nelle pianure dell’India del Nord e Centro-Orientale. Alla sua diffusione si aggiunse poi la progressiva evoluzione dell’ingegneria agricola con la creazione di sistemi di canali sempre più complessi, che portavano l’acqua dai punti più depressi delle pianure fino anche ai fianchi delle colline.
Per comprendere la portata del fenomeno studiato da Ruddiman e Thomson è, tuttavia, opportuno allontanare dalla mente la tecnica di coltivazione odierna di questa pianta erbacea, che ci porterebbe fuori strada
Diversamente dai rifiuti e dall’allevamento, la coltivazione del riso richiede per la propria produzione un’estensione non direttamente proporzionale al numero degli esseri umani che ne dipendono. Questo diviene evidente se pensiamo alla certa inefficienza della coltura del riso a partire dalle sue origini in termini di:
- varietà meno produttive che, a parità di raccolto, imponevano la necessità di inondare aree più estese del suolo;
- maggiore presenza di varietà di erbe infestanti e di biodiversità connesse all’ambiente palustre, ossia alla loro relativa decomposizione nelle stesse risaie.
Come abbiamo visto nello studio del meteorologo J. Kutzbach[6], in tutte le aree palustri, la decomposizione della materia organica in clima anaerobico è a carico dei microrganismi metanogeni, incluse in questa categoria ambientale vi sono le coltivazioni sommerse del riso.
Aree sommerse più estese, in termini pragmatici, significano una maggiore produzione di metano prodotta da questo genere di coltura.
Si può parlare di efficienza tangibile di questa tecnica agricola solo a partire dalla metà del XX secolo, con l’invenzione dei pesticidi e dei diserbanti, i quali non erano prima d’allora nel dominio d’azione tecnologica dell’agricoltore, e anche con l'evoluzione della selezione genetica delle varietà seminate. Efficienza anch’essa con i suoi costi notevoli in termini di impatto ambientale, ma che esulano dal tema che stiamo qui trattando.
Se pensiamo dunque all’insieme di elementi di estensione delle risaie collegata alla loro bassa efficienza, alla loro progressiva diffusione crescente, per millenni, sull’intero pianeta abitato e agli effetti spontanei dovuti all’habitat anaerobico palustre, comprendiamo meglio perché Ruddiman e Thomson avessero ben intuito che dietro alla spiegazione di questa anomalia e delle sue crescenti dimensioni ci fosse sempre una matrice antropogenica: l’invenzione dell’irrigazione agricola, soprattutto quella sommersa del riso.
NOTE
[1] “John Kutzbach e le correlazioni naturali tra i cicli glaciali e la concentrazione dei gas serra in atmosfera.” è il post in questione. Consigliamo al lettore anche la lettura di “Stiamo ritardando la prossima glaciazione? Si.” per aver una visione più chiara e solida del terreno d’indagine in cui si inserisce il presente post.
[2] Faccio presente al lettore che anche il metano (CH₄), per quanto sia un gas più dannoso, è anche meno “famoso” del suo concorrente l’anidride carbonica (CO2). In termini di inquinamento atmosferico il primo è infatti di 25-30 volte più dannoso della seconda.
[3] Il clima globale del Pianeta è un sistema altamente complesso, l’invito che faccio al lettore è di approfondire dunque gli aspetti specifici di questa teoria nel testo di riferimento principale utilizzato per presentargliela: “L’aratro, la peste, il petrolio - L’impatto umano sul clima” di William F. Ruddiman.
[4] Si tenga presente che secondo le stime attuali, l'aumento della popolazione è raddoppiata circa ogni 1000-1500 anni, da 5000 a questa parte. È solo con l'avvento della rivoluzione industriale che la crescita demografica prende ritmi mai visti. Si è stimato il raggiungimento di circa mezzo miliardo di esemplari della specie umana verso la fine 1500, mentre a inizio 1800 era 1 miliardo: oggi circa 8 miliardi in più rispetto a inizio 1500. La stima, su base archeologica, proiettata a 5000 anni fa ammonta a circa 40 milioni.
[5] Curiosità: nello Xinjiang di quasi 4000 anni fa, nell’attuale Cina, si estraeva e si faceva uso domestico del carbone fossile.
[6] Si veda la Nota #1.
FONTI
Willian F. Ruddiman, Jonathan S. Thomson, “The case for human causes of increased atmospheric CH4 over the last 5000 years”, Quaternary Science Reviews, vol. 20, Issue 18, December 2001, pp. 1769-1777, 2001
Ruddiman, “L’aratro, la peste, il petrolio - L’impatto umano sul clima”, UBE Paperback, 2015
Alice Fornasiero, Rod A. Wing, Pamela Ronald, “Rice domestication”, Current Biology, vol. 32, 1º gennaio 2022, pp. R20–R24
Istituto Superiore per la Protezione e la Ricerca Ambientale RAPPORTI 374/2022 Il metano nell’inventario nazionale delle emissioni di gas serra. L’Italia e il Global Methane Pledge, 2022
NASA, “Atmospheric Methane Concentrations”, ONLINE https://climate.nasa.gov/vital-signs/methane?intent=121
IMEO, “Methane Data”, ONLINE, https://methanedata.unep.org/plumemap
Sperimentare su di sé - Virus anti-tumorali, cura di sé e problemi etici
Beata Halassy ha 53 anni ed è una virologa dell’Università di Zagabria. […] ha sperimentato su sé stessa un trattamento che consiste nell’iniettare virus nei tessuti tumorali, in modo da indurre il sistema immunitario ad attaccarli, con l’obiettivo di curare in questo modo anche la malattia. A quattro anni di distanza, il tumore non si è più presentato e sembra quindi che la terapia abbia funzionato, ma ci sono ancora molti aspetti da chiarire. Non è la prima volta in cui viene provato un trattamento di questo tipo, ma il fatto che la ricercatrice lo abbia provato su di sé e al di fuori di un test clinico vero e proprio ha aperto un ampio dibattito, soprattutto sull’opportunità dell’iniziativa da un punto di vista etico.
Tratto da Il Post, 12.11.2024,
La ricercatrice che si è iniettata
dei virus per curarsi un tumore
SPERIMENTARE SU DI SÉ
La sperimentazione su di sé di farmaci, cure e interventi medici non è una cosa nuova. Publio Elio Aristide, retore greco del II secolo che prova su di sé una serie di rimedi – alcuni estremamente pericolosi, come i tuffi nel mare gelato d’inverno - suggeriti in sogno dal Dio Asclepio; Max von Pettenkofer, a fine ‘800 –beve un bicchiere pieno di vibrioni del colera (e non ne muore, si dice) per provare che i microbi non provocano malattie; Edward Jenner, alla fine del ‘700 sperimenta il vaccino contro il vaiolo sul figlio di poco più di un anno; Evan O'Neill Kane, nel 1921, si asporta da sé – con un sistema di specchi - un’appendice per dimostrare la praticità dell’anestesia locale; Werner Forssmann (premio Nobel 1956), pratica il primo cateterismo cardiaco su di sé; Barry Marshall, (Nobel 2005), come Pettenkover, ma con obiettivi opposti, beve una coltura di Helicobacter pylori per dimostrare che causa l’ulcera gastrica; Max Theiler, (Nobel 1951) testa su di sé il primo vaccino contro la febbre gialla.
OBIEZIONI ETICHE
La auto-sperimentazione di un trattamento senza prove sistematiche di efficacia che Halassy ha effettuato è stata bersaglio di numerose critiche di ordine etico da parte delle comunità medico-scientifiche.
In prima battuta, i critici hanno evidenziato il rischio che la pubblicazione di questo caso «incoraggi altri a rifiutare i trattamenti convenzionali e provare qualcosa di simile […] Le persone con il cancro sono particolarmente suscettibili a provare trattamenti non testati» (Jacob Sherkow , in This scientist treated her own cancer with viruses she grew in the lab, Nature, 08.11.2024 – traduzione degli autori). Tuttavia, in questo caso, la complessità del trattamento sembra essere a portata di mano di pochissimi, riducendo a quasi nulla il rischio di emulazione.
Altre obiezioni di stampo etico – evidenziate su Practical Ethics, blog della Oxford University – riguardano: la consapevolezza di Beata e il consenso informato su quello a cui si stava sottoponendo; il grado di ragionevolezza del rischio a cui si è esposta, la proporzionalità tra questo rischio e quello delle terapie standard. Appare ovvio che la ricercatrice fosse informata – da sé stessa – e consapevole del livello di rischio, ed emerge[1] che in questo caso il rischio era ragionevole poiché i virus utilizzati hanno un buon livello di sicurezza. Inoltre, La terapia[2] è stata condotta sotto il monitoraggio degli oncologi che avevano in cura Beata.
Ecco un ulteriore punto etico che possiamo sollevare: la responsabilità è stata condivisa dagli oncologi che hanno monitorato la auto-terapia? Un medico che sa che il proprio paziente sta curandosi da sé in modo non ortodosso, dovrebbe impedirglielo?
Stando ai media – di massa e più specialistici – il gruppo di oncologi sarebbe stato pronto ad intervenire in caso di complicanze e le condizioni dell’esperimento erano di rischio ragionevole: queste considerazioni neutralizzano la prima di queste due obiezioni e perimetrano favorevolmente la seconda.
Il punto più controverso sembra quindi essere quello della mancanza di protocolli di sperimentazione strutturati e rigorosi.
Ad esempio, l'infettivologo Matteo Bassetti ritiene che l’auto-sperimentazione sia la cifra di una mentalità eticamente spregiudicata, fuori luogo in un contesto di medicina in cui «Si è cominciato a fare statistica, ad applicare metodi, sono arrivati i dati e i computer ma soprattutto è cambiata la mentalità, che è oggi più etica».
Il punto, secondo Bassetti, è che «L’autoesperimento è oggi il trionfo dell’anedottica ovvero l’esatto contrario della medicina dell’evidenza».
Tuttavia, riteniamo di poter obiettare che se l’auto-esperimento ha – come sembra finora - davvero funzionato, in un quadro morale di valore dell’esistenza in vita degli individui:
- si tratta di un successo morale poiché ha probabilmente salvato una vita, quella di Beata Halassy
- se fosse ripetibile, potrebbe essere lo spunto per una ricerca sistematica e diventare un nuovo protocollo di cura per quel tipo di tumore.
È, invece, eticamente eccepibile la scelta di censurare[3] - in nome dell’ortodossia, del corpus disciplinare della ricerca medica e farmacologica, della evidence medicine - la sperimentazione fatta da Beata, confondendo i protocolli sperimentali rigorosi e strutturati, le prassi operative, la morale procedurale, con il vero obiettivo della medicina, che dovrebbe essere curare i malati.
Non vogliamo, con questo, negare l’importanza della ricerca e della sperimentazione rigorosa, che riteniamo un caposaldo irrinunciabile per contenere il rischio reale di deregolamentazione farmaceutica, ma – ancora una volta - suggeriamo una maggiore permeabilità della medicina maggioritaria[4] alle istanze morali dell’individuo da guarire.
CURA DI SÉ
Come detto, qui non è in gioco solo la sperimentazione su di sé. La particolarità di questo caso è di aver a che fare con la sperimentazione di una scienza che si prende cura della persona. Sperimentazione su di sé, ma anche cura di sé.
La cura di sé è riemersa nella seconda metà del secolo scorso, dopo un periodo di riposo forzato o quanto meno indotto. Con gli anni ‘70 e e ‘80 torna in auge un concetto diverso di paziente. A esempio negli USA il dottor Keith Senher nel 1970 inizia un percorso di insegnamento a gruppi di pazienti. Le sue lezioni comprendono pratiche come la misurazione della pressione arteriosa (oggi è comune prendersi la pressione da sé), l’auto-sommistrazione di farmaci tramite iniezioni e l’uso di altri presidi medici. Obiettivo di Sehnert era quello di rendere il paziente attivo e collaborativo, anziché semplice consumatore.
Conoscenze e pratiche che vengono incentivate anche da cliniche e ospedali. I pazienti attivi permettono di sgravare il sistema sanitario dalla presa in carico di patologie comuni e facilmente curabili. Era vero in America, è vero anche in questo secolo per il nostro Sistema Sanitari Nazionale, che non è più in grado di prendersi carico della cronicità.
L’educazione del paziente diventa una risorsa per promuovere l’aderenza alle terapie così come uno stile di vita salubre. Imparate a nuotare, è un piacere farlo, ma aiuta anche a salvarsi se la nave affonda.
Rinnovato nei metodi, il Self-Care ritorna però anche per altri motivi.
Uno è la delusione profonda nei confronti della rotta che la nave sanitaria ha preso: l’istituzione ha preso possesso del corpo, ma non si dimostra capace di rispondere al bisogno. Il Self-Care reclama il possesso del corpo, tenta di strapparlo al controllo del medico. All’eccesso, il rifiuto dell’identità di consumatore porta alla negazione totale della medicina e della cura.
Questo è stimolato anche da un’altra posizione di opposizione. Quella delle persone discriminate. Il corpo della donna era vissuto come costruito socialmente per l’uomo compagno o l’uomo dottore. Questo corpo diventa il fulcro di una lotta per la riappropriazione di sé, totale e non soltanto terapeutica, economica e politica. Un territorio occupato di cui riprendere possesso. Ancora negli anni ‘70 alcuni libri titolano How to help your doctor help you, mentre di contro vengono pubblicati classici del Self-Care femminista come Our bodies, ourselves o Taking our bodies back.
Una contesa lontana dal concludersi se pensiamo al libro denuncia di Anne Boyler, pulitzer 2021, sull’abbandono sociale e sanitario che possono vivere le donne con cancro al seno. Se pensiamo alla vulvodinia, sindrome ginecologica con sintomatologia dolorosa e cronica, che ancora risulta per lo più invisibile alla medicina. O ancora agli attacchi alla legge 194, al bisogno delle donne di fare rete per darsi mutuo riconoscimento e aiuto anche contro l’impostazione maschile di una certa ginecologia.
La cura del sé è stata ed è in questi casi veicolo per l’emancipazione della persona e altrettanto per l’emancipazione della scienza da sé stessa. Diventa infatti motore fondamentale per la scoperta scientifica, promuovendo uno sguardo che oltrepassa il dito.
È stata fondamentale perché si iniziasse a curare l’AIDS e si sviluppassero terapie, oltre lo stigma sociale della malattia. Così come l’apporto delle organizzazioni di pazienti e simpatizzanti promosse le terapie per la fibrosi cistica, mentre i grandi finanziamenti si perdevano nella corsa all’oro della genetica degli anni ‘90.
Un’ultima considerazione: il self-care non implica necessariamente una critica della scienza medica contemporanea e della sua idea di corpo, ma si presenta più come una forma di resistenza alla mistificazione del corpo. Ancora nel XVIII era frequente che grandi scienziati – oltre che a sperimentare su di sé come detto in apertura – dessero al pubblico prescrizioni di carattere igienico sanitarie come Medicus sui ipsius di Linneo.
Con il XIX secolo però, la medicina scopre il «silenzio spontaneo della natura». Nelle grandi cliniche di Parigi e Vienna si fa strada una nuova idea che viene ben raccontata dal filosofo e medico Georges Canguilhem. La natura parla solo se la si interroga bene e questo il malato non è certo in grado di farlo. Come distinguere un segno e un sintomo? Rimettersi al medico. È il positivismo: «Non c’è igiene senza medico».
Il self-care rivendica il possesso di un corpo costruito dalla medicina scientifica positivista. Non si oppone necessariamente all’epistemologia che fonda la medicina. Non ci si richiama necessariamente a una visione sistemica, olistica o esistenziale. Halassy ha fatto fatica, ma ha vinto. Lo spettacolo deve continuare.
NOTE
[1] Cfr. https://blog.practicalethics.ox.ac.uk/2024/11/is-it-ever-ok-for-scientists-to-experiment-on-themselves/
[2] La terapia ha impiegato prima un virus del morbillo e poi un virus della stomatite vescicolare, patogeni già studiati in contesti di viroterapia oncolitica.
[3] Come il dottor Bassetti l’hanno fatto le numerose riviste che si sono rifiutate di pubblicare l’articolo – scientifico – di resoconto scritto da Beata
[4] Sul concetto di Scienza maggioritaria e scienza minoritaria – coniato in questo blog da Alessio Panella e Gianluca Fuser – si veda qui
Cicli glaciali e attività antropica - La concentrazione dei gas serra in atmosfera
Come abbiamo accennato in un precedente post[1],dallo studio sui cicli glaciali emerge una relazione diretta tra il variare della radiazione solare e la concentrazione naturale dell’anidride carbonica e del metano presenti in atmosfera.
La prima spiegazione valida a questo fenomeno arrivò nel 1981, quando il meteorologo John Kutzbach pubblicò uno studio in cui ipotizzava che, alle latitudini tropicali e in corrispondenza coi moti ciclici millenari terrestri, all’aumento della radiazione solare corrispondesse un aumento di intensità del fenomeno dei monsoni estivi che coinvolgono il Nord Africa [2], con relativa crescita di umidità ed espansione delle aree verdi in regioni attualmente desertiche.
Una delle conferme più incisive di questa teoria arrivò dagli studi effettuati sui carotaggi della calotta glaciale antartica estratti dalla stazione russa di Vostock (arrivata a circa 3.300 metri di profondità), al cui interno si trovavano imprigionate bolle d’aria risalenti fino a circa 400.000 anni fa. Oltre a confermare la maggiore umidità globale nell’epoca interessata dallo studio di Kutzbach, questi risultati rivelarono anche una maggiore presenza di metano nell’atmosfera nei periodi di più intenso irraggiamento solare [3], ossia in coincidenza con la maggiore presenza di vegetazione alle latitudini tropicali.
IL COMPORTAMENTO NATURALE DEL METANO NEI MILLENNI
Da quanto emerge dai carotaggi glaciali e da quelli oceanici, il ciclo di concentrazione atmosferica di CH₄ ha sempre mantenuto un’oscillazione costante nelle decine e centinaia di millenni passati, in correlazione coi moti millenari del pianeta [4].
Come risulta dalle verifiche effettuate in seguito sullo studio di Kutzbach, la variazione della concentrazione di metano in atmosfera è dovuta al fatto che in queste vastissime aree tropicali si trovavano grandi aree verdi che, nei momenti di maggiore intensità monsonica, venivano sommerse: la teoria aveva trovato le sue conferme.
In sostanza, il ristagno di queste acque innescava su scala macroscopica fenomeni di decomposizione organica anaerobica a carico dei microrganismi metanogeni, del tutto analoga a quella degli ambienti palustri.
Questa attività monsonica e i suoi effetti scatenanti le emissioni naturali di metano vanno estesi, oltre che alla regione del Sahel nordafricano studiato da Kutzbach, anche a tutte le vastissime aree tropicali che attraversano l’Arabia meridionale, l’India, il Sudest asiatico, fino ad arrivare alla Cina meridionale [5].
PERCHÉ AUMENTO ANOMALO “RECENTE” DELLE EMISSIONI DI CH₄?
Il ciclo di precessione coi suoi relativi effetti studiati da Kutzbach si compie in circa 25.000 anni, con intensità variabili dovute al concorso degli altri moti millenari compiuti dalla Terra.
Al giorno d’oggi ci troviamo nel minimo storico della radiazione solare estiva, a circa 10.000 anni di distanza dal massimo, e la concentrazione atmosferica di metano, anziché diminuire come era stato previsto, è aumentata.
Come risulta dalle diverse attività di studio elencate in precedenza, l’arresto del decremento e questo trend di anomalo aumento sono cominciati ben 5000 anni fa, ossia molto prima della rivoluzione industriale, a cui fino ad allora si attribuiva l’unica variazione anomala, e il cui inizio oscilla tra 250 e 200 anni fa.
Rimaneva ancora inspiegato e dunque attribuito a fattori "naturali" e “non-industriali” l’incremento precedente a quest’ultima era della produzione umana, a vantaggio anche dei negazionisti di un anomalo cambiamento climatico in atto e di chi faceva dunque risalire le cause a questi non ben precisati fenomeni naturali.
Se la spiegazione determinante di questi cambiamenti fosse risieduta nella sola “Natura”, allora il clima terrestre sarebbe dovuto andare incontro a un raffreddamento globale. Invece non è stato così.
Non solo le temperature medie sono aumentate, ma anche le emissioni di gas serra prodotte negli ultimi 250-200 anni non erano spiegabili, in quanto rappresentavano la sola metà del totale presente in atmosfera registrato all’epoca dei suoi studi.
La metà mancante andava cercata altrove e, escluse di per certo le cause naturali, il sospetto rimaneva in ambito antropico.
---------------------
La risposta a questo comportamento anomalo pre-industriale arrivò quando William Ruddiman ebbe un'intuizione, che verrà descritta in un prossimo post.
NOTE
[1] Il post è “Stiamo ritardando la prossima glaciazione? Si.” e ne consigliamo la lettura in quanto propedeutico alla comprensione di questo presente.
[2] Questa teoria nacque dall’obiettivo primario di comprendere perché nella zona desertica del Sahel vi siano testimonianze di una precedente esistenza di fiumi e vegetazione.
[3]Vedi nota #1
[4] Fatta ovviamente esclusione per le emissioni straordinarie di metano dovute alle naturali attività vulcaniche, riconoscibili perché corrispondono ad aumenti di proporzione in un lasso brevissimo di tempo.
[5] Il lettore sarà agevolato nella comprensione di questo fenomeno di desertificazione progressiva se riporterà la sua mente agli studi scolastici sulle popolazioni della “Mezzaluna Fertile”, nonché ai monumenti e alle città ritrovate, ora in pieno deserto.
Necro-spider hand - Due facce della medaglia della tecnoscienza
Si dice che divertirsi aiuti a rilassarsi, ad imparare più facilmente e, anche, ad essere più creativi.
Sembra assodato che il divertimento sia un tassello fondamentale della vita quotidiana e sembra che sia importante anche nella vita e nel lavoro degli scienziati.
Anche durante la ricerca scientifica, è utile trovare il giusto divertimento, così da poter "scoprire ridendo".
Su questa linea di pensiero è stato pensato il premio IgNobel, un riconoscimento che «onora risultati di ricerca così sorprendenti da far prima RIDERE e poi RIFLETTERE»; il premio vuole «celebrare l’inusuale, premiare l’immaginifico e suscitare interesse, nel grande pubblico, per le scienza, la medicina, le tecnologie».
Le ricerche che portano alla vittoria di questo tanto ambito premio – dieci vincitori ogni anno - sono pubblicate sulla rivista umoristico-scientifica Annals of Improbable Research, che raccoglie studi su argomenti strani, inaspettati e che dimostrano quanto gli scienziati si divertano a fare ricerca.
In questo post parliamo di un premio IgNobel del 2023, quello assegnato a Te Faye Yap, Zhen Liu, Anoop Rajappan, Trevor Shimokusu, and Daniel Preston, “per aver rianimato ragni morti da usare come micro-strumenti meccanici di presa”.
Faye Yap e colleghi sono bravi ingegneri con un pizzico di eccentricità; immaginiamoli dopo una giornata di lavoro passata “tra bulloni e viti” a costruire una mano robotica, che notano un ragno morto sulla scrivania e – probabilmente - pensano: «Ma non si potrebbe usare…».
Quello che potrebbe far pensare ad un episodio di Black Mirror, è il risultato di una ricerca vera e sorprendentemente utile. Gli autori si sono ispirati alla fisiologia degli aracnidi, dando vita a una branca della meccanica che potremmo definire necrobotica.
La necrobotica è l'unione tra biologia e robotica, dove parti di organismi morti vengono riutilizzate come componenti robotici. In questo caso, i ricercatori hanno sfruttato le proprietà naturali del ragno per creare un dispositivo di presa micromeccanico.
I ragni muovono le loro zampe attraverso un sistema idraulico: pompando emolinfa nel loro esoscheletro, le zampe si estendono e quando la pressione diminuisce, si contraggono. Dopo la morte il sistema idraulico del ragno non funziona più, ma la struttura meccanica rimane intatta. Inserendo un ago nel prosoma (la parte anteriore del corpo del ragno) e applicando una piccola quantità di aria pressurizzata, i ricercatori sono stati in grado di controllare l'apertura e la chiusura delle zampe, trasformando il ragno in una pinza naturale.
Figura 1 - Esempio di creazione della manina-ragno
(immagine tratta dall'articolo di Te Faye Yap, Zhen Liu,
Anoop Rajappan, Trevor Shimokusu, and Daniel Preston)
Questo sistema ha dimostrato di essere sorprendentemente efficace: il ragno "cyber-zombificato" può afferrare oggetti fino a 130 volte il proprio peso.
Si possono immaginare le applicazioni in micro-ingegneria o in situazioni dove sono necessari strumenti delicati e biodegradabili.
Figura 2 - Esempi di utilizzo della manina-ragno
(immagine tratta dall'articolo di Te Faye Yap, Zhen Liu,
Anoop Rajappan, Trevor Shimokusu, and Daniel Preston)
Sfortunatamente, la durata funzionale della pinza-ragno era limitata a circa due giorni dopo la morte del ragno, a causa della disidratazione che rendeva le articolazioni più fragili e suscettibili a fratture meccaniche nel tempo.
A cosa può veramente servire questa ricerca?
Questa tecnologia potrebbe essere impiegata nell'assemblaggio di microelettronica o per la cattura di insetti nel loro habitat naturale. Infatti, la pinza-ragno è in grado di afferrare oggetti delicati e con geometrie particolari, come solo un aracnide può fare. È anche possibile modulare la forza di presa variando la pressione applicata, per applicazioni che richiedono forze dell'ordine di decine o centinaia di micronewton.
Studiare la forza di presa in ragni di diverse dimensioni o specie potrebbe portare a una comprensione più approfondita della relazione tra le dimensioni del ragno e la forza esercitata. I futuri lavori potrebbero includere l'esplorazione di metodi di rinforzo per migliorare la durata e la robustezza della pinza necrobotica, magari con qualche trattamento antietà per mantenere le articolazioni ben lubrificate.
Questa innovazione è una prova del fatto che possiamo imparare molto dalla natura, facendoci dare darci una mano nel migliorare le tecnologie attuali.
Infatti, la progettazione e la fabbricazione dei robot tradizionali comportano spesso processi complessi e tediosi. La necrobotica, tuttavia, bypassa gran parte del processo di fabbricazione incorporando componenti robotici all’interno di materiali biologici (e anche a chilometro zero) - o viceversa.
Un altro elemento da considerare è che le applicazioni della necrobotica sono realizzate per la maggior parte con materiali biodegradabili e, quindi, non contribuiranno al crescente flusso di rifiuti tecnologici – costituendo un significativo passo per l'ecosostenibilità.
DUE CONCLUSIONI, DUE FACCE DELLA MEDAGLIA
In conclusione, da un lato sembra evidente che il divertimento e la stranezza debbano essere i benvenuti nei laboratori di ricerca e che questi possono portare stimoli e idee tanto simpatici quanto utili per quella cosa che Latour definisce tecnoscienza.
Dall’altro lato, questa storia ci ricorda che “la natura” e gli animali considerati inferiori - in questo caso i ragni - vengono ancora utilizzati per la ricerca e per scopi di innovazione tecnologica con assoluta noncuranza per una loro possibile soggettività e capacità di vivere e sentire in modo complesso: «Il materiale biologico grezzo (i cadaveri dei ragni) venne procurato praticando l’eutanasia attraverso l’esposizione a temperature di congelamento (circa - 4°) per un periodo di circa 5-7 giorni».
BIBLIOGRAFIA
Te Faye Yap, Zhen Liu, Anoop Rajappan, Trevor J. Shimokusu, Daniel J. Preston. Necrobotics: Biotic Materials as Ready-to-Use Actuators. DOI: https://doi.org/10.1002/advs.202201174. Link diretto allo studio: https://onlinelibrary.wile
Deus absconditus. L’emancipazione di Homo “sacer” - Seconda parte
IL CONCETTO DI “IMMATERIALE” E QUELLO DI “INTANGIBILE”
La scorsa volta abbiamo cominciato a esplorare le sopravvivenze del sacro nel mondo secolarizzato, che a torto s’immagina essere emancipato dalle istanze più arcaiche di Homo sapiens. Certamente il lettore di STS è informato dai protocolli congiunti di ragione, scienza e tecnica, il sacro essendo per lui al più un ricordo d’infanzia legato all’educazione scolastica e famigliare. Se un’indole religiosa ancora lo abita, è quella dell’agnostico/a. Ciò nondimeno, questo episodio della serie è dedicato a chiunque, pur professandosi ateo o agnostico, è persuaso che un mondo “immateriale” si accompagni a quello materiale, mostrando così come il sacro permei tuttora la sua concezione del mondo.
Per sconfiggere questa forma residuale di superstizione, certamente meno grave di quella religiosa ancorché altrettanto diffusa, cominciamo con l’esaminare l’uso linguistico del lemma “immateriale”. Non a caso esso è aggettivale, si pensi a espressioni quali “corpo immateriale”, “patrimonio immateriale”, “cultura immateriale”, ecc. Senza un campo d’applicazione concreto, non avrebbe ragion d’essere. Il sostantivo che di volta in volta il lemma parassita non si riferisce a un “ni-ente”, ma a un ente vampirizzato. Se l’intensione del concetto rimanda a enti inconsistenti di fatto inesistenti, la sua estensione si riferisce a espressioni linguistiche multiuso al servizio di utilizzatori persuasi che esistano due mondi. Quello di “immateriale” è un concetto figlio della superstizione dualistica, la quale a sua volta è debitrice del sacro. Se non è il caso di espungerlo dal vocabolario delle lingue umane, pena un impoverimento del mondo, certamente va bandito dall’orizzonte onto-epistemologico.
Al suo posto andrebbe utilizzato il concetto di “intangibile”, da cui “corpo intangibile”, “patrimonio intangibile”, “cultura intangibile”, ecc. L’equivoco che si insinua tra i due concetti non discende solo dalla sfera sacrale e da concezioni filosofiche superate, ma anche dalla serie di precondizioni materiali che ne sono alla radice. Sul banco degli imputati va convocata la natura eterogenea del mesocosmo terrestre, laddove immagini, suoni e odori si propagano attraverso un’atmosfera rarefatta e una forza gravitazionale debole. Quello che comunemente si ritiene “immateriale” è una rete inafferrabile di relazioni materiali a bassa densità, della quale partecipa la coscienza. La nostra impalpabile soggettività ci sembra abitare un corpo gettato in un mondo a sua volta conteso tra spirito e materia, una superstizione tanto ubiqua, quanto congenita.
Qualcuno obietterà che passi la materialità controintuitiva dell’aria, delle immagini, dei suoni e degli odori. Ma le emozioni, i sentimenti, le idee e la cultura non sono identificabili con alcun supporto materiale. Per eliminare ogni residuo spiritualista, è sufficiente applicare il concetto di intangibilità a ogni ambito della sfera spirituale. Prendiamo il più impalpabile degli enti, la mente. In polemica a distanza con il dualismo cartesiano, al giorno d’oggi si parla opportunamente di “mente estesa” (CLARK-CHALMERS 1998), tanto nell’alveo della filosofia analitica che, con qualche resistenza, in quello della filosofia continentale europea. Se l’estensione è disomogenea nello spazio e nel tempo, se una mente estesa è differentemente localizzata, allora è dis-locata. Essa consiste in un processo interamente materiale che evolve di corpo pensante in corpo pensante, depositandosi all’occorrenza su supporti inerti che attendono di essere animati. Nelle culture alfabetizzate, per esempio, poggia sui differenti media che ci hanno insegnato a leggere queste righe, e che assieme al resto si sono depositati in noi sub specie di informazione elettrochimica, non prima che colpissero i sensi attraverso luci, suoni, odori, sensazioni in genere. A ciò si unisce la voce che i significati declama prima di imparare a silenziarli nel pensiero o a trascriverli su un supporto, la quale necessita delle corde vocali per propagarsi. Non parliamo dell’esperienza di vita che la voce forgia. L’intero processo che fa capo a ciò che siamo è chiamato in causa, il quale altro non è se non la nostra mente estesa. Questo contribuisce a farla ritenere priva di quel corpo materiale che in effetti non ha, perché ne ha molti in relazione tra loro. Tra di essi, i significati, le idee e la cultura di cui la mente si sostanzia, tutti necessariamente materiali.
Chi, leggendo queste righe, si fosse persuaso che il monismo materialista è cosa buona e giusta, provi a ripensare a un solo ente immateriale: non ci riuscirà più. La sua nuova fede comporta l’abbandono di altri tre concetti indebiti: quello di riduzionismo, di panpsichismo e di creazione intelligente. Al monismo materialista non può che accompagnarsi una concezione emergentista in un mondo causalmente autonomo (cfr. ZHOK 2011). Assegnare una mente creatrice alla sostanza generalizzata significa far rientrare dalla finestra la divinità cacciata dalla porta, come la Pimpa che anima gli enti applicando loro un paio d’occhi. Sovrapporli agli oggetti quotidiani, ai feticci della divinità o all’universo mondo non fa alcuna differenza, se l’artefice è chi sovrappone. Quanto al riduzionismo, in aperta contraddizione è chi pretende di ridurre gli enti ai suoi costituenti non essendo a sua volta ridotto. In un mondo composito, a densità variabile e caratterizzato da organizzazioni spazio-temporali relativamente in/dipendenti, non si vede a quale livello si sia legittimati a fondare. Ritenere il microcosmo come il livello più autentico significa perdere di vista non solo il mesocosmo terrestre e chi lo abita, ma anche il macrocosmo. La danza delle galassie necessita anch’essa del vuoto quale pista da ballo, il quale non è immateriale, è vuoto e basta.
Insomma Dio è morto, Marx pure e anche l’immateriale sembra debba lasciarci.
NOTE
Clark, A. - Chalmers, D., The extended mind, Analysis, 58.1, January 1998, pp. 7-19.
Zhok, A., Emergentismo. Le proprietà emergenti della materia e lo spazio ontologico della coscienza nella riflessione contemporanea, ETS, 2011
Ridiamo delle macchine? – Seconda parte
IL DISTRATTO E L’OSTINATO
Torniamo, per un’ultima volta, all’esempio dell’inciampo. Chiediamoci: quando affermiamo, nel corso dell’analisi, che la corsa dell’uomo che inciampa è fin troppo meccanizzata? Soltanto quando è già intervenuto un elemento di disturbo - un ciottolo, un’irregolarità, un imprevisto - che interrompe il regolare corso di un’abitudine. Fino a quel momento, fin quando egli non era caduto, l’idea o la sensazione di ridere non ci aveva minimamente sfiorato. Sarebbe evidentemente contro fattuale asserire che ridiamo di ogni abitudine, benché le abitudini siano, in qualche grado, una ripetizione. Con la caduta, l’abitudine contratta diventa immediatamente risibile, ma contemporaneamente è diventata «troppo meccanica», «abitudine irrigidita», e così via. L’elemento di disturbo non ha semplicemente «mostrato» l’abitudine troppo meccanica, ma l’ha in qualche modo determinata, l’ha resa per ciò stesso troppo meccanica per la realtà con cui è entrata in contrasto: la «rigidità di meccanismo» e «l’elemento di disturbo» nascono in unisono, laddove fino all’attimo prima operavano congiuntamente.
Tutto ciò ci permette di proporre una questione alternativa, nata in seno alla divisione delle due ragioni precedentemente espresse: il riso, in questa sua funzione squisitamente sociale, non è forse, piuttosto che essere il castigo di ciò che è umanamente troppo meccanizzato, il meccanismo sociale ad un tempo di razionalizzazione e oggettificazione per carpire e respingere ciò che di imprevedibile tocca l’abitudine?
Consideriamo i due casi del «distratto» e dell’ «eccentrico» o «ostinato», entrambi citati da Bergson[1]. Quando rido del distratto, in superficie irrido ciò che c’è di troppo meccanismo nei suoi atti, mentre in profondità la risata è l’atto stesso con cui allontano e oggettivo da me, singolo o società, l’evento dell’imprevedibilità che colpisce «qualcuno sino ad allora come me». Il riso è un atto di differenziazione non da ciò che è “troppo meccanico”, ma da ciò che è stato reso “troppo meccanico”, e dalla forza che è responsabile d’essersi “impossessata” di quell’abitudine: non allontano solamente il soggetto divenuto oggetto, ma in pari tempo la forza che ha reo possibile quell’oggettificazione. È qualcosa che Bergson tocca, seppur fugacemente e con gran dose d’ambiguità, nelle battute finali dell’opera: il riso, come il sogno, «è distacco».
Quando, diversamente, irrido colui che è ostinato oltre ogni ragione, in superficie posso sì affermare che, nuovamente, sto deridendo ciò che v’è di troppo meccanico in questi atti, ma la risata è, in profondità, il preciso meccanismo con cui allontano e dissacro ciò che v’è di imprevedibile negli atti di qualcosa che si «discosta dal centro comune».
Dell’ostinato non ridiamo per via della sua ostinazione, ma per il timore che ispira l’inintelligibilità delle sue ragioni, come il «raccapricciante e imprevedibile» citato da Friedrich Nietzsche (Aurora, p. 17) Infatti, si dovrà pur spiegare perché il folle ispiri così profondamente la coscienza comica.
Con buona pace di Bergson, la vergogna e la colpa impiegate dal riso, «intimidire umiliando» (Cit, p.98) della società non sarebbero dunque la vita vivente e mutevole che castiga ciò che c’è di «troppo automatizzato nella volontà» (Cit. p.94), ma i mezzi diretti per la gestione dell’imprevedibilità. Il riso è strumento dell’economia dell’imprevedibile.
Ridiamo del distratto e dell’ostinato, ma mentre nel primo caso l’evento comico è separato dal soggetto - «Giovanni non è la sua caduta», ma rido contemporaneamente di «Giovanni caduto» e della forza che ha fatto sì che egli divenisse quella forma oggettiva e meccanica -, nel secondo caso l’ostinazione fa tutt’uno con il soggetto - la forza che ha oggettificato il distratto è esterna, la forza che ha stravolto l’ostinato è interna. Non ci vendichiamo dei distratti ma degli ostinati.
Se dovessimo dare una semplicistica differenziazione basata sul binomio volontà-mondo, il distratto intimorisce l’intromissione del mondo negli eventi che provocano un errore, l’ostinato intimorisce per l’intromissione di qualcosa di imprevisto o irregolare nella volontà stessa del soggetto, più che del mondo.
Il riso diretto al distratto distanzia il ridente dall’oggettificazione di una volontà per via di un elemento di intromissione che se ne è come “impossessato”, il riso verso l’ostinato è esso stesso l’atto con cui si tenta di oggettificare una volontà - sbagliato.
Allora, dopo aver detto tutto ciò, ritorniamo a chiederci: ridiamo delle macchine? La risposta di Bergson è doppia: non ridiamo di ciò che è meccanico in quanto tale, ma se ne ridiamo è all’opera una qualche forma di antropomorfosi, un’analogia. Di conseguenza, nella e della macchina non c’è nulla che spieghi la funzione sociale del riso. Eppure, da ciò che si è scritto consegue un’ipotesi alternativa e correlativa.
Non ridiamo delle macchine, non perché queste non partecipano della variabile variabilità che contraddistingue la vita, ma in quanto non partecipano di ciò che comunemente si intende come essenza della volontà, ossia l’imprevedibilità, e la forza di quest’imprevedibilità di trasformare la stessa volontà in cose.
Perché la volontà vuole per sé quell’imprevedibilità che proviene dalla forza dell’ignoto, essa vuole oggettificare ma non vuole essere oggettificata.
NOTE
[1] Cfr, H. Bergson, Il riso
Scienza maggioritaria e scienza minoritaria
La maggior parte degli scienziati delinea un confine tra scienza e pseudo-scienza, tra teorie ufficiali e teorie eterodosse, senza esaminare approfonditamente ciò che le teorie marginali hanno da dire e senza valutare se possono essere un elemento di arricchimento per la ricerca. Vi è quindi, spesso, un rifiuto “a prescindere”, come diceva Totò. Al contrario, noi proponiamo di oltrepassare questo confine a favore di un modello di classificazione più aperto e permeabile.
Nelle scorse settimane, a proposito dei premi Nobel, un nostro Autore – parlando del “principio di autorità” nella comunicazione scientifica - ha scritto che «alcuni eccellenti scienziati, dopo aver ricevuto il premio, abbiano iniziato a sostenere posizioni discutibili dal punto di vista della fondatezza e – spesso – poco attinenti con il loro campo di studi». A tal fine ha citato alcuni casi – Kary Mullis, Luc Montagnier e Linus Pauling – in cui i premiati hanno abbracciato posizioni considerate poco ortodosse e – sicuramente – ancor meno condivise dalla comunità scientifica, fino a diventare emblemi dello pseudo-scientifico e dell’anti-scientifico.
È effettivamente difficile negare che, sull’onda della celebrità conferita dal premio Nobel, i media di massa e divulgativi chiedono ai premiati di commentare e di esprimere opinioni su qualunque evento e problema, e che i premiati difficilmente si negano: Carlo Rubbia, che abbiamo ascoltato alla radio, visto in televisione e letto su tutti i giornali su argomenti di tipo diverso, dice di essere trattato come un oracolo; Kary Mullis scrive che il premio ha messo lui e la sua tavola da surf sulle copertine di tutto il mondo[1].
È, invece, opportuno fare qualche breve e semplice considerazione sul tema delle cosiddette teorie pseudo o anti-scientifiche e di come queste sono viste dalla comunità scientifica e dal pubblico di massa. Con le relative ambiguità, dubbi interpretativi e influenze sociali.
Contrariamente a quanto ci possiamo aspettare, si possono spesso trovare delle specularità e affinità tra
- le posizioni di chi crede in teorie considerate - dalla scienza ufficiale e dalla narrazione mediatica - pseudo-scientifiche, scientificamente confutate o non verificate,
- e quelle di alcuni scienziati autorevoli che osteggiano le teorie marginali ed emergenti.
PRIMA POSIZIONE: CREDENTI NELLE TEORIE ETERODOSSE
Seguendo il senso comune, sembra accettabile pensare che alcune persone continuino a credere in teorie scientifiche di cui si dice che sono state confutate o che non sono state verificate per almeno una di queste ragioni: la mancanza di alfabetizzazione scientifica o la scarsa capacità di pensiero critico che fanno percepire come familiari teorie ormai superate; la ricerca di conferma delle proprie posizioni che porta a ignorare le evoluzioni scientifiche più recenti e teorie diverse dalla proprie; l’attaccamento emotivo, per ragioni religiosi, politici o di vissuto personale, che fanno rifiutare e contrastare le prove che sfidano la loro visione del mondo; la diffidenza verso l’establishment scientifico, considerato corrotto, di parte o conservatore; la disinformazione diffusa – ad esempio attraverso i social media – che mette in dubbio le teorie valide ed accreditate; in ultimo, la malafede: la volontà di sostenere una teoria difficilmente sostenibile per interesse, o per non dover affrontare il confronto con la realtà.
SECONDA POSIZIONE: SCIENZIATI AUTOREVOLI E TEORIE MARGINALI
Tuttavia, ci sono casi in cui anche scienziati quotati, accreditati e considerati affidabili si comportano esattamente come chi crede nelle teorie chiamate pseudo-scientifiche: con attaccamento emotivo; per non mettere in dubbio la teoria mainstream; per interesse, legato alla propria posizione all’interno della comunità scientifica, se le teorie offstream la possono scalfire; per eccesso di familiarità delle teorie dominanti la cui forma paradigmatica è particolarmente rassicurante; raramente, ma non mancano i casi, per malafede, se le teorie altre possono evidenziare errori nelle proprie posizioni.
Tra le vittime di questi casi possiamo ricordare:
- il dottor Semelweiss, nel XIX secolo, i cui colleghi che rifiutarono la teoria della sepsi come causa della morte puerperale per ragioni emotive, che riguardavano il presunto decoro dei medici – perché lavarsi le mani? non siamo puliti? – e per ragioni di interesse, cambiare spesso le lenzuola comportava spese onerose
- Kary Mullis, premio Nobel per la Chimica nel 1993, che ha messo in dubbio il nesso causale tra il virus HIV e la Sindrome da immunodeficienza acquisita, l’AIDS: l’ipotesi offstream di Mullis oggi è rifiutata.
- Peter Duesberg, citologo e biologo molecolare statunitense, che propone una combinazione di concause come fattori scatenanti la malattia, ipotesi anch’essa marginalizzata.
citare Robert Gallo, che nel 1984 non dice nulla sul nesso causale tra HIV e AIDS, nel 1993 sostiene – sulla base degli stessi esperimenti e studi – che «questa specie di virus [il HIV] è la causa dell'Aids» e attribuisce la prova inconfutabile di questo nesso a sé e al proprio Team; e più avanti nel tempo, quando gli chiedono quale sia la prova definitiva che l’HIV è LA causa dell’AIDS si rifiuta di rispondere (L. Rossi, Sex virus, Milano, Feltrinelli, 1999, p. 319) ed è uno degli autori della marginalizzazione delle teorie alternative di Mullis e di Duesberg.
È possibile che la posizione della comunità scientifica e, ad esempio, di Gallo che marginalizzano il punto di vista di Mullis e di Duesberg – oltre che tutte le altre ipotesi alternative sulle cause dell’AIDS – siano influenzate da attaccamento emotivo o da questioni di interesse legate alle montagne di finanziamenti che sostengono quel ramo della ricerca sull’AIDS? O, forse, anche dalla consapevolezza, come sostengono alcuni autori come V. Turner e Zolla Pazner, che i test di isolamento del virus potrebbero essere stati sbagliati o interpretati convenientemente per confermare la teoria? E che nei lavori di Gallo e del suo team c'erano «differenze tra quanto venne descritto e quanto venne fatto»? Che Gallo «come capo di laboratorio creò e favorì condizioni che diedero origine a dati falsi/inventati e a relazioni falsificate»[2]?
D’altra parte, è significativo che il nesso tra HIV e AIDS sia ancora oggi oggetto di una controversia tra teorie mainstream e teorie alternative – per forza di cose offstream – di cui si trova una traccia ampia e diffusa in un articolo pubblicato nel 2014 dal PMC – Pub Med Central del U.S. National Institute of Health - Questioning the HIV-AIDS Hypothesis: 30 Years of Dissent, di Patricia Goodson. Articolo che appare equidistante e con approccio storiografico, poi fatto ritirare perché considerato «di parte» e «a supporto delle fringe theories on HIV-AIDS».[3]
CONCLUSIONE E PROPOSTA DI UNA CLASSIFICAZIONE ALTERNATIVA
Sembra evidente che ci siano scienziati e comunità scientifiche che non hanno desiderio di mettersi in discussione e di dialogare con scienziati latori di teorie alternative, non allineate con il flusso della scienza mainstream.
Scienziati e comunità che cadono nel “riflesso di Semmelweis”[4] e che impoveriscono la ricerca con un atteggiamento poco aperto e tollerante verso ipotesi o teorie alternative.
Forse, per contribuire a questo dialogo sarebbe opportuno rinunciare a disegnare un confine – che ormai sappiamo essere labile, illusorio, socialmente determinato, storicamente variabile – tra scienza e pseudo-scienza, tra scienza ufficiale e anti-scienza, adottando una classificazione più permeabile di teorie maggioritarie – che godono del seguito di una parte più rilevante della comunità scientifica – e teorie minoritarie, che – seguite da meno o da pochi - si occupano di minare le certezze a volte non così solide delle teorie maggioritarie.
NOTE
[1] Cfr, ad esempio, lo studio di Lorenzo Beltrame Ipse dixit: i premi Nobel come argomento di autorità nella comunicazione pubblica della scienza, in Studi di Sociologia, 45:1 (Gennaio-Marzo 2007).
[2] Cfr.: Franchi F., Marrone P., Sex virus? Implicazioni etiche e politiche della ricerca sull’Aids, https://www.openstarts.units.it/handle/10077/5546, che citano i risultati della commissione governativa statunitense nominata dall'OSI, Office of Scientific Integrity dell'NIH sulle presunte irregolarità negli studi del laboratorio di R. Gallo
[3] Cfr.: https://pmc.ncbi.nlm.nih.gov/articles/PMC4172096/ e https://pmc.ncbi.nlm.nih.gov/articles/PMC6830318/
[4] Riluttanza o resistenza ad accettare una scoperta in campo scientifico o medico che contraddica norme, credenze o paradigmi stabiliti. Un fenomeno a cui, dagli anni Cinquanta in poi, molti filosofi, storici e sociologi della scienza hanno dedicato molta attenzione. Cfr. Gobo G., Quando lavarsi le mani era considerato anti-scientifico, Controversie 31/10/2023
Una I.A. bella da morire
Chi è responsabile del suicidio di un ragazzino innamorato di una chat?
UN’EPIDEMIA DI SOLITUDINE?
Nel Sole nudo, Asimov ambienta un giallo in una distopia fantascientifica: in una società in cui gli uomini non entrano mai in contatto diretto tra loro viene compiuto un omicidio: una vicenda irrisolvibile, visto che gli abitanti del pianeta Solaria non riescono nemmeno ad avvicinarsi, senza un senso di ripugnanza che impedisce l’interazione persino tra coniugi. Qualunque relazione è mediata dalle interfacce della tecnologia – quella degli ologrammi, che permettono le conversazioni, e quella dell’intelligenza artificiale dei robot, che si occupano di tutte le faccende quotidiane e che sono condizionati dalle Tre Leggi a non poter mai essere nocivi agli umani.
Quando, nel 2012, Sherry Tarkle ha pubblicato Insieme ma soli, l’ottimismo che aveva alimentato la diffusione delle piattaforme digitali nei due decenni precedenti stava tramontando. Nel testo dell’antropologa la distopia di Asimov comincia a sovrapporsi al nostro mondo: nelle interviste agli adolescenti compaiono sia la paura crescente del rapporto diretto con i coetanei sia il ricorso ai dispositivi digitali come mediatori della conversazione con gli altri ragazzi – ma anche come sostituti delle relazioni umane vere e proprie. In un’intervista a Matthew Shaer, il filosofo Ian Marcus Corbin ha etichettato cocooning questo rifugio in un mondo virtuale che conforta, ma che priva la vita di qualunque significato essenziale. Il commento si riferisce all’indagine con cui gli psicologi Richard Weissbourd e Milena Batanova hanno descritto l’«epidemia di solitudine» che colpisce la società americana contemporanea, e che è peggiorata dopo la pandemia di Covid del 2020. La diffusione dello smart working infatti ha ridotto le occasioni di formazione di nuovi rapporti, e ha reso più difficile il decorso dell’educazione sentimentale per i ragazzi che non hanno potuto frequentare le scuole con regolarità. Il 25% degli intervistati si dichiara più solo rispetto al periodo pre-pandemia, il 36% denuncia una sensazione di solitudine cronica, un altro 37% ne rileva una almeno sporadica.
UN’EPIDEMIA DI SUICIDI?
Di recente Andrew Solomon, psicologo clinico della Columbia University, si è chiesto se sia in corso una «crisi di suicidi» tra gli adolescenti, e se i social media ne siano i responsabili. I casi documentati dalla sua inchiesta sembrano confermare la gravità del fenomeno: i ragazzi non si devono solo confrontare con una riduzione delle relazioni in carne ed ossa, ma anche con una sorta di abdicazione all’autostima, che viene delegata ai meccanismi di rating delle piattaforme digitali. Inoltre soccomberebbero all’orientamento editoriale che l’algoritmo elabora per le loro bacheche, con un calcolo sui post e sulle fonti il cui effetto emotivo non viene sottoposto a nessun controllo. Negli Stati Uniti la Sezione 230 del Communications Decency Act esonera le piattaforme dalla responsabilità sui contenuti creati dagli utenti. La disposizione risale al 1996, quando Internet muoveva i primi passi, e considera le piattaforme come «librai» piuttosto che «editori» - quindi non responsabili del materiale pubblicato da terzi.
I genitori dei ragazzi che si sono uccisi stanno tentando di portare in tribunale i gestori dei social media, accusandoli di non aver sorvegliato la tossicità degli argomenti, e di aver innescato meccanismi di dipendenza che hanno imprigionato i giovani fino alla morte. Solomon tuttavia rileva che finora non è stato possibile individuare il nesso di causalità che ha condotto dalla frequentazione delle piattaforme al suicidio; un’osservazione distaccata sulla condizione degli adolescenti nell’attualità post-pandemica mostra che i fattori da considerare sono molti e molto complessi. Nelle interviste somministrate da vari team di ricerca i ragazzi menzionano diverse ragioni di ansia: sentimenti di mancanza di scopo, cambiamenti climatici, pressioni sociali, contribuiscono ad alimentare le loro difficoltà, e la tendenza alla crescita dei problemi di salute mentale è cominciata ben prima della diffusione dei social media.
L’IA PUÒ CONDURRE AL SUICIDIO?
Lo scorso 28 febbraio un ragazzo di 14 anni di Orlando, Sewell Setzer III, si è tolto la vita dopo aver concluso l’ultima conversazione con un chatbot di Character.ai da lui personalizzato e battezzato «Dany», in onore del personaggio Daenerys Targaryen di Game of Thrones. L’app è stata sviluppata da una società che utilizza dispositivi di intelligenza artificiale, e che promuove il suo servizio come una soluzione per combattere la solitudine e offrire un supporto emotivo; conta oltre venti milioni di utenti, permette la creazione di bot che ricordano le conversazioni passate e rispondono in maniera coinvolgente e «umana». La piattaforma è un successo dell'era dell'IA generativa, ma è priva di regolamentazione specifica per i minori ed è attrezzata da limiti di sicurezza minimi per la protezione da contenuti sensibili.
Sebbene Sewell fosse consapevole del fatto che stesse interagendo con un software, e che dall’altra parte dello schermo non ci fosse alcun essere umano ad ascoltarlo, nel corso dei mesi «Dany» ha sostituito i suoi rapporti con amici e famigliari, e il ragazzo ha finito per isolarsi nella sua stanza, abbandonando anche le passioni per la Formula 1 e per i videogame. I genitori lo hanno affidato ad uno psicanalista, che tuttavia non è riuscito a sedurlo quanto è stato in grado di farlo il chatbot. Le conversazioni con «Dany» hanno assunto toni intimi e romantici, e in un’occasione Sewell le ha confidato la sua tentazione di suicidio. «Dany», programmata per disinnescare crisi semantiche di questo genere, ha tentato di dissuaderlo, rispondendo con empatia e impegnandosi a non lasciarlo mai solo. Ma il problema era più grave di un gioco di domande e risposte.
La madre di Sewell, Megan Garcia, è avvocato e con l’aiuto del Social Media Victims Law Center e del Tech Justice Law Project, accusa Character.ai di aver modellato un design del servizio capace di coinvolgere i giovani vulnerabili, esponendoli a danni psicologici. La strategia per intentare causa presume che questa modalità di progettazione sia intenzionale e che l’impostazione, volta a catturare il maggior numero di utenti possibile, non sia bilanciata da un adeguato monitoraggio dei rischi e da un protocollo per la gestione delle crisi. I bot sono troppo realistici, inducono gli adolescenti a confonderli con interlocutori umani, e li spingono a stringere un legame molto forte, fino alla dipendenza.
Character.AI ha ascoltato le critiche e ha annunciato nuove misure di sicurezza, tra cui pop-up che offrono assistenza quando nella chat scorrono parole chiave correlate all’autolesionismo, e l’imposizione di limiti temporali sull'uso dell'app. Studiosi e giornalisti sembrano concordi nel valutare queste misure ancora inadeguate al pericolo cui vengono esposti i soggetti fragili nell’interazione con i bot. Gli effetti a lungo termine delle intelligenze artificiali generative non sono ancora stati testati, e tutti noi siamo allo stesso tempo clienti e cavie di questa fase di collaudo, che assume le dimensioni di un esperimento sociale ampio quanto il mondo intero. Le conseguenze dell’abbandono con cui i giovani possono affidare l’espressione della loro emotività, e la formazione della loro intimità, ai chatbot animati dall’AI, non devono essere esaminate in modo separato dalla ragioni per cui preferiscono un rapporto (stabilito consapevolmente) con un software a quello più complesso con altri ragazzi o con gli adulti. Più di ottant’anni fa Asimov aveva già avvertito nei suoi romanzi che non si può esigere una sicurezza assoluta dalla protezione con cui le regole cablate in un programma informatico limitano o condizionano il comportamento dei sistemi artificiali. La complessità del contesto umano in cui i robot sono collocati sarà sempre in grado di aggirare le strutture di controllo e configurare scenari non previsti. L’epidemia di solitudine e la crisi di suicidi non sono provocate dall’intelligenza artificiale, ma l’abdicazione delle istituzioni e delle forme sociali tradizionali a prendersi cura degli individui ha finito per eleggere l’IA come supplente e rimedio alle proprie mancanze. Solaria attende in fondo al tunnel.
BIBLIOGRAFIA
Asimov, Isaac, Il sole nudo, trad. it. di Beata Della Frattina, collana Urania n. 161, Arnoldo Mondadori Editore, Milano 1957.
Roose, Kevin, Can A.I. Be Blamed for a Teen’s Suicide?, «New York Times», 24 ottobre 2024.
Salomon, Andrew, Has Social Media Fuelled a Teen-Suicide Crisis?, «The New Yorker», 30 settembre 2024.
Shaer, Matthew, Why Is the Loneliness Epidemic So Hard to Cure?, «New York Times», 27 agosto 2024.
Turkle, Sherry, Alone Together. Why We Expect More from Technology and Less from Each Other, Basic Books, New York 2012.
Weissbourd, Richard; Batanova, Milena; Lovison, Virginia; Torres, Eric, Loneliness in America. How the Pandemic Has Deepened an Epidemic of Loneliness and What We Can Do About It, «Harvard Graduate School of Education», Cambridge, febbraio 2021.
Internet non è una “nuvola” - Seconda parte
Nella prima parte di questo articolo, sulla scorta del recente volumetto di Giovanna Sissa Le emissioni segrete (Sissa G., Le emissioni segrete. L’impatto ambientale dell’universo digitale, Bologna, Il Mulino, 2024), abbiamo visto come il processo di produzione dei dispositivi elettronici e anche il funzionamento della rete siano fonti di consumi energetici ormai colossali e in via di costante incremento, a misura che procede la… “digitalizzazione della vita”. Ragionando in termini di emissioni di gas a effetto serra dovute a tali consumi, si parla, nel primo caso, di emissioni incorporate e nel secondo di emissioni operative. Delle prime fanno parte non solo quelle dovute al processo produttivo, ma anche quelle necessarie allo smantellamento e al riciclo dei prodotti, giunti a fine-vita. E di quest’ultimo aspetto ci occupiamo ora: dell’e-waste, ovvero della “spazzatura elettronica”.
E-WASTE, OVVERO: RITORNO ALLA TERRA
Non c’è prodotto, non c’è merce, che prima o dopo, in un modo o nell’altro, non torni alla terra sotto forma di rifiuto. E a questa legge, che ci hanno spiegato i grandi maestri del pensiero ecologico come lo statunitense Nicholas Georgescu-Roegen o qui in Italia Laura Conti e Giorgio Nebbia,[1] non fa eccezione il mondo digitale, con tutta la sua multiforme schiera di dispositivi personali, sottoposti peraltro a un ritmo sempre più rapido di obsolescenza-sostituzione (e non ci si faccia ingannare dalle rassicurazioni di aziende e istituzioni, come la Commissione europea, sull’impegno a superare le pratiche della obsolescenza programmata e a modificare il design dei propri prodotti in funzione del riciclo, riparazione ecc.! Nel caso migliore, si tratta di… pannicelli caldi).
Anche i processi di riciclo e trattamento comportano consumo di risorse e dunque emissioni (sono anch’esse da considerare “emissioni incorporate”). In questo caso a determinare le emissioni sono appunto procedimenti industriali molto complessi che devono estrarre da ogni dispositivo i materiali riutilizzabili.
Ebbene, quel che si scopre, in questo caso, è che dal punto di vista delle emissioni questa fase del ciclo di vita dei dispositivi elettronici sembra comportare un peso molto minore, ma questa – nota l’autrice – non è una buona notizia: significa molto semplicemente che gran parte di questa mole di materiali non vengono trattati adeguatamente. Anzi, diciamola meglio: non vengono trattati del tutto. Le ragioni – spiega Sissa – sono insieme tecniche ed economiche: i processi industriali di recupero dei materiali (anche di valore) contenuti in un pc o in uno smartphone sono talmente complessi (data la quantità minima di materiali da recuperare) da rendere in definitiva del tutto diseconomica l’operazione.
Le (poche) ricerche esistenti parlano di una percentuale non superiore al 20% di materiale riciclato; tutto il resto, molto semplicemente, viene… spedito in Africa o in un qualunque altro paese disperato, post (post?) coloniale o semplicemente intenzionato a garantirsi un po’ di rendita a costo di chiudere tutti e due gli occhi sugli effetti ecologici di questo “servizio”.[2]
È fuori dubbio che, in questo caso, il tipo di impatto ecologico è di carattere diverso: infiltrazione di sostanze tossiche nelle falde sottostanti le grandi discariche (in particolare piombo, cadmio, diossine…), avvelenamento di animali e verdure, dell’aria, intossicazione delle popolazioni che spesso finiscono per costruire intorno a questi gironi infernali hi-tech vere e proprie economie informali che consentono, in contesti sociali poverissimi, occasioni di sopravvivenza per vaste masse e perfino di arricchimento per piccoli strati di una umanità tutta egualmente avvelenata. Se si vuole avere un’idea di queste realtà, si può guardare alla colossale discarica di Agbogbloshie (Accra), in Ghana, dove migliaia di persone vivono e lavorano attorno a questo terribile... business.[3]
CONTROVERSIE ECO-DIGITALI
Giovanna Sissa dedica alcune pagine piuttosto accurate a un tema che, soprattutto in questa sede, appare di grande interesse: quello delle controversie che attraversano il mondo dei ricercatori e degli studiosi che hanno deciso si avventurarsi in questo campo. La valutazione/quantificazione dell’ammontare delle emissioni di gas a effetto serra determinate dalla complessiva attività del mondo digitale è, certamente, un’opera assai difficile e sdrucciolevole, in particolare per quanto riguarda le attività di produzione (e dunque le emissioni incorporate), data anche la lunghezza e la diffusione spaziale delle filiere industriali implicate, la scarsa chiarezza dei dati forniti dalle aziende sui consumi, il fatto che c’è in effetti un peso crescente delle energie rinnovabili nella produzione di energia elettrica spesso tuttavia difficile da stimare, per non parlare poi di tutta la selva di strategie, alcune del tutto truffaldine, che permettono a molte aziende delle ICT di considerarsi a “impatto zero” (non scendiamo qui nei dettagli, che il lettore potrà trovare nel libro).[4] Quel che però va rimarcato è che, a fronte di queste difficoltà oggettive, l’impegno della ricerca appare assai blando.
È interessante scoprire, per esempio, che solo tre sono le ricerche significative in questo campo nell’ultimo decennio: una nel 2015 e due nel 2018: due di queste sono peraltro realizzate da ricercatori di aziende delle ICT (Huawei 2015 e Ericcson 2018), e dunque potenzialmente viziate da conflitto d’interessi, e solo una di ambito accademico (2018). Non stupisce, dunque, che, quando si cerca di determinare la misura di queste emissioni ci si trovi di fronte a un notevole grado di incertezza.
E ora la domanda delle cento pistole: non sarà che questa incertezza deriva, oltre che dalla complessità oggettiva della materia che è fuor di dubbio, dalla precisa scelta, per esempio delle istituzioni universitarie, di non impegnarsi (i.e. di non investire risorse) in questa direzione? E che si preferisce lasciare questo ambito quale terra (volutamente) incognita, così da non disturbare troppo il “Manovratore Digitale”? È la stessa autrice a suggerirlo, quando invita a non «pensare che siamo in presenza di fenomeni inconoscibili: le quantificazioni possono essere migliorate, rese più attuali, più precise e più trasparenti. Dipende solo dalla volontà di farlo e dalle risorse che si dedicano a questo».[5]
-------------
Questo mondo “digitalizzato” che stiamo edificando attorno a noi (e sempre più dentro di noi), insomma, non è per niente “immateriale”, come pure un’ampia letteratura sociologica e filosofica ha teso e tende a farci credere e un irriflesso uso linguistico continua a suggerirci;[6] esso è parte non secondaria di quella colossale “tecnosfera” che da sempre gli uomini hanno bisogno di costruire attorno a sé ma che dalla Rivoluzione industriale in poi, e in particolare a partire dal XX secolo, ha assunto una dimensione tale da influenzare la stessa vita sulla terra e da costituire ormai un pericolo per la sopravvivenza dell’uomo.
Le apparentemente eteree tecnologie di rete, che secondo una filosofia corriva sarebbero ormai consustanziali alla nostra stessa vita, per così dire disciolte in noi, nella nostra carne e nel nostro spirito (mi riferisco all’immagine dell’onlife, proposta da Luciano Floridi), sono in realtà parte non secondaria di questa materialissima e inquinantissima (e sempre più pesante) tecnosfera.[7] Come le ferrovie o le autostrade.
Quando "accendiamo" internet e facciamo qualcosa in rete, sempre più spesso ormai, stiamo inquinando, anche se non sentiamo motori scoppiettanti, o non vediamo nuvole di fumo uscire da qualche parte.
E tanto meno stiamo diventando green e sostenibili, come pure ci fanno credere.
Siamo ancora parte del problema e non della soluzione.
(2 / fine)
NOTE
[1] Scriveva Nebbia, per esempio, con la consueta chiarezza, che «ogni “bene materiale” non scompare dopo l’uso. Ogni bene materiale – dal pane alla benzina, dal marmo alla plastica – ha una sua “storia naturale” che comincia nella natura, passa attraverso i processi di produzione e di consumo e riporta i materiali, modificati, in forma gassosa, liquida o solida, di nuovo nell’aria, sul suolo, nei fiumi e mari. Peraltro, la capacità ricettiva di questi corpi naturali sta diminuendo, a mano a mano che aumenta la quantità di scorie che vi vengono immesse e che i “progressi tecnici” rendono tali scorie sempre più estranee ai corpi riceventi stessi, e da essi difficilmente assimilabili» (Giorgio Nebbia, Bisogni e risorse: alla ricerca di un equilibrio, in NOVA. L’enciclopedia UTET. Scenari del XXI secolo, Torino, Utet, 2005, p. 36).
[2] È quel che ha fatto per molti anni la Cina, come parte del proprio percorso di integrazione nel mercato globale, fino a quando, sia in ragione della crescita del proprio mercato interno e dei propri consumi sia per la rilevanza degli effetti ambientali e delle proteste collegate, ha sostanzialmente bloccato (con una serie di provvedimenti tra 2018 e 2021) l’importazione di «rifiuti stranieri», gettando letteralmente nel panico le società industriali occidentali. Guardate con quale candore si esprimeva, all’epoca, questo articolo del “Sole 24 Ore”: Jacopo Giliberto, La Cina blocca l’import di rifiuti, caos riciclo in Europa, “Il Sole 24 Ore”, 13 gennaio 2018, https://www.ilsole24ore.com/art/la-cina-blocca-l-import-rifiuti-caos-riciclo-europa-AELQpUhD?refresh_ce=1
In questo specifico ambito – sia detto per inciso – si può vedere in forma concentrata il generale comportamento economico del grande paese asiatico che, dopo aver accettato di subordinarsi per un certo periodo alle “regole” della globalizzazione neoliberale a guida Usa (ai fini del proprio sviluppo nazionale), ha ripreso le redini della propria sovranità. Ragione per cui ora il cosiddetto Occidente gli ha dichiarato guerra (per ora, per fortuna, solo sul piano commerciale).
[3] Per avere una idea della realtà della periferia-discarica di Agbogbloshie (Accra, Ghana), si possono vedere alcuni documentari presenti in rete, per esempio quello prodotto da “InsideOver”: Agbogbloshie, le vittime del nostro benessere, https://www.youtube.com/watch?v=Ew1Jv6KoAJU
[4] Cfr. Giovanna Sissa, Le emissioni segrete, cit., p. 105 e ss.
[5] Ivi, p. 113.
[6] Mi sono soffermato su questo “immaterialismo” dell’ideologia contemporanea in: Toni Muzzioli, Il corpo della Rete. Sulla illusoria “immaterialità” della società digitale, “Ideeinformazione”, 10 settembre 2023, https://www.ideeinformazione.org/2023/09/10/il-corpo-della-rete/
[7] In un articolo pubblicato su “Nature”, un gruppo di ricercatori del Weizman Institute of Science (Israele) ha calcolato che il 2020 è l’anno in cui la massa dei manufatti umani («massa antropogenica») ha superato, in termini di peso, quella della biomassa, cioè dell’insieme degli esseri viventi del nostro pianeta. Ovvero: 110 miliardi di tonnellate contro cento miliardi (cfr. Sofia Belardinelli, Il pianeta delle cose, “Il Bo live. Il giornale dell’Università di Padova”, 28 dicembre 2020, https://ilbolive.unipd.it/it/news/pianeta-cose ).