Cicli glaciali e attività antropica - La concentrazione dei gas serra in atmosfera
Come abbiamo accennato in un precedente post, dallo studio sui cicli glaciali emerge una relazione diretta tra il variare della radiazione solare e la concentrazione naturale dell’anidride carbonica e del metano presenti in atmosfera.
La prima spiegazione valida a questo fenomeno arrivò nel 1981, quando il meteorologo John Kutzbach pubblicò uno studio in cui ipotizzava che, alle latitudini tropicali e in corrispondenza coi moti ciclici millenari terrestri, all’aumento della radiazione solare corrispondesse un aumento di intensità del fenomeno dei monsoni estivi che coinvolgono il Nord Africa, con relativa crescita di umidità ed espansione delle aree verdi in regioni attualmente desertiche.
Una delle conferme più incisive di questa teoria arrivò dagli studi effettuati sui carotaggi della calotta glaciale antartica estratti dalla stazione russa di Vostock (arrivata a circa 3.300 metri di profondità), al cui interno si trovavano imprigionate bolle d’aria risalenti fino a circa 400.000 anni fa. Oltre a confermare la maggiore umidità globale nell’epoca interessata dallo studio di Kutzbach, questi risultati rivelarono anche una maggiore presenza di metano nell’atmosfera nei periodi di più intenso irraggiamento solare, ossia in coincidenza con la maggiore presenza di vegetazione alle latitudini tropicali.
IL COMPORTAMENTO NATURALE DEL METANO NEI MILLENNI
Da quanto emerge dai carotaggi glaciali e da quelli oceanici, il ciclo di concentrazione atmosferica di CH₄ ha sempre mantenuto un’oscillazione costante nelle decine e centinaia di millenni passati, in correlazione coi moti millenari del pianeta.
Come risulta dalle verifiche effettuate in seguito sullo studio di Kutzbach, la variazione della concentrazione di metano in atmosfera è dovuta al fatto che in queste vastissime aree tropicali si trovavano grandi aree verdi che, nei momenti di maggiore intensità monsonica, venivano sommerse: la teoria aveva trovato le sue conferme.
In sostanza, il ristagno di queste acque innescava su scala macroscopica fenomeni di decomposizione organica anaerobica a carico dei microrganismi metanogeni, del tutto analoga a quella degli ambienti palustri.
Questa attività monsonica e i suoi effetti scatenanti le emissioni naturali di metano vanno estesi, oltre che alla regione del Sahel nordafricano studiato da Kutzbach, anche a tutte le vastissime aree tropicali che attraversano l’Arabia meridionale, l’India, il Sudest asiatico, fino ad arrivare alla Cina meridionale.
PERCHÉ AUMENTO ANOMALO “RECENTE” DELLE EMISSIONI DI CH₄?
Il ciclo di precessione coi suoi relativi effetti studiati da Kutzbach si compie in circa 25.000 anni, con intensità variabili dovute al concorso degli altri moti millenari compiuti dalla Terra.
Al giorno d’oggi ci troviamo nel minimo storico della radiazione solare estiva, a circa 10.000 anni di distanza dal massimo, e la concentrazione atmosferica di metano, anziché diminuire come era stato previsto, è aumentata.
Come risulta dalle diverse attività di studio elencate in precedenza, l’arresto del decremento e questo trend di anomalo aumento sono cominciati ben 5000 anni fa, ossia molto prima della rivoluzione industriale, a cui fino ad allora si attribuiva l’unica variazione anomala, e il cui inizio oscilla tra 250 e 200 anni fa.
Rimaneva ancora inspiegato e dunque attribuito a fattori "naturali" e “non-industriali” l’incremento precedente a quest’ultima era della produzione umana, a vantaggio anche dei negazionisti di un anomalo cambiamento climatico in atto e di chi faceva dunque risalire le cause a questi non ben precisati fenomeni naturali.
Se la spiegazione determinante di questi cambiamenti fosse risieduta nella sola “Natura”, allora il clima terrestre sarebbe dovuto andare incontro a un raffreddamento globale. Invece non è stato così.
Non solo le temperature medie sono aumentate, ma anche le emissioni di gas serra prodotte negli ultimi 250-200 anni non erano spiegabili, in quanto rappresentavano la sola metà del totale presente in atmosfera registrato all’epoca dei suoi studi.
La metà mancante andava cercata altrove e, escluse di per certo le cause naturali, il sospetto rimaneva in ambito antropico.
---------------------
La risposta a questo comportamento anomalo pre-industriale arrivò quando William Ruddiman ebbe un'intuizione, che verrà descritta in un prossimo post.
Internet non è una “nuvola” - Seconda parte
Nella prima parte di questo articolo, sulla scorta del recente volumetto di Giovanna Sissa Le emissioni segrete (Sissa G., Le emissioni segrete. L’impatto ambientale dell’universo digitale, Bologna, Il Mulino, 2024), abbiamo visto come il processo di produzione dei dispositivi elettronici e anche il funzionamento della rete siano fonti di consumi energetici ormai colossali e in via di costante incremento, a misura che procede la… “digitalizzazione della vita”. Ragionando in termini di emissioni di gas a effetto serra dovute a tali consumi, si parla, nel primo caso, di emissioni incorporate e nel secondo di emissioni operative. Delle prime fanno parte non solo quelle dovute al processo produttivo, ma anche quelle necessarie allo smantellamento e al riciclo dei prodotti, giunti a fine-vita. E di quest’ultimo aspetto ci occupiamo ora: dell’e-waste, ovvero della “spazzatura elettronica”.
E-WASTE, OVVERO: RITORNO ALLA TERRA
Non c’è prodotto, non c’è merce, che prima o dopo, in un modo o nell’altro, non torni alla terra sotto forma di rifiuto. E a questa legge, che ci hanno spiegato i grandi maestri del pensiero ecologico come lo statunitense Nicholas Georgescu-Roegen o qui in Italia Laura Conti e Giorgio Nebbia,[1] non fa eccezione il mondo digitale, con tutta la sua multiforme schiera di dispositivi personali, sottoposti peraltro a un ritmo sempre più rapido di obsolescenza-sostituzione (e non ci si faccia ingannare dalle rassicurazioni di aziende e istituzioni, come la Commissione europea, sull’impegno a superare le pratiche della obsolescenza programmata e a modificare il design dei propri prodotti in funzione del riciclo, riparazione ecc.! Nel caso migliore, si tratta di… pannicelli caldi).
Anche i processi di riciclo e trattamento comportano consumo di risorse e dunque emissioni (sono anch’esse da considerare “emissioni incorporate”). In questo caso a determinare le emissioni sono appunto procedimenti industriali molto complessi che devono estrarre da ogni dispositivo i materiali riutilizzabili.
Ebbene, quel che si scopre, in questo caso, è che dal punto di vista delle emissioni questa fase del ciclo di vita dei dispositivi elettronici sembra comportare un peso molto minore, ma questa – nota l’autrice – non è una buona notizia: significa molto semplicemente che gran parte di questa mole di materiali non vengono trattati adeguatamente. Anzi, diciamola meglio: non vengono trattati del tutto. Le ragioni – spiega Sissa – sono insieme tecniche ed economiche: i processi industriali di recupero dei materiali (anche di valore) contenuti in un pc o in uno smartphone sono talmente complessi (data la quantità minima di materiali da recuperare) da rendere in definitiva del tutto diseconomica l’operazione.
Le (poche) ricerche esistenti parlano di una percentuale non superiore al 20% di materiale riciclato; tutto il resto, molto semplicemente, viene… spedito in Africa o in un qualunque altro paese disperato, post (post?) coloniale o semplicemente intenzionato a garantirsi un po’ di rendita a costo di chiudere tutti e due gli occhi sugli effetti ecologici di questo “servizio”.[2]
È fuori dubbio che, in questo caso, il tipo di impatto ecologico è di carattere diverso: infiltrazione di sostanze tossiche nelle falde sottostanti le grandi discariche (in particolare piombo, cadmio, diossine…), avvelenamento di animali e verdure, dell’aria, intossicazione delle popolazioni che spesso finiscono per costruire intorno a questi gironi infernali hi-tech vere e proprie economie informali che consentono, in contesti sociali poverissimi, occasioni di sopravvivenza per vaste masse e perfino di arricchimento per piccoli strati di una umanità tutta egualmente avvelenata. Se si vuole avere un’idea di queste realtà, si può guardare alla colossale discarica di Agbogbloshie (Accra), in Ghana, dove migliaia di persone vivono e lavorano attorno a questo terribile... business.[3]
CONTROVERSIE ECO-DIGITALI
Giovanna Sissa dedica alcune pagine piuttosto accurate a un tema che, soprattutto in questa sede, appare di grande interesse: quello delle controversie che attraversano il mondo dei ricercatori e degli studiosi che hanno deciso si avventurarsi in questo campo. La valutazione/quantificazione dell’ammontare delle emissioni di gas a effetto serra determinate dalla complessiva attività del mondo digitale è, certamente, un’opera assai difficile e sdrucciolevole, in particolare per quanto riguarda le attività di produzione (e dunque le emissioni incorporate), data anche la lunghezza e la diffusione spaziale delle filiere industriali implicate, la scarsa chiarezza dei dati forniti dalle aziende sui consumi, il fatto che c’è in effetti un peso crescente delle energie rinnovabili nella produzione di energia elettrica spesso tuttavia difficile da stimare, per non parlare poi di tutta la selva di strategie, alcune del tutto truffaldine, che permettono a molte aziende delle ICT di considerarsi a “impatto zero” (non scendiamo qui nei dettagli, che il lettore potrà trovare nel libro).[4] Quel che però va rimarcato è che, a fronte di queste difficoltà oggettive, l’impegno della ricerca appare assai blando.
È interessante scoprire, per esempio, che solo tre sono le ricerche significative in questo campo nell’ultimo decennio: una nel 2015 e due nel 2018: due di queste sono peraltro realizzate da ricercatori di aziende delle ICT (Huawei 2015 e Ericcson 2018), e dunque potenzialmente viziate da conflitto d’interessi, e solo una di ambito accademico (2018). Non stupisce, dunque, che, quando si cerca di determinare la misura di queste emissioni ci si trovi di fronte a un notevole grado di incertezza.
E ora la domanda delle cento pistole: non sarà che questa incertezza deriva, oltre che dalla complessità oggettiva della materia che è fuor di dubbio, dalla precisa scelta, per esempio delle istituzioni universitarie, di non impegnarsi (i.e. di non investire risorse) in questa direzione? E che si preferisce lasciare questo ambito quale terra (volutamente) incognita, così da non disturbare troppo il “Manovratore Digitale”? È la stessa autrice a suggerirlo, quando invita a non «pensare che siamo in presenza di fenomeni inconoscibili: le quantificazioni possono essere migliorate, rese più attuali, più precise e più trasparenti. Dipende solo dalla volontà di farlo e dalle risorse che si dedicano a questo».[5]
-------------
Questo mondo “digitalizzato” che stiamo edificando attorno a noi (e sempre più dentro di noi), insomma, non è per niente “immateriale”, come pure un’ampia letteratura sociologica e filosofica ha teso e tende a farci credere e un irriflesso uso linguistico continua a suggerirci;[6] esso è parte non secondaria di quella colossale “tecnosfera” che da sempre gli uomini hanno bisogno di costruire attorno a sé ma che dalla Rivoluzione industriale in poi, e in particolare a partire dal XX secolo, ha assunto una dimensione tale da influenzare la stessa vita sulla terra e da costituire ormai un pericolo per la sopravvivenza dell’uomo.
Le apparentemente eteree tecnologie di rete, che secondo una filosofia corriva sarebbero ormai consustanziali alla nostra stessa vita, per così dire disciolte in noi, nella nostra carne e nel nostro spirito (mi riferisco all’immagine dell’onlife, proposta da Luciano Floridi), sono in realtà parte non secondaria di questa materialissima e inquinantissima (e sempre più pesante) tecnosfera.[7] Come le ferrovie o le autostrade.
Quando "accendiamo" internet e facciamo qualcosa in rete, sempre più spesso ormai, stiamo inquinando, anche se non sentiamo motori scoppiettanti, o non vediamo nuvole di fumo uscire da qualche parte.
E tanto meno stiamo diventando green e sostenibili, come pure ci fanno credere.
Siamo ancora parte del problema e non della soluzione.
(2 / fine)
NOTE
[1] Scriveva Nebbia, per esempio, con la consueta chiarezza, che «ogni “bene materiale” non scompare dopo l’uso. Ogni bene materiale – dal pane alla benzina, dal marmo alla plastica – ha una sua “storia naturale” che comincia nella natura, passa attraverso i processi di produzione e di consumo e riporta i materiali, modificati, in forma gassosa, liquida o solida, di nuovo nell’aria, sul suolo, nei fiumi e mari. Peraltro, la capacità ricettiva di questi corpi naturali sta diminuendo, a mano a mano che aumenta la quantità di scorie che vi vengono immesse e che i “progressi tecnici” rendono tali scorie sempre più estranee ai corpi riceventi stessi, e da essi difficilmente assimilabili» (Giorgio Nebbia, Bisogni e risorse: alla ricerca di un equilibrio, in NOVA. L’enciclopedia UTET. Scenari del XXI secolo, Torino, Utet, 2005, p. 36).
[2] È quel che ha fatto per molti anni la Cina, come parte del proprio percorso di integrazione nel mercato globale, fino a quando, sia in ragione della crescita del proprio mercato interno e dei propri consumi sia per la rilevanza degli effetti ambientali e delle proteste collegate, ha sostanzialmente bloccato (con una serie di provvedimenti tra 2018 e 2021) l’importazione di «rifiuti stranieri», gettando letteralmente nel panico le società industriali occidentali. Guardate con quale candore si esprimeva, all’epoca, questo articolo del “Sole 24 Ore”: Jacopo Giliberto, La Cina blocca l’import di rifiuti, caos riciclo in Europa, “Il Sole 24 Ore”, 13 gennaio 2018, https://www.ilsole24ore.com/art/la-cina-blocca-l-import-rifiuti-caos-riciclo-europa-AELQpUhD?refresh_ce=1
In questo specifico ambito – sia detto per inciso – si può vedere in forma concentrata il generale comportamento economico del grande paese asiatico che, dopo aver accettato di subordinarsi per un certo periodo alle “regole” della globalizzazione neoliberale a guida Usa (ai fini del proprio sviluppo nazionale), ha ripreso le redini della propria sovranità. Ragione per cui ora il cosiddetto Occidente gli ha dichiarato guerra (per ora, per fortuna, solo sul piano commerciale).
[3] Per avere una idea della realtà della periferia-discarica di Agbogbloshie (Accra, Ghana), si possono vedere alcuni documentari presenti in rete, per esempio quello prodotto da “InsideOver”: Agbogbloshie, le vittime del nostro benessere, https://www.youtube.com/watch?v=Ew1Jv6KoAJU
[4] Cfr. Giovanna Sissa, Le emissioni segrete, cit., p. 105 e ss.
[5] Ivi, p. 113.
[6] Mi sono soffermato su questo “immaterialismo” dell’ideologia contemporanea in: Toni Muzzioli, Il corpo della Rete. Sulla illusoria “immaterialità” della società digitale, “Ideeinformazione”, 10 settembre 2023, https://www.ideeinformazione.org/2023/09/10/il-corpo-della-rete/
[7] In un articolo pubblicato su “Nature”, un gruppo di ricercatori del Weizman Institute of Science (Israele) ha calcolato che il 2020 è l’anno in cui la massa dei manufatti umani («massa antropogenica») ha superato, in termini di peso, quella della biomassa, cioè dell’insieme degli esseri viventi del nostro pianeta. Ovvero: 110 miliardi di tonnellate contro cento miliardi (cfr. Sofia Belardinelli, Il pianeta delle cose, “Il Bo live. Il giornale dell’Università di Padova”, 28 dicembre 2020, https://ilbolive.unipd.it/it/news/pianeta-cose ).
Stiamo ritardando la prossima glaciazione? Sì.
Sia il lettore più attento che quello più frettoloso avranno notato che nel titolo è già contenuta la risposta. Per quanto sinteticamente perfetta, ad entrambi, anche al più frettoloso, risulterà una risposta troppo breve ed interesserà perciò comprendere il perché di questo “Si”.
Questa evidenza emerse da una serie di studi che iniziarono negli ultimi anni del XX secolo e che si svilupparono lungo il primo decennio del XXI.
Il primo riscontro della disattesa partenza di una nuova era glaciale fu uno studio diretto dal paleoclimatologo William Ruddiman che coinvolse i meteorologi John Kutzbach e Steve Vavrus.
Essi cercarono, e trovarono – grazie a un modello di simulazione matematica che il climatologo Larry Williams creò negli anni ’70 - la conferma di quanto negli anni ‘80 aveva scoperto il geologo John Imbre: l’ultima fase interglaciale doveva essere terminata tra i 6.000 e i 5.000 anni fa.
Questo modello sul comportamento climatico venne impostato escludendo, tra i fenomeni che influenzano l’alternanza tra ere glaciali e interglaciali, le emissioni anomale di gas serra, iniziate quasi esattamente nello stesso periodo di fine dell’ultima fase interglaciale.
Secondo i risultati del modello, da allora i ghiacciai avrebbero dovuto iniziare ad accrescersi progressivamente, per via di un raffreddamento medio globale di 2°C (tantissimo in soli 6-5.000 anni) e il punto di massimo raffreddamento avrebbe dovuto presentarsi a Nord della Baia di Hudson, toccando un calo medio invernale di 5-7°C.
Però, ciò non è avvenuto.
Ancor più precisamente, lo studio rivelò che nell’Isola di Baffin (Canada) si sarebbe dovuto instaurare uno stato di glaciazione incipiente, ossia la presenza di un manto nevoso perenne, contro la sua attuale assenza per 1-2 mesi ogni estate.
In più, ai giorni nostri, avremmo dovuto assistere a qualcosa di analogo nell’altopiano del Labrador, il penultimo luogo in cui si sciolsero i ghiacciai dell’ultima glaciazione; il primo era per l’appunto l’isola di Baffin.
Lo studio generò sia plausi che critiche, e da queste ultime Ruddiman fu stimolato a fare ulteriori approfondimenti che lo portarono a studiare una glaciazione intercorsa ben 400.000 anni fa, che presentava variazioni della radiazione solare e delle emissioni naturali di gas serra analoghe a quelle della fase odierna.
L’approfondimento confermò quanto previsto dallo studio precedente e mai avvenuto perché interrotto cinque millenni fa: si sarebbe dovuto registrare un progressivo decremento fino ai valori minimi della concentrazione in atmosfera di metano (CH₄) e anidride carbonica (CO2).
Questi ulteriori studi, in sostanza, riconfermavano quanto ipotizzato: siamo oggettivamente all’interno di una fase glaciale, ma climaticamente ritardata. La causa del ritardo è da ricondursi prevalentemente a questa anomala alta concentrazione di gas serra.
PERCHÉ “OGGETTIVAMENTE” ALL’INIZIO DI UNA NUOVA FASE GLACIALE?
Se nel brevissimo periodo, anche di poche ore, è difficile prevedere localmente quale sarà il comportamento meteorologico, questo può essere, invece, fatto per il comportamento climatico globale nei tempi più lunghi delle decine e centinaia di migliaia di anni.
I paleoclimatologi hanno infatti già da tempo scoperto l’esistenza di veri e propri cicli climatici. Lo hanno potuto fare incrociando i dati geologici e paleontologici (soprattutto dai carotaggi oceanici) con quelli chimici (presenza di molecole e atomi con isotopi specifici presenti nei ghiacci e nei sedimenti fossili dei fondali marini) assieme alle leggi astronomiche ormai note dei moti terrestri detti “millenari”.
Su questi ultimi possiamo basare la “oggettività” che cercavamo.
I MOTI MILLENARI DEL PIANETA TERRA.
Se il moto orbitale della Terra attorno al Sole causa l’avvicendamento delle stagioni in circa 365 giorni, le cosiddette “ere” glaciali e i periodi interglaciali, fenomeni molto più lunghi nel tempo, sono invece principalmente conseguenza della variazione della quantità di radiazione solare ricevuta dal Pianeta, dovuta a tre movimenti che la Terra compie in decine di migliaia di anni.
1. Il primo è quello dell’oscillazione dell’asse di rotazione terrestre: scoperta dal matematico e astronomo francese Urbain Jean Joseph Le Verrier nel XIX secolo, è una lenta variazione dell’angolo di inclinazione dell’asse, che compie il proprio ciclo oscillatorio tra 22° 20’ e 24° 50’ in 41.000 anni circa.
Essa influisce direttamente sulla quantità di radiazione solare che raggiunge le latitudini più elevate del Pianeta (dai 45° N in su).
In termini più semplici: minore è il grado d’inclinazione dell’asse terrestre, minore sarà la quantità di radiazione che ricevono i poli terrestri, minori dunque saranno le temperature del clima globale e viceversa.
Attualmente l’inclinazione è di 23° 50’ circa, in fase di risalita verso la gradazione minima.
I restanti due moti influiscono invece sulla variazione della distanza della Terra dal Sole, che in termini empirici equivale alla sensazione che possiamo esperire d’inverno nel variare di pochi centimetri la nostra distanza dal tanto amato calorifero (i più freddolosi sanno bene quanto pochi centimetri facciano la differenza tra felicità e sofferenza).
2. L’eccentricità dell’orbita del Pianeta attorno al Sole: varia in un ciclo di circa 100.000 anni ed è quel fenomeno per cui l’orbita della Terra tende ad essere ellittica e solo ad avvicinarsi a un’orbita circolare (il cerchio ha eccentricità pari a 0).
Sempre scoperta da Le Verrier, questa variazione influisce sulla distanza media che il Pianeta mantiene rispetto al Sole (ripensate alla vostra distanza dal calorifero nelle giornate invernali e all’invidia che avete provato verso i compagni di classe o i colleghi che gli stavano più vicino durante l’intera giornata).
Le sue oscillazioni periodiche sono molto più irregolari rispetto a quelle dell’asse terrestre e attualmente si attesta a 0,0167, in un raggio di variazione totale tra il valore minimo di 0,0033 e quello massimo di 0,0671. In termini pratici parliamo di variazioni nell’ordine dei milioni di chilometri di differenza di distanza dalla fonte di calore che è il Sole.
3. Per ultimo abbiamo il moto di precessione, dal ciclo più breve di 25.000 anni, ossia il moto conico dell’asse di rotazione della Terra dovuto all’attrazione reciproca con la Luna e gli altri pianeti.
Scoperto nel XVIII secolo dal famoso enciclopedista francese Jean-Baptiste Le Rond d'Alembert, questo fenomeno è meno intuitivo da immaginare e viene spesso spiegato attraverso il moto di una trottola, la quale non solo gira su sé stessa ma possiede anche un movimento che la porta ad ondeggiare e inclinarsi da una parte all'altra: il moto di precessione.
Gli effetti che questi moti hanno sul clima sono anche chiamati Cicli di Milanković, dal nome dall'ingegnere e matematico serbo Milutin Milanković che li ipotizzò e studiò ai primi del XX secolo.
CONCLUSIONI
Anche se il clima è il risultato di un sistema complesso le cui variabili generano altrettanti e complessi meccanismi di feedback, in generale possiamo immaginare che valga la regola per cui ogni fenomeno che modifica per lungo tempo il comportamento della radiazione solare ricevuta dalla Terra, è determinante sul lungo tempo per il clima globale del Pianeta; i suoi effetti, però, saranno sempre riscontrabili con leggero ritardo.
La relazione tra i vari moti millenari determina dunque, oltre alla ricorrenza dei periodi glaciali, anche l’intensità con cui essi si presenteranno ciclicamente.
I dati raccolti dai paleoclimatologi ci rivelano inoltre che la storia delle glaciazioni è in realtà molto recente. È da 3 milioni di anni che la Terra si sta lentamente raffreddando, con la comparsa dei primi ghiacciai, solamente stagionali, risalente a circa 2,75 milioni di anni fa nelle regioni settentrionali del Pianeta.
È invece da “soli” 0,9 milioni di anni che hanno iniziato ad esistere i ghiacciai permanenti.
Nel periodo delle decine e centinaia di migliaia di anni, il clima globale è dunque prevedibile grazie ai modelli fisici ed astronomici confermati dagli studi di geologi, paleologi e paleoclimatologi: abbiamo la certezza che, anche basandosi esclusivamente sul moto di precessione, ci troviamo già dentro l’inizio di una nuova era glaciale - che non è però mai iniziata.
Quasi certamente questo inizio disatteso è da attribuirsi alle emissioni in atmosfera dei cosiddetti “gas serra”, che, come è ormai accettato dalla quasi totalità delle comunità scientifiche, non permettono la naturale dispersione della quantità di radiazione solare ricevuta dal pianeta che invece continua a riscaldarsi.
Inoltre, secondo i modelli climatici, questi gas sarebbero dovuti diminuire anziché aumentare, ostacolando l’innescarsi dei feedback positivi e naturali di innesco della prossima glaciazione.
Stiamo ritardando la prossima glaciazione? Si.
PER APPROFONDIMENTI
William Ruddiman, “L’aratro, la peste, il petrolio - L’impatto umano sul clima”, UBE Paperback, 2015
William Ruddiman, “Earth’s Climate”, Freeman, 2001
Gemelli digitali del pianeta? No grazie - Una riflessione sui "futuri simulati"
Un articolo recentemente pubblicato sul giornale WIRES Climate Change offre una critica articolata delle iniziative anche Europee di costruire dei gemelli digitali dell’intero pianeta, comprensivi di oceani, atmosfera, biosfera, e degli umani con le loro economie e società. Di cosa si tratta?
Molti gemelli artificiali sono già di uso corrente, in ingegneria, medicina e gestione dei processi. Secondo il sito della IBM un gemello digitale
… È una rappresentazione virtuale di un oggetto o sistema, disegnato per riflettere accuratamente un oggetto fisico. Esso copre l’intera vita dell’oggetto, viene alimentato con dati in tempo reale e usa simulazioni, nonché tecniche di apprendimento automatico (machine learning)
Gemelli di una turbina, di un ciclo produttivo o di un cuore umano, possono aiutare nello sviluppo di nuovi prodotti, processi o farmaci.
Il passaggio da una turbina al pianeta con noi sopra non è ovviamente cosa da nulla. Questi megamodelli gireranno su supercomputers inghiottendo enormi banche dati e generando immensi output che potranno essere ‘letti’ con l’ausilio di intelligenze artificiali. Essi ci consentiranno, secondo chi li propone, di affrontare le sfide dell’antropocene (un termine usato per indicare una nuova fase geologica caratterizzata da un visibile impatto umano) con particolare attenzione ai cambiamenti climatici. I gemelli del pianeta saranno collegati in tempo reale con satelliti, droni, boe, cavi sottomarini, sensori della produzione agricola e telefoni mobili.
Euronews, una rivista con sede a Bruxelles, si porta avanti, e annuncia: 'Gli scienziati hanno costruito un "gemello digitale" della Terra per prevedere il futuro del cambiamento climatico'. Secondo Margrethe Vestager, Vicepresidente Esecutiva per un'Europa dell’era digitale:
Il lancio dell'iniziale Destination Earth (DestinE) è un vero punto di svolta nella nostra lotta contro il cambiamento climatico... Significa che possiamo osservare le sfide ambientali, il che ci aiuterà a prevedere scenari futuri - come non abbiamo mai fatto prima... Oggi, il futuro è letteralmente a portata di mano.
DestinE è la versione europea dei numerosi progetti volti a costruire gemelli digitali del pianeta. L'idea che possiamo costruire una replica in silico (cioè nella pancia di un computer) della Terra ha un chiaro fascino culturale, una visione prometeica di fuga definitiva dell'umanità dalla materialità, accolta con entusiasmo come si vede da diversi decisori politici e da molte istituzioni scientifiche, come si puo’ vedere dal numero speciale del giornale Nature Computational Change, che discutendo diverse applicazioni del gemelli digitali presenta l’estensione all’intero pianeta come una naturale evoluzione della tecnologia. Perché opporsi, quando tanti fondi appaiono a portata di mano per sviluppare computers e modelli più potenti per studiare la Terra, il suo clima, l’evoluzione metereologica e gli eventi estremi? L’iperbole diventa di rigore, e così si arriva a dire che i gemelli preconizzano una nuova fase nello sviluppo dell’umanità, dove il mondo diventa “cyber-physical” cioè senza più barriere fra il virtuale ed il reale, grazie al suo nuovo esoscheletro.
Pubblicare un articolo critico come quello offerto da Wires Climate Change diventa così una sfida per gli undici autori, che richiede pazienza e una certa dose di ostinazione per procedere nonostante i rifiuti di molti giornali di scienze naturali. Quali ragioni adducono questi autori a ‘mettersi di traverso’? Le ragioni sono diverse e fanno riferimento a diverse scuole e discipline – come gli stessi autori:
- I proponenti dei gemelli digitali della Terra sostengono che essi, aumentando la risoluzione spaziale dei modelli, fino alla scala del kilometro, ci consentiranno di decifrare i misteri del cambio climatico. Per i dissidenti sopracitati:
Più alta è la risoluzione (cioè, maggiore è la localizzazione), più emergono feedback non fisici come rilevanti, che si tratti degli effetti microclimatici delle foreste o dei micropattern di albedo dovuti al ricongelamento di pozze acquose sulle calotte di ghiaccio. Il cambiamento di scala spesso comporta cambiamenti non banali nella complessità e nei principi che governano il sistema, e scale più dettagliate possono rivelare comportamenti caotici deterministici. Una risoluzione diversa potrebbe richiedere descrizioni di processi differenti, forse ancora sconosciute.
- I gemelli sono il risultato di una catena di riduzioni: la scienza viene ridotta alla fisica delle equazioni che governano il cambiamento climatico, e questa viene a sua volta ridotta ad un determinismo che solo esiste nelle equazioni stesse.
- L’enfasi sui gemelli, anche per affrontare sfide come la difesa della biodiversità, stravolge la natura della sfida e ne sposta il baricentro dal sud globale, dove si trovano le specie da classificare e difendere, al nord globale dove l’attenzione si concentrerà sulle specie sulla quali esistono più dati.
- Il progetto dei gemelli illustra drammaticamente l’autorità epistemica (relativa alla conoscenza) assunta dai modelli e da chi li opera. Gli eccessi di tale autorità, resi evidenti nel corso della recente pandemia, sono evidenti nella impostazione dei gemelli, che tendono a posizionare il cambio climatico – di certo reale e incombente – come una mono-narrazione cui tutto deve fare riferimento, comprese guerre, migrazioni, e derive autoritarie, con il risultato di oscurare la geopolitica con la fisica a danno dei deboli che si vorrebbero difendere dal cambiamento climatico.
- I gemelli digitali emergono da un intreccio di cambiamenti sociopolitici e tecnologici, in cui i numeri – indipendentemente da come vengono generati, siano essi visibili, come nelle statistiche, o invisibili, come quelli che girano nel ventre degli algoritmi – influenzano sempre più il discorso sociale, causando l’allarme dei filosofi, dei giuristi, degli economisti e degli stessi tecnologi, per non parlare degli esperti che studiano la sociologia della quantificazione e la sua relazione con la politica.
Quest’ultimo bullet, relativo alla relazione fra modelli, numeri e politica, si presta a interessanti digressioni, su come i numeri conferiscano potere epistemico e legittimità, e siano diventati il mezzo prevalente per esprimere valore nelle nostre società. L'accesso e la produzione di numeri riflettono e rafforzano le strutture di potere esistenti. I numeri catturano la nostra attenzione orientandola selettivamente. I numeri sono diventati invisibili poiché penetrano ogni aspetto della vita attraverso grandi modelli, algoritmi e intelligenza artificiale. Numeri e fatti sono diventati sinonimi. I numeri hanno colonizzato i fatti.
Un’altra digressione possibile riguarda il "fact signalling” con i numeri – «una pratica in cui i tropi stilistici del pensiero logico, della ricerca scientifica o dell'analisi dei dati vengono indossati come un costume per rafforzare un senso di giustizia morale e certezza». Questa è diventata un'attività dilagante praticata da esperti, presunti verificatori di fatti, politici e media. Un'arte simile è praticata dai cosiddetti ‘imprenditori di valori’ – esperti il cui lavoro consiste nel misurare il valore sociale di diverse iniziative al fine di stabilire legittimità, dimostrare conformità, cambiare comportamenti o giustificare un campo. Il fact signalling è anche praticato da attori industriali per difendere i propri interessi sotto il pretesto di difendere la scienza dai suoi presunti nemici. I numeri sono diventati una misura di virtù, ed i gemelli del pianeta ce ne forniranno in abbondanza.
Una terza ed ultima digressione – ci perdoneranno i lettori – riguarda il ruolo dei mezzi di comunicazione in quanto discusso fin qui. I media hanno sostanzialmente fallito nel monitorare adeguatamente gli esperti, spesso presentando le opinioni degli stessi esperti come certezze. Sul fronte cruciale della politica, i media contribuiscono a una campagna futile per difendere la democrazia e i valori dell'illuminismo attraverso la “verifica dei fatti” (sempre con numeri). Come osservato da un linguista cognitivo, ciò avvantaggia le forze antidemocratiche moltiplicando il loro messaggio: contare le bugie di Trump significa parlare di Trump ogni giorno. L'uso sconsiderato dei numeri banalizza i valori della politica e indebolisce la vita democratica.
Tornando ai gemelli del pianeta, si può concludere con una ricetta in quattro punti per un futuro più gentile, basata sullo sviluppo di diversi modelli specifici e adatti allo scopo piuttosto che su un modello universale, sull'esplorazione del potenziale di modelli semplici basati su euristiche in contesti climatici/ambientali, sulla raccolta e integrazione di dati da fonti divergenti e indipendenti, inclusa la conoscenza tradizionale, e sull'abbandono di una visione del pianeta centrata sulla fisica a favore di una diversità di processi relazionali, sia sociali che biologici, naturalmente fluttuante e irriducibilmente incerta, che richiede pratiche di cura più pluraliste e provvisorie per contrastare le narrazioni socio-ecologiche della modernizzazione ecologica, della crescita verde, dei servizi ecosistemici e simili.
Questa non è una discussione del tutto nuova. Il sociologo della scienza Brian Wynne osservava quaranta anni fa in relazione ai grandi progetti di modellizzazione:
Che sia deliberatamente concepito e utilizzato in questo modo o meno, la grande modellizzazione può essere interpretata come un simbolo politico il cui significato centrale è la diseducazione e la privazione del diritto di partecipazione delle persone dalla sfera della politica e della responsabilità.
Wynne suggeriva inoltre che:
In effetti, l'analisi delle politiche, specialmente quella condotta attorno a modellizzazioni su larga scala, tende ad essere strutturata in modo tale che ogni gruppo di modellizzazione costituisca virtualmente la propria ‘peer community’ [la comunità di esperti in grado di verificare la qualità del prodotto scientifico].
È quindi legittima la preoccupazione?
---------------------------------
Una versione di questo articolo è apparsa in inglese nel blog ‘The Honest Broker’ di Roger Pielke Jr., settembre 2024.
Soluzioni Basate sulla Natura (NBS) - Un nuovo approccio per lo sviluppo equilibrato
Buongiorno Emanuele. Tu - nel tuo percorso di dottorato - ti stai occupando degli ecosistemi nell’ambiente urbano e delle possibilità di quantificare i benefici che questi generano in favore degli esseri umani.
Recentemente abbiamo sentito parlare – per lo più in ambienti istituzionali - di NBS, di Nature Based Solutions, a proposito – ad esempio – di come affrontare le emergenze come alluvioni, frane e siccità.
Puoi darci un’idea concreta di cosa sono le NBS?
La nozione di “Soluzioni Basate sulla Natura”, il cui acronimo è “NBS”, raffigura l’attuale ricerca di nuovi approcci per perseguire lo sviluppo integrando, in modo equilibrato, obiettivi sociali, ambientali ed economici.
Per chiarirne il senso possiamo usare alcune fonti istituzionali illustri come la Commissione Europea ed Il Programma delle Nazioni Unite per l'Ambiente (UNEP), che rappresenta la principale autorità ambientale globale.
La prima qualifica le NBS come “soluzioni ispirate e supportate dalla natura, efficaci dal punto di vista dei costi, che forniscono benefici ambientali, sociali ed economici e contribuiscono a costruire la resilienza”.
La seconda fonte, invece, fornisce la definizione più attuale e completa per descrivere le NBS. Nello specifico, l’UNEP le riconosce come “azioni volte a proteggere, conservare, ripristinare, utilizzare in modo sostenibile e gestire ecosistemi terrestri, d'acqua dolce, costieri e marini naturali o modificati che affrontano le sfide sociali, economiche e ambientali in modo efficace e adattivo, fornendo contemporaneamente benessere umano, servizi ecosistemici, resilienza e benefici per la biodiversità".
Queste definizioni identificano l’equilibrio tra le diverse dimensioni come elemento chiave e imprescindibile. Le NBS, infatti, non rappresentano sicuramente la panacea per le crisi climatiche e ambientali, ma, se ben progettate e implementate, a livello locale possono generare molteplici benefici su tutte e tre le dimensioni obiettivo: ambientale, sociale ed economica.
Perché è opportuno affrontare temi come – ad esempio - il dissesto idrogeologico, e le alluvioni che spesso ne conseguono, affidandosi a queste metodologie e non puntando – invece – su altre soluzioni più “ingegneristiche”?
La risposta non è semplice e per nulla scontata. Come accennato poco fa, se le NBS venissero ben progettate, nonché integrate con la pianificazione a livello locale, dovrebbero essere costruite, sviluppate e inserite nel paesaggio circostante per aiutare a proteggere, ripristinare e gestire in modo sostenibile gli ecosistemi naturali e modificati nel processo; inoltre, allo stesso tempo dovrebbero risultare economicamente vantaggiose nonché fornire benefici sociali, ambientali ed economici a lungo termine.
La loro grande innovazione sta proprio nell’elaborare una visione completa e a lungo termine, concetto che risulta sempre un po’ ostico da assimilare. L’essere umano infatti, nella sua storia, ha sempre avuto la tendenza a massimizzare il profitto ottenibile da una specifica risorsa, meglio se in tempi brevi. Questa logica, se osservata da un punto di vista individuale, risulta difficilmente confutabile ma, se analizzata da un punto di vista più ampio come quello di “comunità” in cui noi tutti viviamo, mostra facilmente segni di debolezza.
Lo scienziato e scrittore Nicholas Amendolare, nella sua "tragedy of the commons", descrive in modo chiarissimo il motivo per il quale una visione individualista non sia più perseguibile da una specie complessa e sociale come quella umana. Egli approfondisce il dilemma in cui individui, agendo autonomamente e razionalmente in base al proprio interesse, sfruttano in modo eccessivo una risorsa comune e condivisa, portandola al suo esaurimento. Infatti, quando tutti cercano di ottenere il massimo beneficio personale senza considerare l'impatto cumulativo delle proprie azioni, la risorsa viene sovrasfruttata, riducendo o addirittura impedendo così la capacità futura per tutti di poterne trarre beneficio.
La mancanza di regolamentazione o di gestione collettiva delle risorse comuni – come pascoli, foreste, pesci nei mari, o l'atmosfera – porterà facilmente ad una vera e propria “tragedia” con conseguenti implicazioni sociali e morali. Proprio per questo, le NBS rappresentano uno strumento importante e, forse, irrinunciabile, in quanto permettono di conciliare lo sviluppo umano, senza però esaurire irreversibilmente le risorse che l’ambiente ci offre, garantendo pertanto un maggior beneficio collettivo.
Puoi farci un esempio?
Certamente: una vecchia piazza urbana, magari con pavimentazione rovinata e deteriorata, potrebbe essere il soggetto ideale per un progetto di rigenerazione che voglia adottare la metodologia NBS. Analizzando specificatamente le condizioni ambientali che la caratterizzano, le dinamiche sociali e politiche locali e identificando la visione del pianificatore a lungo termine, è possibile progettare la sua riurbanizzazione in modo da ottenere benefici sociali, economici e ambientali. Sostituendo, ad esempio, i materiali della pavimentazione - vecchi e danneggiati - con materiali nobili, che assorbano meno calore, si potrebbe migliorare esteticamente la piazza e contemporaneamente diminuirne l’effetto “isola di calore”, migliorando quindi le condizioni di vita per umani, piante e animali. Oppure, inserendo delle zone verdi, non solo si creano aree di sviluppo e mantenimento della biodiversità ma - sicuramente - si facilita l’assorbimento delle acque meteoriche, riducendo il rischio di allagamenti e inondazioni che sempre più spesso provocano danni (anche economici) alle nostre città.
Per concludere, le NBS possono essere un ponte che collega obiettivi apparentemente molto distanti tra loro; tuttavia, per evitare che siano solo bellissime idee, è necessario che siano progettate e pianificate con la dovuta attenzione e cura.
Cibo di alta qualità, crescita economica, salvare il pianeta o salvare gli animali? - 4 istanze morali in tensione
Due settimane fa, parlando della FAO e della controversia sulle misure più efficaci per contenere le emissioni di gas serra, abbiamo evidenziato un possibile conflitto tra l’obiettivo di diminuire significativamente la CO2 immessa nell’atmosfera e la missione della FAO stessa di garantire a tutti abbastanza cibo di alta qualità.
Nell’accezione della FAO, infatti, il cibo di alta qualità è principalmente rappresentato dalle proteine di origine animale e, quindi, ridurre le emissioni di CO2 che vengono dagli allevamenti intensivi significa mettere in crisi il meccanismo di approvvigionamento di una parte importante del cibo di alta qualità.
Questa tensione tra i due obiettivi mostra come, spesso, i problemi di carattere scientifico (il modo in cui ridurre la produzione di CO2 è indubbiamente un problema scientifico) celino una dimensione politica e, quindi, di scelte morali [1].
In questo caso, esaminando con maggiore attenzione i termini della controversia, emerge che ci sono almeno quattro obiettivi di carattere politico e morale in tensione reciproca:
- La riduzione della CO2 anche attraverso il drastico ridimensionamento dell’industria della carne [2], che fa capo all’istanza morale di “salvare il pianeta”,
- La garanzia che tutti abbiano sufficiente cibo di alta qualità, che fa capo all’istanza morale di “salvare le persone umane” dalla fame e dagli effetti negativi che derivano da una alimentazione insufficiente o troppo povera,
- La salvaguardia dell’economia e dell’occupazione delle sfere sociali in cui operano i produttori di carne, la cui istanza morale può essere riassunta in “garantire lavoro e sussistenza”,
- L’attenzione alla vita e al benessere degli animali non umani, importante per una sempre più diffusa sensibilità la cui istanza morale di riferimento è “non uccidere e non far soffrire tutti gli animali”.
In modo molto schematico e semplificato, la tensione reciproca tra le 4 istanze morali è abbastanza evidente considerando gli effetti della riduzione degli allevamenti:
- ridurre significativamente gli allevamenti (e la CO2 che producono) può generare crisi economica e disoccupazione, almeno nel breve periodo e, contestualmente, ridurre la disponibilità di cibo di alta qualità per chi ne ha bisogno
- mantenere in continuità gli allevamenti con la conseguente stabilità economica e occupazionale, può – invece – impedire il raggiungimento degli obiettivi di contenimento della CO2 e (senza può) provoca morte e sofferenza a milioni di animali non umani (bovini, ovini e suini)
A queste 4 istanze morali va aggiunta quella del rispetto e della continuità delle tradizioni, tra cui quelle alimentari, che includono – spesso – il consumo di carne, abitudinario o addirittura con sfumature rituali (ad esempio, il Sunday Roast in Gran Bretagna, il capitone a Natale e l’agnello a Pasqua in Italia, il tacchino per il Thanksgiving negli US ecc.), che complica ulteriormente il quadro.
Questa contrapposizione di obiettivi mostra chiaramente come, dietro una questione scientifica (il maggiore o minore valore della CO2 da allevamenti), si ponga la necessità di fare delle scelte morali, di determinare quali siano le priorità da assegnare alle diverse opzioni e ai diversi obiettivi, cosa sia più importante, quale sia il valore da collocare in cima alla scala.
E, ancora una volta, mostra che le scienze e il lavoro scientifico non siano neutrali ma
- influenzate da istanze sociali, politiche e morali; l’interpretazione riduttiva del tasso di CO2 legato agli allevamenti intensivi, in questo caso, può essere stato influenzato da considerazioni di natura economica, occupazionale e alimentare
- politicamente e socialmente attive; in questo caso, ancora, la lettura della FAO ha orientato l’agenda politica e ambientale in direzione diversa da quella della riduzione dell’allevamento di animali da carne
È, perciò, opportuno non credere alla presunta obiettività e neutralità delle scienza ma – riconoscendone la rilevanza per la vita di tutti e senza cadere in forme di critica distruttiva – fare attenzione alle implicazioni sociali, politiche e morali che esse sottendono.
--------
A ben vedere, inoltre, queste contrapposizioni tra istanze morali che, prese una alla volta, sono tutte ampiamente condivisibili (chi non vuole salvare la Terra? E chi non vorrebbe eliminare la fame dal mondo? E chi si opporrebbe ad una economia florida e con meno disoccupazione? A chi piace veder soffrire e morire animali innocenti?) sono ben rappresentate tra gli organismi sovranazionali che, in particolare, fanno capo alle Nazioni Unite:
- la FAO – che ha la missione di assicurare cibo sufficiente e di qualità per tutti
- l’UNEP – che lavora a favore della tutela dell’ambiente e della sostenibilità
- la WOAH – che si occupa della salute e del benessere degli animali non umani
- l’ILO – organizzazione internazionale per il lavoro, con il fine di creare maggiori opportunità di occupazione e redito dignitosi
- la Banca Mondiale e il Fondo Monetario Internazionale – che dovrebbero impegnarsi per uno sviluppo equo ed equilibrato di tutte le nazioni
Organismi e obiettivi in tensione o, addirittura, in parziale conflitto tra loro. Come si possono – quindi – armonizzare agende [3] tanto diverse tra loro?
Un primo passopotrebbe essere quello di abbattere una sorta di tabù, quello dell’identificazione del cibo di alta qualità con la carne animale seguendo, ad esempio, le linee guida del Rapporto EAT – Lancet, che indica vie alternative (e spesso a minor costo) di alimentazione ricca e completa. Se la FAO adottasse questo punto di vista uno dei termini di opposizione si eliminerebbe.
Un secondo passo potrebbe essere, conseguenza del primo, l’adozione di una politica di progressiva trasformazione dell’economia dell’allevamento in economia della produzione e trattamento dei cereali per alimentazione umana, con misure di sostegno eco-finanziario da parte della Banca Mondiale, e con risultati efficaci per la salvaguardia dell’ambiente (meno CO2), del benessere di animali umani (meno rischi cardiaci) e non umani (meno sofferenze e morti).
Inoltre, eludendo la difficoltà di armonizzare politiche mondiali, potrebbe essere opportuno focalizzare gli interventi su aree micro economiche ed ambientali, in cui le misure di contenimento delle emissioni di CO2 possono essere orientate in modo mirato e gli interventi per la trasformazione ambientale, alimentare e produttiva possono essere sostenuti in modo più efficace, creando esperienze pilota e buone pratiche da diffondere.
Sempre con un occhio attento alle relazioni tra scienze, società, morale e politica, e con le orecchie aperte alle istanze minoritarie – anche quelle scientifiche – che possono alimentare l’innovatività e le soluzioni meno ovvie.
NOTE
[1] In modo molto semplificato, possiamo definire scelta morale una scelta fatta in modo consapevole sulla base di esperienze, convinzioni e scale di priorità e di valori. Per fare queste scelte usiamo, infatti, quello che sappiamo, quello che abbiamo provato, quello che ci ha insegnato se la scelta ci farà bene o male; per sapere se quello che accadrà ci farà bene o male usiamo l’esperienza del piacere e del dolore; per discernere tra piacere e dolore utilizziamo una scala di valori, cioè una classifica di cosa fa più bene o più male.
[2] Soprattutto bovina, cfr. Pathways towards lower emissions. A global assessment of the greenhouse gas emissions and mitigation options from livestock agrifood systems, Food and Agriculture Organization of the United Nations, Rome, 2023, ISBN 978-92-5-138448-0, si può scaricare qui, p. 12
[3] Qualcosa, in questo senso, è stato fatto: si tratta di ONE HEALTH un approccio integrato alla salute umana, animale e ambientale, che coinvolge la FAO, la WHO e la WOAH, e che – per ora – consiste in un gruppo trasversale di esperti costituito nel 2021 con l’obiettivo di sviluppare un punto di vista olistico su salute e ambiente e di fornire consulenza su questo tema alle Agenzie che lo formano. Questo approccio sembra essere, tuttavia, molto orientato alla tutela della salute umana.
FAO, alimentazione e emissioni di CO2 - Una controversia e un conflitto di interessi?
COS’È LA FAO
La FAO – Food and Agriculture Organization – è «un’agenzia specializzata delle Nazioni Unite che guida gli impegni internazionali mirati a sconfiggere la fame». Il suo obiettivo dichiarato è «raggiungere la sicurezza alimentare per tutti e assicurare alle persone l’accesso regolare a quantità sufficienti di cibo di elevata qualità, al fine di condurre vite sane e attive»[1].
Questa missione, dichiarata nella sezione “About us” del sito, dice una serie di cose importanti per la controversia che stiamo esaminando: la FAO è un’agenzia delle Nazioni Unite; agisce per garantire a tutti (paesi e popolazioni) accesso a quantità sufficienti di cibo; il cibo deve essere di elevata qualità; in ultimo, il cibo sembra essere funzionale all’obiettivo di condurre una vita sana ed attiva.
TEMA, ATTORI E POSIZIONI DELLA CONTROVERSIA
La controversia verte su quanto potrebbe contribuire la diminuzione del consumo di carne – in particolare di carne bovina[2] – sul contenimento delle emissioni di CO2 nell’atmosfera e, di conseguenza, sull’effetto serra nei prossimi 25 anni.
Da tempo si parla del fatto che gli allevamenti (intensivi) di bestiame, in particolare di bovini destinati al macello per la produzione di carne a uso alimentare umano[3], sono una fonte rilevante – il 12% del totale[4] – delle emissioni di CO2 e di “gas serra” nell’atmosfera.
La riduzione delle emissioni legate agli allevamenti intensivi è una tematica ricorrente nella narrazione giornalistica e si intreccia con l’istanza animalista sulle condizioni e le sofferenze imposte a bovini, ovini e suini e con quella ambientalista sui gas serra.
La questione coinvolge anche la disponibilità di alimentazione proteica a basso costo per le fasce di popolazione meno ricche e il tema delle tradizioni culturali alimentari.[5]
Gli attori sono di questa disputa sono, da una parte la FAO e il suo rapporto “Pathways towards lower emissions. A global assessment of the greenhouse gas emissions and mitigation options from livestock agrifood systems” presentato alla conferenza ONU sul clima, la COP28 di Dubai; dall’altra parte, due fisici che studiano l’impatto di varie attività umane sull’ambiente: Paul Behrens e Matthew Hayek, tra gli autori degli studi scientifici citati nel rapporto della stessa FAO.
Il rapporto Pathway towards lower emission realizzato dalla FAO stima la riduzione delle emissioni di CO2 che si può ottenere con una serie di interventi sulle pratiche di allevamento e alimentari. L’efficacia stimata per ciascuno di questi interventi è la guida per definirne rilevanza e priorità.
Prime, per efficacia stimata e per priorità di attuazione, ci sono due linee di intervento sulle modalità di allevamento degli animali da carne:
- la prima linea suggerisce di incrementare la produttività degli allevamenti;
- la seconda linea propone di migliorare l’alimentazione e lo stato di salute degli animali negli allevamenti.
Quali sono i razionali e gli effetti attesi di queste misure di contenimento delle emissioni?
La prima linea, quella della produttività, è legata in modo diretto alla previsione di aumento della popolazione mondiale (+ 20% nei prossimi 25 anni) e proietta un aumento proporzionale di produzione animale necessario a soddisfare la domanda di carne e latticini. Grazie all’aumento di produttività, la FAO stima un possibile minore incremento di emissioni pari al 30%.
Per inciso, il rapporto FAO - fatto salvo per la riduzione dell’età di macellazione degli animali, che favorirebbe un migliore rapporto tra costi di produzione, volumi di prodotto (carne, peso dell’animale ucciso) e emissioni di gas - non suggerisce specifici modi per migliorare la produttività ma parla soltanto di “enhanced efficiency at every production stage along the supply chain” e “adoption of best practices”.
La seconda linea di intervento, relativa all’alimentazione e al benessere degli animali negli allevamenti, potrebbe migliorare i risultati della prima misura per varie ragioni: una alimentazione con cibi più calorici, meno grassi e più oli essenziali può far crescere prima e meglio gli animali; alimenti tannici possono ridurre la quantità di gas nella fase di ruminazione; in generale, una alimentazione “più sana” può far diminuire il tasso di mortalità degli animali e, nello stesso tempo, aumentare il tasso di crescita.
La FAO considera di minore rilevanza, in termini di effetti e di priorità, le misure relative al cambiamento delle abitudini alimentari, al consumo più responsabile e alla conseguente minore domanda di carne per uso alimentare, quali:
- cambiare le abitudini alimentari, in particolare ridurre il consumo di carne, seguendo le indicazioni governative, con un effetto di contenimento delle emissioni tra il 2% e il 5%[6];
- ridurre gli sprechi dei generi alimentari nella parte finale della filiera[7], dalla vendita al consumo, con un effetto di contenimento tra il 3% e il 6%.
Ecco, il tema del cambiamento delle abitudini alimentari è il centro della controversia.
Behrens e Hayek sostengono, infatti, in una lettera indirizzata al Direttore della Divisione Produzione Animale e Salute della FAO, che il rapporto FAO ha distorto e mal utilizzato una serie di informazioni, sottostimando l’effetto di riduzione delle emissioni associato alla riduzione del consumo di carne.
In particolare, i due scienziati, denunciano che:
- la FAO ha usato un loro studio del 2007 mentre altri studi più recenti – loro e di altri autori – disegnano uno scenario diverso e più favorevole alla riduzione del consumo di carne;
- l’effetto del cambiamento alimentare è calcolato sulla base di raccomandazioni nazionali (NDR - National Dietary Recommendations) obsolete; quelle più aggiornate raccomandano quantità di carne e di latticini molto minori;
- il rapporto contiene una serie di errori sistematici che portano a sottostimare gli effetti del cambio di dieta, tra i quali: l’utilizzo dei massimi di scala per gli NDR, la comparazione di grandezze difficilmente commensurabili, il raddoppio dei valori di emissioni al 2025, l’uso di un mix incongruente di anni di confronto;
- infine, che il rapporto FAO non prende in considerazione le linee guida più aggiornate sulle diete sostenibili e salutari raccolte – ad esempio – nell’autorevole e recente studio EAT – Lancet del 2019
Sulla base di queste considerazioni, Berhens e Hayek sostengono che il minore consumo di carne avrebbe effetti strutturali e decisamente superiori a quanto stimato dalla FAO, ponendosi in controtendenza rispetto alla strategia di inseguire una crescita della domanda di carne proporzionale all’aumento della popolazione.
Alla lettera con cui chiedono di rivedere il rapporto, la FAO ha – responsabilmente, va detto – replicato che il rapporto è stato sottoposto a peer-reviewing in doppio cieco e che, quindi, va ritenuto affidabile, ma si impegna a indagare sulle questioni sollevate e a confrontarsi con Berhens e Hayek su metodo e merito.
Nel frattempo, però, il rapporto della FAO è stato utilizzato nella conferenza sul clima COP28.
CONCLUSIONI
Ora, aspettando di vedere cosa succederà, viene da chiedersi quanto la FAO sia un soggetto indicato per definire strategie, linee guida e priorità per le misure di contenimento della CO2 nell’atmosfera, seppure se correlate all’alimentazione; la domanda si pone perché alcune misure di contenimento possono essere in parziale conflitto con gli obiettivi della FAO.
Sembrano emergere, infatti, almeno quattro ordini di problemi:
- La FAO ha la missione di garantire, qui e ora, che tutti abbiano cibo di elevata qualità e abbondante; un cambiamento radicale degli schemi produttivi e alimentari, basati – ad esempio – su una rapida riduzione degli allevamenti intensivi e su un deciso allontanamento dall’alimentazione carnea può essere in conflitto con la missione della FAO, per due ragioni: la prima è la necessità di sostituire – in tempi altrettanto serrati – carne e latticini a basso costo con prodotti vegetali di qualità e altrettanto reperibili; la seconda è la necessità di riassestamento economico e occupazionale del settore e dei paesi produttori di carni meno ricchi, che richiederebbe un sostegno organizzato a livello sovranazionale;
- la missione della FAO è centrata sulla nozione di “cibo di alta qualità”, nozione che è socialmente costruita e per lo più rappresentata da cibi a elevato contenuto proteico di origine animale, carne e latticini[8] (meglio se a basso prezzo); una svolta verso la diminuzione di questi cibi è certamente in conflitto con la nozione di “alta qualità” della FAO e richiede anche un cambiamento culturale rilevante;
- la natura della FAO – emanazione dell’UN e controllata da 143 paesi, tra i quali alcuni grandissimi produttori di carne bovina in allevamenti intensivi – richiede di tenere conto del possibile conflitto di interessi tra le misure di riduzione del consumo di carne e i paesi produttori;
- l’ultimo tema che emerge è la possibile competizione tra l’istanza morale di una migliore e più abbondante disponibilità di cibo e quella di salvaguardia dell’ambiente a cui fa capo il contenimento delle emissioni di CO2; chi decide di queste due istanze ha la priorità?
Senza nulla togliere al suo compito insostituibile, la FAO non dovrebbe, però, essere soggetto normativo su come ridurre le emissioni, ma occuparsi di mettere in atto, senza effetti negativi sul benessere di tutti, le misure più efficaci di contenimento delle emissioni decise da organismi dedicati a questo e confrontarsi con questi sulla maggiore o minore priorità dell’istanza alimentare versus quella ambientale.
Tra l’altro, l’indicazione del miglioramento dell’efficienza (produttività) degli allevamenti – nonostante il tentativo di salvare capra e cavoli con il tema del welfare dei bovini – mostra la totale assenza, nella missione della FAO, dell’istanza morale del benessere e della vita degli animali non-umani. Che potrebbe – anch’essa – essere considerata in competizione con quella della vita sana e attiva degli umani.
NOTE
Questa riflessione e il relativo studio delle fonti hanno preso spunto dall’articolo La FAO ha distorto degli studi sull’importanza di ridurre il consumo di carne?, apparso il 26 aprile 2024 su “il POST” e sull’articolo del Guardian UN livestock emissions report seriously distorted our work, say experts, 19 aprile 2024.
[1] Traduzione mia dalla sezione “About us” del sito della FAO, https://www.fao.org/home/en
[2] La produzione di carne di ruminanti ha un’impronta di CO2 di circa due ordini di grandezza superiore a quella di ovini e di suini. Cfr. Walter Willett et al., Food in the Anthropocene: The EAT-Lancet Commission on Healthy Diets from Sustainable Food Systems, "Lancet" (London, England) 393, no. 10170 (2019): 447–92, https://doi.org/10.1016/S0140-6736(18)31788-4, Figure 4, pag. 471.
[3] La produzione di carne a uso alimentare umano è lo scopo prevalente dell’allevamento intensivo di animali. Tra gli altri scopi – a titolo di esempio - possiamo citare: pellame (cuoio) per le industrie di abbigliamento, prodotti alimentari per animali da compagnia, farine proteiche, capsule per i farmaci, fertilizzanti (primo fra tutti il letame), caglio animale per formaggi, biocarburanti.
[4] Dati FAO: Globally, the production of the animal protein, as presented in the previous subsection “Global animal protein production”, is associated with a total of 6.2 Gt CO2eq of emissions, constituting approximately 12 percent of the estimated 50 to 52 Gt CO2eq total anthropogenic emissions in 2015. (Greenhouse gas emissions from agrifood systems.Global, regional and country trends, 2000-2020. FAOSTAT Analytical Brief Series No. 50. Rome). https://www.fao.org/3/cc2672en/cc2672en.pdf)
[5] È interessante vedere come lo stesso numero, la stessa percentuale – in questo caso del 14,5%, calcolata nel 2015 – di contribuzione dell’allevamento animale sia narrata in modo opposto da due parti a loro volta contrapposte: il WWF scrive «tra i maggiori responsabili della produzione di gas serra ci sono gli allevamenti intensivi che, in base a stime della FAO, generano il 14,5% delle emissioni totali di gas serra»; Alimenti&Salute, sito tematico della Regione Emilia-Romagna dedicato alla sicurezza alimentare e alla nutrizione, titola: «Rapporto FAO sulle emissioni gas serra. Solo il 14% viene attribuito agli allevamenti intensivi»
[6] Con una diversa distribuzione tra paesi più ricchi, tra il 13% e il 24%, paesi a reddito intermedio, tra lo 0,08% e il 12% e, invece, un aumento di emissioni tra il 12% e il 17% per i paesi più poveri (cfr. cit. p.19)
[7] Se non ci credete, fate un giro in un qualsiasi supermercato verso le 19.00/20.00 e noterete quanta carne viene buttata via a fine giornata, perché ormai scaduta. Per cui non è vero che uccidiamo animali per mangiarli. Probabilmente il 50% degli animali viene ucciso per… essere buttato nella spazzatura a fine giornata…
[8] Per approfondimenti: Adams C, Carne da macello. La politica sessuale della carne, 2020, Vanda edizioni; Harris M., Buono da mangiare. Enigmi del gusto e consuetudini alimentari, 2015, Einaudi.
RIFERIMENTI BIBLIOGRAFICI
- Il rapporto della FAO, Pathways towards lower emissions. A global assessment of the greenhouse gas emissions and mitigation options from livestock agrifood systems, Food and Agriculture Organization of the United Nations, Rome, 2023, ISBN 978-92-5-138448-0, si può scaricare qui.
- La lettera di P. Behrens e M. Hayek indirizzata a Thanawat Tiensin, Director of Animal Production and Health Division (NSA), si può scaricare qui.
- Greenhouse gas emissions from agrifood systems.Global, regional and country trends, 2000-2020. FAOSTAT Analytical Brief Series No. 50. Rome. https://www.fao.org/3/cc2672en/cc2672en.pdf)
- Walter Willett et al., “Food in the Anthropocene: The EAT-Lancet Commission on Healthy Diets from Sustainable Food Systems.,” Lancet (London, England) 393, no. 10170 (2019): 447–92, https://doi.org/10.1016/S0140-6736(18)31788-4.
- Nordic Cooperation, “Less Meat, More Plant-Based: Here Are the Nordic Nutrition Recommendations 2023,” Nordic Cooperation, 2023, https://pub.norden.org/nord2023-003/
- Vieux et al., “Greenhouse Gas Emissions of Self-Selected Individual Diets in France: Changing the Diet Structure or Consuming Less?,” Ecological Economics 75 (March 1, 2012): 91–101, https://doi.org/10.1016/j.ecolecon.2012.01.003.
Seveso, 1976 - Il Comitato tecnico scientifico popolare: nascita e programma di lotta
La conservazione delle tracce del “disastro” dell’Icmesa e di quello che ne seguì è stata una pratica che accomuna le persone di Seveso e dei comuni limitrofi: le memorie sevesine sono sepolte nel sottobosco del Bosco delle Querce e nelle cantine delle case private. È come se a Seveso esistesse un mondo di sotto che si è stratificato con il passaggio della nuvola-nube nel mondo di sopra e che, se sollecitato, riaffiora.
-----
Ricercando questo mondo sotterraneo, una delle storie che riemerge è quella del Comitato tecnico scientifico popolare. In una video-intervista conservata da “Archivio Seveso. Memoria di parte”, uno degli studenti di medicina protagonisti del CTSP ne ricorda la genesi e la composizione eterogenea, che coinvolgeva studenti, operai, medici, sindacalisti. L’intervistato, quando si è sprigionata la nube tossica a Seveso, era un giovane laureando in medicina e ricorda che nei momenti immediatamente successivi al “disastro” nella sua facoltà si era formato un gruppo di persone che volevano approfondire questa situazione, a partire «dalla situazione reale, dalla situazione della gente»[1].
È nato così il CTSP, a partire da alcuni operai del Consiglio di Fabbrica, da studenti che stavano finendo la facoltà di medicina, da professori universitari, come Giulio Alfredo Maccacaro, e da sindacalisti.
Tra i materiali conservati nell’“Archivio Seveso. Memoria di parte” sono presenti i documenti, i ciclostilati, le lettere e i volantini del CTSP.
Il Comitato esplicitò i propri obiettivi nel bollettino pubblicato nel settembre del 1976, ponendosi in contrapposizione con l’operato delle istituzioni locali, regionali e nazionali che – secondo il CTSP – avevano coperto e soffocato ogni tipo di protesta e di organizzazione degli abitanti della zona, non fornendo sufficienti informazioni sulla situazione per fare maturare una consapevolezza collettiva del rischio.
Rifiutando il principio di delega, il CTSP intendeva allargare il proprio intervento attraverso il coinvolgimento degli organismi di base della zona, degli organismi medici e socio-sanitari.
Le proposte del Comitato insistevano:
- sull’educazione e sull’informazione sanitaria,
- sulla necessità di accertamenti sanitari e scientifici controllati dal basso,
- sull’importanza di un’opera di controinformazione atta a impedire qualsiasi tentativo di insabbiamento di responsabilità dell’industria, delle strutture scientifiche istituzionali e delle forze politiche.
Un altro aspetto importante per il Comitato era la generazione di una forma di lotta popolare mirata alla bonifica delle zone contaminate, alla salvaguardia del posto di lavoro, all’abbattimento della nocività nelle fabbriche e nel territorio e alla costruzione di nuovi servizi sanitari di base[2]. Per realizzare questi propositi, gli attivisti del CTSP proponevano un «programma di lotta» che intrecciava le questioni particolari e urgenti di Seveso con la dimensione di una lotta generale e strutturale.
Per questo oggi non possiamo limitarci a chiedere che vengano attuate solo le misure più urgenti in favore delle popolazioni colpite. Non basta rimediare ai disastri più gravi causati dalla nube: se non vogliamo un’altra Icmesa, dobbiamo batterci subito per cambiare le condizioni di lavoro in fabbrica e abbattere la nocività, per ottenere un’assistenza sanitaria realmente orientata alla prevenzione, per conquistare nuovi servizi sociali, a partire dalla casa (Asmp, b. CTSP, Bollettino del Comitato tecnico scientifico popolare, settembre 1976).
----
Il passaggio dalla dimensione particolare a quella generale si inseriva nell'eccezionalità del “disastro” sevesino perché per la prima volta in Italia la nocività non rimaneva un problema solo interno alla fabbrica, ma usciva ed «esplodeva letteralmente sul territorio» (Intervista ad abitante di Seveso, gennaio 2024).
Secondo il CTSP, per rispondere alle domande che la vicenda dell’Icmesa aveva sollevato in merito alla relazione tra lavoro, salute e ambiente, era necessario organizzare una mobilitazione operaia, territoriale e di massa.
Si trattava di una proposta che si opponeva alla marginalizzazione di chi era stato colpito dalla “nuvola-nube” e cercava di combinare il rifiuto della semplice fruizione di ordinamenti esistenti con la richiesta di partecipazione attiva (Koensler, Rossi 2012, p. 7).
La pratica militante del CTSP tentò – quindi - di portare fuori dalla fabbrica gli strumenti di indagine e di inchiesta di cui il movimento operaio si era dotato per portare la soggettività operaia al centro delle lotte dei lavoratori (Carnevale, Baldasseroni 1999, pp. 230-283).
Così le pratiche utilizzate per capire le conseguenze sanitarie e ambientali della diffusione della diossina affondavano le loro radici in una concezione della medicina non “oggettiva”, ma che si poneva l’obiettivo di coinvolgere direttamente gli abitanti delle zone colpite. La soggettività delle persone coinvolte era il punto di partenza per le ricerche scientifiche del CTSP.
L’idea di salute e di cura proposte si basavano sull’inclusione delle persone che nei territori contaminati vi abitano all’interno del discorso, perché il loro sapere e i sintomi accusati, in un tempo preciso e in un luogo determinato, sono fonti di conoscenza fondamentali per la pratica medica.
Il Comitato, a partire dalle esperienze dei gruppi omogenei di fabbrica, e dalle loro elaborazioni di salute e malattia, concepiva la salute nel quadro di una liberazione di sé,
«dove i soggetti devono avere voce e non subire le decisioni degli ospedali che non sono mai neutre»
(Intervista ad abitante di Seveso, gennaio 2024).
Ammalarsi è una realtà sociale che mette in gioco rapporti di potere ed è espressione di molteplici modi di incorporare l’ordine socio-economico e le sue disuguaglianze che pongono gli individui e le comunità di fronte a rischi differenti.
Soprattutto chi viveva a Seveso ed era da pochi anni immigrato nella Brianza produttiva in cerca di lavoro, ha incorporato la produzione nociva e pericolosa dell’Icmesa (incorporation de l’inégalité), ha sperimentato il potere locale, regionale e nazionale incapace di guarire (pouvoir de guérir) e il governo della vita attraverso controlli biologici, evacuazioni, limitazioni e ordinanze (gouvernament de la vie).
Secondo gli studi del medico-antropologo Didier Fassin (Fassin 1996), le tre dimensioni appena menzionate costruiscono lo spazio politico della salute (Fassin 1996) ed è in esso che il CTSP ha giocato un ruolo fondamentale – anche se oggi è quasi dimenticato – a Seveso per praticare e diffondere una concezione di salute e di medicina al servizio della popolazione e a partire dalla soggettività di quest’ultima, proponendo lo sviluppo di un’«eziologia politica» (Nguyen, Peschard 2003) delle patologie insorte in seguito al “disastro”.
NOTE
[1] Asmp, b. CTSP, Interviste-documentario “Seveso Memoria di parte”.
[2] Asmp, b. CTSP, Bollettino del Comitato tecnico scientifico popolare, settembre 1976.
La gestione forestale come supporto alle comunità montane - Il caso dei Comunelli di Ferriere
Il 6 febbraio scorso ho scritto su questo blog sul tema della Gestione Forestale Sostenibile, ovvero cosa comporta la gestione dei boschi e quali vantaggi si ottengono. Perché, contrariamente a quel che credeva l’ambientalismo più radicale (adesso molto meno, per fortuna), anche la natura va gestita (per salvaguardare la biodiversità). E va gestito il rapporto fra insediamenti urbani e natura.
Per chi fosse interessato al tema, rimando a quell’articolo; oggi invece parliamo di una storia che ci racconta della ricaduta concreta dell’attivazione di un processo di gestione forestale su un territorio socialmente fragile.
Questa storia ce la racconta Riccardo Simonelli, dottore forestale che da anni collabora con il Consorzio Agrario dei Comunelli di Ferriere e che è la persona che ha fatto nascere la prima Gestione Forestale Sostenibile nel territorio appenninico emiliano.
Ferriere è un paese di circa 1.100 abitanti nell’alta Val di Nure, a sud-ovest della provincia di Piacenza. Una zona dal tipico paesaggio appenninico, fatto di montagne dolci e boscose; un posto bellissimo (andarci per credere). Ma come tantissime altre zone montane in Italia, un territorio che da decenni vive un declino demografico, frutto della scarsità di opportunità economiche e delle difficoltà logistiche per gli abitanti.
Per fare degli esempi: pochi bambini o ragazzi, conseguente chiusura di scuole che vengono accorpate in località più popolose, difficoltà di organizzazione di vita per le famiglie e ulteriore abbandono dei paesi… in un loop negativo che potrebbe essere spezzato solo con forti interventi pubblici.
Ma, per parlare del Consorzio e di ciò che ha realizzato, occorre fare un breve excursus su una particolarità della zona e dei Comunelli, che altro non sono che le 19 frazioni ascrivibili a Ferriere. Essi danno vita a una “proprietà collettiva”, la cui caratteristica è di non essere né proprietà privata e neppure proprietà pubblica.
Si tratta di un istituto giuridico antichissimo, forse risalente addirittura a prima del dominio romano sulla penisola italica e, successivamente, recepito dal diritto romano.
La caratteristica della proprietà collettiva è la seguente: i terreni in oggetto appartengono ad una comunità di persone identificata in modo preciso, nel nostro caso i residenti nelle frazioni di Ferriere (e non a Ferriere paese).
Anticamente, la proprietà collettiva era uno strumento molto diffuso nelle zone montane d’Italia, come mezzo di supporto economico reciproco delle persone appartenenti alle comunità. Nei secoli però le proprietà collettive sono diminuite e si sono trasformate in classiche proprietà private a beneficio di soggetti che si impossessavano delle cosiddette terre comuni grazie alla loro maggior forza e rilevanza politica, sociale o anche militare.
In tempi moderni, la legge che regolamentava in Italia le proprietà collettive era del 1927 ma nel 2017 lo Stato ha messo mano alla norma (Legge 168 nov. 2017 sui domini collettivi) per attualizzarla al nuovo interesse sul tema. Il senso della nuova legge è proprio quello di riattivare uno strumento che permetta alle comunità di realizzare attività economiche che vadano a beneficio delle comunità stesse.
Una curiosità prima di continuare: nel 1747, sempre nella zona dell’appennino piacentino, fu casualmente rinvenuta nel terreno una grande pala bronzea risalente all’epoca dell’imperatore Traiano in cui si regolamentavano con molto dettaglio le obbligazioni dei proprietari terrieri a fronte di prestiti concessi dall’Impero per il rilancio dell’agricoltura locale. Era stabilito che gli interessi del 5% (in linea con quello che accade oggi) fossero devoluti al mantenimento di fanciulli (maschi e femmine) in condizione di indigenza (welfare romano!). Tale provvedimento aveva il duplice scopo di sostenere le attività agrarie e combattere lo spopolamento delle campagne, nonché di fidelizzare le popolazioni all’Impero.
È impressionante notare la similitudine della situazione, poco meno di duemila anni fa e oggi!
Per la cronaca, questa pala bronzea viene chiamata Pala di Veleia (dal nome della città romana in prossimità della quale fu trovata) ed è conservata nel museo civico di Parma.
Ma torniamo al Consorzio dei Comunelli di Ferriere. Il Consorzio nasce nel 1999 per gestire il rilascio dei permessi per la raccolta dei funghi. Poi, nel 2005, nasce il primo piano di gestione forestale del Consorzio e nel 2016 il piano diventa Piano di Gestione Forestale Sostenibile certificato Pefc.
Questo significa che in tutta la superfice del Consorzio, 5.120 ettari, si ha la certezza che i boschi sono gestiti secondo i criteri di sostenibilità stabiliti da un’organizzazione riconosciuta a livello internazionale.
Ma con quale vantaggio? Per chi acquista i prodotti naturali del Consorzio, a partire dal legname, la certezza della qualità; per i residenti, la certezza che vengono presi provvedimenti per impedire il dissesto idrogeologico; per i turisti la certezza di poter camminare in luoghi manutenuti e quindi sicuri.
E poi la possibilità per il Consorzio di generare e vendere “crediti ecosistemici”; ovvero dei certificati che attestano i benefici della gestione forestale sostenibile anche in termini di CO2 stoccata.
Il Consorzio già da anni ha trovato una importante multinazionale che acquista volontariamente questi crediti per dare supporto alla comunità di Ferriere. È una storia molto bella in cui, per una volta, una grande multinazionale va oltre le affermazioni di principio e si impegna concretamente a sostegno di una comunità.
Gli organi amministrativi del Consorzio stabiliscono come devono essere impiegati questi fondi, il cui utilizzo, in piena sintonia con la legge sulla proprietà collettiva, deve essere in opere a favore della collettività.
Tutto questo non basta per contrastare lo spopolamento dei paesi di montagna… ma è un passo nella direzione giusta.
Finalmente stiamo capendo che la natura non va depredata, vedi tagli indiscriminati o folli come quelli a Cortina per una pista di Bob che sarà usata una sola volta. Ma la natura, come dicevamo all’inizio, non va neppure lasciata in balia di sé stessa (qui però il discorso si fa più complesso ed esula dall’argomento trattato).
In ogni caso, che sia da un piccolo paesino di una zona sperduta d’Italia che nasce una pratica virtuosa, per me è una buona notizia.
ANNOTAZIONI PENSANDO A LATOUR
Anche in questa storia sembrano emergere alcuni tratti della teoria Actor-Network di Bruno Latour (Reassembling the social. An introduction to Actor-Network Theory, 2005, Oxford University Press, Oxford):
- come scrive Paolo Bottazzini, il bosco sembra avere una funzione centrale di attante nel processo di consolidamento della comunità;
- intorno al bosco si genera una intera rete di attanti - umani e non umani - che opera con l’obiettivo di dare ossigeno alla comunità; tra questi attanti, insieme al bosco, possiamo trovare un dottore forestale, un consorzio agrario, la popolazione della zona, una legge antica, ancora valida e attualizzata, addirittura una pala bronzea di origine romana;
- alcuni attanti compiono lavori di arruolamento di altri soggetti, che diventano a loro volta attori del processo di resistenza alla disgregazione; tra questi, gli acquirenti di legname e di altri prodotti locali verso i quali vale la traduzione della qualità del prodotto, dei turisti, a cui si offre un ambiente ben tenuto e sicuro, dei residenti il cui arruolamento è garantito dalla salvaguardia dell’assetto idrogeologico e, infine, di una multinazionale, coinvolta con i crediti ecosistemici; ognuno di questi soggetti è portato a bordo grazie ad una opportuna traduzione.
Anche qui la lettura attraverso la lente della Actor Network Theory sembra essere illuminante e, nel prossimo futuro, se utilizzata con attenzione, potrebbe essere un fattore di supporto al processo di rigenerazione della comunità di Ferriere e dei Comunelli.
Le mani e la techne - Storia di un’origine mancata, da Platone a Latour
1. TECHNE E PREGIUDIZIO
Una delle eredità più durature di Platone è il sospetto nei confronti della techne. La necessità di separare il vero sapere dall’arte dei sofisti è il movente di questo pregiudizio: Protagora, Gorgia, Lisia, e i loro colleghi, inventano tecniche di persuasione di cui vendono la padronanza, o i prodotti, al miglior offerente, senza mostrare alcun interesse per la verità. La manipolazione persegue il vantaggio egoistico di chi la pratica, mentre il logos della filosofia (della scienza) è guidato dalla physis, segue la forma e le prescrizioni di ciò che rimane stabile nell’Essere. L’atteggiamento con cui si pretende di mostrare l’appartenenza all’aristocrazia del gusto e del senno attraverso il rifiuto dell’innovazione tecnologica, e tramite l’ostentazione di disorientamento tra le pratiche e i prodotti digitali, ancora oggi è un atto di accusa contro la corruzione sofistica della techne, e una proclamazione di fedeltà alla purezza dello spirito.
2. MANCANZA DI ESSENZA
Platone proponeva lo scavo interiore per partecipare alla natura inalterabile della verità: l’anamnesi riporta alla luce le idee, la cui eternità si rispecchia in quella dei cieli che insegnano al sapiente la via per la disciplina del sapere e del decidere. La metafisica ha fissato nell’opposizione tra physis e techne, o tra logos e doxa (ma questo significa anche tra trascendentale ed empirico, tra origine e decadenza) il criterio di separazione tra il filosofo e il sofista, anche quando la tesi dell’accesso ad una sfera di universali eterni ha perso la sua presa sulla comunità scientifica, e la moda ha imposto a tutti un atto di fede nell’empirismo. Come insegna Stiegler (1994), il dibattito seguito all’atto di nascita dell’antropologia moderna, con il Discorso sull’origine e i fondamenti della disuguaglianza tra gli uomini di Rousseau, avrebbe dovuto mettere in guardia da tempo sulla validità di questa disgiunzione, introducendo almeno un nuovo genere di sospetto, che colpisce l’autonomia della natura da un lato, la strumentalità reificante della techne dall’altro lato, e la loro opposizione reciproca.
L’uomo delle origini viene descritto da Rousseau come quello moderno: ha mani e piedi e cammina eretto. Leroi-Gourhan (1964-65) dimostra con la paleontologia che la deambulazione bipede permette la liberazione della mano per la costruzione di utensili e strumenti. E l’affrancamento della mano per la tecnica stabilisce un nuovo rapporto tra la mano, il volto e la parola. Quindi Rousseau immagina un uomo delle origini che ha già le caratteristiche di quello tecnicizzato; ma nel suo errore (molto istruttivo) lo descrive come un quasi-animale che non pensa e non si sposta, usa le mani per afferrare e non per produrre, cogliendo tutto ciò che la natura gli offre in modo spontaneo. Nell’origine il tempo (lo spazio, il mondo) non esiste, proprio perché l’uomo non frequenta alcun presagio cosciente della morte, e in generale nessuna forma di programma: non ha desideri né preoccupazioni, ma solo bisogni soddisfatti immediatamente da ciò che è a portata di mano. Il pensiero e il lavoro non vengono alla luce se non per placare passioni e paura – che a loro volta irrompono nella vita dell’uomo solo se la previsione ha aperto un mondo dove gli strumenti materializzati dalla tecnica sono programmati per proteggere dall’incombenza della morte.
L’istinto è costrittivo per gli animali: il gatto non mangia i tuberi o la frutta, in assenza di carne, e l’oca non mangia la carne in assenza di tuberi. L’uomo invece è libero di imitare il comportamento di qualunque animale, aprendosi la via alla soddisfazione del bisogno con la carne o con i tuberi, secondo la disponibilità. La libertà è una potenzialità dell’origine che annienta l’origine stessa nel momento in cui passa all’atto, perché la ragione che la realizza innesca quel mondo di tecnica e passioni che allontanano dall’immobilità e indifferenza originari. La libertà è la seconda origine dell’uomo, o la sua assenza di origine, la scomparsa o la mancanza di un’essenza. Le conclusioni speculative di Rousseau finiscono comunque per coincidere con quelle della paleontologia di Leroi-Gourhan.
Le passioni di Nietzsche, le pulsioni di Freud, la ragione di Hegel, la società di Hobbes, il lavoro di Marx non possono aspirare a descrivere la condizione essenziale dell’uomo, la sua origine, che invece è sempre già annullata nel momento stesso in cui l’ominazione viene messa in moto da progettazione e tecnica, e che procede con la storia del loro sviluppo: l’interiorità è un ripiegamento del programma di gesti con cui le mani fabbricano utensili, dello schema della loro applicazione per gli usi futuri, del piano per la loro disponibilità contro gli agguati della morte. Ma questa stessa filogenesi precipita nell’oblio (persa di vista da Rousseau e persino da Heidegger), dimenticata nell’eccesso di prossimità degli oggetti tecnici, resa invisibile nella disponibilità con cui i dispositivi sono sempre sottomano, cancellata nell’esperienza che in ogni epoca essi pongono in essere. Eppure, affinché intellettuali, politici e artisti possano ostentare il loro distacco dall’innovazione digitale e dalle tendenze delle comunità virtuali, affinché la spiritualità che effonde dal loro intimo possa segnalare a tutti la loro nobiltà d’animo, è necessaria tutta la storia delle tecniche, dalle tradizioni della coltivazione di tuberi e alberi da frutta, fino all’impaginazione di libri e riviste con InDesign e alla programmazione delle ALI che sviluppano testi e immagini pubblicati sui giornali internazionali. No techne, no party.
3. DISASTRI E SFERE
Sloterdijk (1998 e 1999) ricostruisce il processo con cui Copernico ha scoperchiato la Terra lasciandola esposta al freddo del cosmo, senza più l’involucro delle stelle fisse, e l’impegno con cui gli uomini hanno progettato sfere che tornassero ad avvolgerla e a riscaldarla. Eliminare la stabilità degli astri equivale a rimuovere l’architettura stessa della physis, il primo grande schema di design del mondo, che Platone ha posto come senso dell’universo, e come sistema di orientamento del saggio e della comunità: un vero e proprio disastro, cui è stato necessario rimediare attraverso la pianificazione di nuovi globi che hanno a più riprese protetto e dissolto i territori dei regni dell’Occidente, fino alla globalizzazione del mondo contemporaneo.
L’uomo non esce mai in una natura spontanea che si dispiega in un «fuori» dalle sfere in cui agiscono le tecniche di immunità e comunità programmate dalla tecnica. Nell’universo di Platone le stelle fisse sono attori della strategia politica che salda la società ateniese, almeno quanto lo è l’istituto degli arconti o quello della bulè: a loro è assegnata la regìa ideologica della forma di vita nella città e l’ontologia dell’uomo greco. Latour (1984) mostra come i miasmi siano attori della struttura civile che compie la trasformazione sei-settecentesca dello Stato dalla configurazione feudale a quella burocratica moderna: la nascita degli uffici di igiene pubblica, l’educazione della famiglia e la cura dei figli, la nuova morale borghese, la ristrutturazione urbanistica delle grandi città, la modellazione della rete dei servizi fognari e idraulici, sono le mosse della costruzione di più sfere immunitarie contro la diffusione di peste e colera, e il contesto di formazione delle metropoli della rivoluzione industriale e del primo capitalismo. La vittoria del movimento di Pasteur coincide con l’introduzione di un nuovo attore sociale, il microbo, che in parte prende il posto dei miasmi, ma che di fatto sviluppa un nuovo mondo di istituzioni mediche e di welfare, quella che conduce all’antropologia occidentale moderna e postmoderna, dove alla cura dell’individuo si sostituisce il presidio di un’intera tassonomia di agenti patogeni.
Il contributo sui Comunelli di Ferriere su Controversie mostra come un bosco non sia il «fuori» del villaggio, ma sia l’attore che ne consolida la comunità, arrestando il suo processo di disgregazione; quello su Gagliano Aterno evidenzia come la sfera di appartenenza alla comunità sia inscritta nella ripresa della tradizione della coltivazione dei tuberi e nell’innovazione della posa dei pannelli solari. Tuberi e alberi da frutto possono incrociare il programma genetico di alcune specie di animali, ed essere obbligati ad una simbiosi da cui non possono svincolarsi; per gli uomini il programma è tecnico, non è costrittivo ma deliberato, e come ogni gramma si iscrive negli attori coinvolti e viene regolato da una grammatica. Latour (2005) la tratteggia sul modello della grammatica attanziale di Greimas (1966), mostrando che ogni forma di vita si istanzia in una rete di relazioni tra ruoli registrati in attanti (malati, contadini, miasmi, batteri, canali fognari, tuberi – a pari diritto umani o non umani), il cui grado di integrazione nella sintassi del programma misura il livello di tenuta o di dissoluzione della società in cui esso si esprime. La struttura di rapporti da cui è disegnata la rete manifesta un significato, come le isotopie narrative di Greimas, che può essere tradotto nel programma di comportamento di altri sistemi: a loro volta, questi possono essere intercettati e arruolati – l’interazione dei turisti con la foresta di Ferriere si traduce nell’inserimento in una sfera di appartenenza territoriale, il contatto tra la nuova urbanistica del Settecento e la privatizzazione dei terreni agricoli (Enclosure Act 1773) alimenta la prima rivoluzione capitalistica, l’incontro tra il movimento della «pastorizzazione» e l’espansionismo coloniale apre la globalizzazione moderna.
Ora che il cielo non è più la cupola delle stelle fisse e delle scorribande degli dèi iperurani con le loro bighe, ma una sfera della quale ci dobbiamo prendere cura rammendando i buchi nella maglia di ozono – l’Actor Network Theory di Latour invita ad abbandonare la ricerca della verità in una psyché che, comunque interpretata, continua a macinare la metafisica delle idee di Platone: chiede di imparare a osservare un mondo dove l’uomo non esce mai in spazi non pianificati, ma progetta ambienti e tempi che sono sottoposti a revisioni continue. Rivendica la necessità di rendere questa attività di design finalmente consapevole e condivisa.
BIBLIOGRAFIA
Greimas, Algirdas Julien, Sémantique structurale: recherche de méthode, Larousse, Paris 1966.
Latour, Bruno, Les Microbes. Guerre et paix, suivi de Irréductions, Métailié, «Pandore», Paris 1984.
Latour, Bruno, Reassembling the social. An introduction to Actor-Network Theory, Oxford University Press, Oxford 2005.
Leroi-Gourhan, André, Le Geste et la Parole, Albin Michel,Parigi 1964-65.
Sloterdijk, Peter, Sphären I – Blasen, Mikrosphärologie, Suhrkamp, Frankfurt am Main 1998.
Sloterdijk, Peter, Sphären II – Globen, Makrosphärologie, Suhrkamp, Frankfurt am Main 1999.
Stiegler, Bernard, La Technique et le temps, volume 1: La Faute d’Épiméthée, Galilée, Paris 1994.