Nobel 2024, Chimica: una questione di Intelligenza Artificiale

Il premio Nobel per la chimica 2024 è stato assegnato a Demis Hassabis e John M. Jumper di DeepMind e David Baker della University of Washington. La motivazione per i primi due è : “for protein structure prediction”; per Becker “for computational protein design

Comune denominatore della assegnazione sono le proteine e lo sviluppo di software intelligenti. E in entrambi i casi si tratta di esempio virtuosi e positivi sia di uso dell’Intelligenza Artificiale che di collaborazione nella comunità scientifica.

Demis Hassabis è il fondatore di DeepMind, vocata allo sviluppo di intelligenze artificiali nell’orbita di Google. Mente eclettica e indubbiamente geniale, progettista di videogiochi, neuroscienziato, imprenditore. Un predestinato.

John M. Jumper ha studiato fisica e matematica e ha lavorato all’ottimizzazione dei software per le simulazioni dei modelli durante il suo dottorato in fisica teorica.

Baker 30 anni fa ha sviluppato un software – Rosetta – per la progettazione di proteine; nel 2003 pubblicò Top7, una proteina che non esisteva in natura.

Le proteine sono uno dei 3 nutrienti fondamentali assieme a grassi e carboidrati. Sono formate da catene di amminoacidi che si ripiegano in strutture delle dimensioni dei nanometri (miliardesimi di metro) e sono i più importanti basilari per applicazioni essenziali nella vita biologica e industriale, dalla farmacologia alla veicolazione di enzimi e molecole.

Le strutture proteiche sono molto difficili da studiare: negli anni 50 fu messa a punto una tecnica basata sulla cristallografia a Raggi X, negli anni 90 fu istituito il CASP, una sorta di concorso biennale aperto a tutta la comunità scientifica e tecnologica per sviluppare strumenti al fine di prevedere in modo veloce e affidabile le strutture proteiche ma i risultati furono scarsi, fino al 2018, quando DeepMind con il suo software intelligente AlphaFold raggiunse il 60% di affidabilità.

Nel gruppo di lavoro c’era anche Jumper che applicò, successivamente, gli ultimi sviluppi delle reti neurali per sviluppare il modello di AlphaFold 2; questo nuovo software nel 2020 vinse il CASP con una accuratezza previsionale comparabile a quella della cristallografia.

Da allora AlphaFold è diventato uno standard de facto e ha raccolto quasi 200 milioni di strutture proteiche da tutti gli organismi viventi ad oggi conosciuti, creando quella che oggi è la libreria mondiale delle proteine. Alphafold è usato da oltre 2 milioni di ricercatori in 190 paesi.

L’intuizione di Baker è stata quella di “invertire” l’approccio funzionale di Rosetta, convertendolo da previsionale a progettuale: perché non “aiutare” la natura progettando proteine per ruoli specifici?

Dopo Top7, Baker progettò e realizzò diverse altre proteine specializzate che potrebbero essere impiegate per la produzione di vaccini, per rilevare la presenza di specifiche sostanze e per trasportare molecole negli organismi viventi di destinazione.

Le ricadute sociali della sinergia tra AlphaFold e gli studi di Baker sembrano essere già importanti e potrebbero diventare enormi. E stavolta, forse, tutte positive.

Dalla comparsa della Intelligenza Artificiale nel mercato consumer, prima con ChatGPT e poi gli altri, abbiamo iniziato a interrogarci sul ruolo sociale della IA e a dubitare dell’eticità dello scenario che si prospetta.

Il caso di AlphaFold può, invece, delineare una diversa prospettiva: il progetto è nato dalla sinergia di contributi diversi e complementari, di menti geniali, di ambizioni universali, con un obiettivo comune, dotate di risorse adeguate e di strumenti abilitanti che hanno permesso di rendere realtà il disegno generale.

Prima di AlphaFold studiare le proteine richiedeva tempi lunghi e incertezze elevate, oltre a competenze verticali che costringevano la ricerca a settorializzarsi.

Questo Nobel  mette in luce un modello positivo di come la Intelligenza Artificiale possa essere una risorsa differenziante, quando viene addestrata con informazioni tassonomiche, affidabili, prive di bias e pre-filtrate.

Ancora di più ci dice che uomini e Intelligenza Artificiale possono lavorare in sinergia piuttosto che in concorrenza: AlphaFold è oggi un patrimonio della scienza mondiale e una volta di più si dimostra che l’assunzione di responsabilità di chi pensa e usa gli strumenti scientifici fa la differenza.


Nobel 2024, Fisica: propagazione dell'errore e vertigine delle etichette

1. ETICHETTE

Goffrey Hinton è uno psicologo cui è stato assegnato il Premio Nobel per la fisica in omaggio alle sue innovazioni in ambito informatico. Questa mescolanza di discipline mostra quanto sia svantaggioso l’irrigidimento nella separazione delle competenze e l’insistenza sulla specializzazione; ma è sorprendente che questa evidenza sia portata alla luce da un personaggio che ha costruito la sua carriera sulla ricerca di meccanismi destinati ad eseguire operazioni automatiche di ordinamento e classificazione – anzi, di più, a imparare metodi di lettura di contenuti non strutturati per applicare loro etichette di catalogazione.

Hinton meriterebbe un Nobel all’ostinazione, per la perseveranza con cui ha continuato a impegnarsi nell’evoluzione delle reti neurali e del deep learning, anche durante le fasi di «inverno» dell’intelligenza artificiale, con la riduzione degli investimenti, la sfiducia da parte delle istituzioni, lo scetticismo dei finanziatori. Non solo: per almeno un paio di decenni i budget destinati alla ricerca nel settore dell’AI hanno sostenuto soprattutto progetti che non credevano nella possibilità di apprendimento da parte delle macchine, e che si affidavano a software dove i processi di comprensione, di decisione e di esecuzione erano definiti dalle regole di comportamento stabilite a priori dallo sviluppatore umano.

Nel 2012 Hinton, con i collaboratori-studenti Alex Krizhevsky e Ilya Sutskever, ha presentato al concorso ImageNet il riconoscitore di immagini AlexNet: è al successo clamoroso di questa macchina che dobbiamo la diffusa convinzione che intelligenza artificiale, reti neurali e apprendimento profondo, siano tutti sinonimi. Il software non ha solo vinto la competizione del 2012, ma ha migliorato l’indice di correttezza nella classificazione delle illustrazioni di oltre 10 punti percentuali rispetto all’edizione precedente: un passo in avanti nelle prestazioni dell’intelligenza percettiva che non si era mai registrato nella storia del concorso. È risultato chiaro a tutti che in quel momento la disciplina era entrata in una nuova fase, e che il paradigma di progettazione e implementazione era cambiato. Una prova è che Sutskever figura tra i fondatori di OpenAI nel 2015, e che sia stato arruolato fino al novembre 2023 come ingegnere capo dello sviluppo di ChatGPT – il progetto con cui l’intelligenza artificiale ha valicato i confini dell’interesse specialistico e si è imposta all’attenzione del pubblico di massa alla fine del 2022.

2. STRATI NASCOSTI E RETROPROPAGAZIONE DELL’ERRORE

Il lavoro trentennale che precede AlexNet ruota attorno al concetto di retropropagazione dell’errore nel processo di apprendimento delle reti neurali. Né la nozione né il metodo sono stati inventati da Hinton, ma la sua ostinazione nel coltivarli non è servita meno dei suoi contributi ai procedimenti attuali e alla loro divulgazione, per l’elaborazione del paradigma contemporaneo dell’AI.

AlexNet e le reti neurali che che le somigliano (quelle convolutive) sono costruite con diversi livelli di unità di elaborazione. Nel primo strato i «neuroni»  mappano l’immagine in una griglia di piccole celle, in analogia a quanto accade nella fisiologia della percezione umana.

Il risultato di questo schema di ricezione viene esaminato dagli strati di unità di elaborazione «nascosti», che interpretano confini e colori della figura. L’effetto è una rimappatura dell’immagine per livelli di lettura, che separano il soggetto dallo sfondo, esaminano parti, valutano posture, e così via; possono anche astrarre verso concetti come «fedeltà» o «famigliarità». Maggiore è il numero di questi livelli intermedi, maggiore è il grado di affidabilità con cui all’immagine viene fatta corrispondere l’etichetta che la descrive. A sua volta la didascalia proviene da una tassonomia che la macchina ha archiviato in memoria durante la prima fase di addestramento, insieme ad una galleria di migliaia, se non milioni, di immagini già classificate.

Il compito del software è quindi associare pattern di pixel colorati alle etichette di uno schedario, con un certo grado di probabilità. Nella fase di addestramento con supervisione, se la didascalia scelta dalla macchina è corretta, il sistema rimane immutato; se invece l’output è sbagliato, il giudizio di errore si propaga tra gli strati intermedi che hanno contribuito alla stima, inducendo una variazione nei «pesi» del calcolo. Il procedimento tocca tutte le unità di elaborazione, e il suo perfezionamento è ancora oggi il principale tema di indagine per gli esperti del settore, come ha testimoniato Yann LeCun in un post su X poco meno di un anno fa.

La diffidenza di personaggi come Marvin Minsky e Seymour Papert sulla realizzabilità stessa della retropropagazione dell’errore ha dirottato per anni i finanziamenti su progetti che escludevano il deep learning: ai tempi della prima rete neurale, il Perceptron di Frank Rosenblatt che nel 1958 contava 1 solo livello intermedio, le difficoltà sembravano insormontabili. Come nelle storie dei grandi profeti, Hinton si è armato di fede, speranza – e anche senza la carità dei grandi finanziatori istituzionali, ha implementato una macchina capace di imparare a classificare.

3. LIMITI

La descrizione, colpevolmente troppo riduttiva, del funzionamento di AlexNet lascia anche intuire le condizioni e i limiti della concezione dell’intelligenza che è sottesa alla tecnologia delle reti neurali. Già nel piano di Rosenblatt il riconoscimento di un’immagine è inteso come un metodo che porta alla comprensione del contenuto attraverso l’autorganizzazione del contributo di molti attori atomici, coincidenti con le unità di calcolo: un altro articolo su «Controversie» ha esaminato come questo modello cognitivo derivi dal liberalismo economico e sociale di Von Hayek. Ma conta rilevare adesso altri due aspetti del paradigma: l’isolamento dell’apprendimento da ogni considerazione pragmatica, e la costruttività dal basso del processo di interpretazione.

Merleau Ponty ha esaminato con approccio fenomenologico il ruolo che l’attenzione svolge nella percezione: l’identificazione di persone e cose non è una successione di choc visivi che irrompono dal nulla, ma un flusso che segue un decorso da una maggiore indeterminazione ad una maggiore precisione, sull’istanza di una domanda. La richiesta interpella la nostra libertà di avvicinarci, approfondire, interagire: il riconoscimento avviene sullo sfondo di un mondo che è già in qualche modo pre-compreso, e che suscita interrogativi sulla base della relazione che intratteniamo con la scena in cui siamo immersi – per cui lo stesso masso si rivolge in modo differente ad un geologo, o ad un turista stanco per la passeggiata con il suo cane.

Il riconoscitore di immagini artificiale invece non stabilisce alcuna relazione con il mondo, né ha domande da indirizzargli. Anzi, non ha alcuna cognizione dell’esistenza del mondo e della possibilità di stabilire qualche rapporto con esso. La macchina valuta la probabilità con cui l’attivazione di certi pattern di unità ricettive possa essere messa in relazione con una tra le etichette dello schedario in memoria. Questo spiega come possa cadere nella trappola degli attacchi avversari, in cui il «rumore informativo» dovuto alla sostituzione di alcuni pixel (che non modificano per nulla l’aspetto dell’immagine ai nostri occhi) faccia cambiare le stime di AlexNet, convincendola a preferire l’etichetta struzzo a quelle assegnate correttamente in precedenza a tempio e cane.

Senza un mondo che agisca come orizzonte di senso per azioni e interpretazioni, non esistono domande, quindi nemmeno riconoscimenti e intelligenza – nel senso corrente di questi termini. Non esiste nemmeno la possibilità di un’autocorrezione, come quella che mettiamo a punto in modo istintivo quando incorriamo in un trompe l’oeil o in qualche illusione ottica: è la stabilità del mondo, non la coerenza delle leggi dell’apprensione, a permetterci di ravvisare l’errore. L’inganno per noi infatti è momentaneo, poi la coesione dell’esperienza del reale torna a ripristinare il senso della percezione (anche nei casi di abuso di sostanze psicotrope): è per questo che siamo consapevoli di essere vittime di illusioni.

La separazione della sfera cognitiva da quella pragmatica, e la riduzione della mente ad un sistema di procedure di problem solving, intrappolano invece la percezione in un mondo di specchi e di concetti senza via d’uscita. Le inferenze che si propagano da unità nucleari di percezione sono il correlato di un universo di etichette che non si riferiscono a nulla di reale – tanto da poter ravvisare uno struzzo al posto di un tempio, senza alcuna forma di disagio. Quel disagio che colpisce l’individuo intelligente davanti all’abisso della stupidità.

 

 

BIBLIOGRAFIA

Bottazzini, Paolo, Nello specchio dell’Intelligenza Artificiale - The Eye of the Master, «Controversie», 4 giugno 2024. https://www.controversie.blog/specchio-della-ia.

LeCun, Yann, Please ignore the deluge of complete nonsense about Q*, https://x.com/ylecun/status/1728126868342145481.

Merleau-Ponty, Maurice, Phénoménologie de la perception, Gallimard, Parigi 1945; trad. it. a cura di Andrea Bonomi, Fenomenologia della percezione, Bombiani, Milano 2003.

Minsky, Marvin; Papert, Seymour, Perceptrons, MIT Press, Cambridge 1969.

Rumelhart, David E.; Hinton, Geoffrey E.; Williams, Ronald J., Learning representations by back-propagating errors, «Nature», vol. 323, n. 6088, 9 ottobre 1986, pp. 533–536.

Szegedy, Christian, Zaremba, Wojciech, Sutskever, Ilya, Bruna, Joan, Erhan, Dumitru, Goodfellow, Ian, Fergus, Rob (2013), Intriguing Properties of Neural Networks, «arXiv», preprint arXiv:1312.6199.


Nobel 2024, Medicina: la genetica al tempo della messaggistica istantanea

MICRO MESSAGGERI DA NOBEL

Il premio Nobel 2024 per la Medicina e la Fisiologia è stato assegnato a Victor Ambros e Gary Ruvkun. I due ricercatori, genetisti, hanno ricevuto il premio per la scoperta nel 1993 del microRNA e del suo funzionamento come regolatore del genoma.

Il DNA è il luogo, la molecola, in cui si conserva l’informazione genetica. Diffuso in ogni cellula del nostro corpo (così come in ogni essere vivente) il DNA, con la sua doppia elica, è il ricettario a cui ogni cellula attinge per produrre proteine. È parte dell’eredità che riceviamo dai nostri genitori biologici e per diversi anni si è creduto fosse un’eredità vincolante, un destino da cui non fosse possibile fuggire.

In realtà il DNA da solo non basta. Il suo utilizzo richiede anche un singolo filamento di RNA che, nei processi di trascrizione e traduzione, assume diverse forme per permettere alla cellula di acquisire l’informazione, trasportarla dove necessario e, infine, tradurla in una molecola complessa utile ai bisogni dell’organismo di cui fa parte.

È in questo processo – mutazioni a parte – che si è iniziata a scoprire la libertà dell’organismo rispetto all’informazione del DNA.

In primo luogo, la ricerca che oggi conosciamo come epigenetica scoprì che alcune proteine potevano bloccare, al bisogno, alcune parti del DNA impedendo che venisse trascritto in RNA messaggero (mRNA) e che, quindi, venisse utilizzato.

La scoperta del microRNA porta ulteriori sviluppi nella comprensione del rapporto complesso tra DNA, organismo e ambiente. I microRNA (miRNA) infatti sono una nuova classe di RNA non codificante, lunghi circa 22 basi nucleotidiche.

Essi agiscono come regolatori diffondendosi nella cellula (e fuori di essa) e bloccando – quando serve - l’mRNA già prodotto. Prima sapevamo che è possibile inviare o non inviare il messaggio, ora conosciamo anche la funzione cancella messaggio. Certo, tutti i componenti del gruppo vedranno la scritta “messaggio cancellato”.

Perché ci è voluto così tanto – dal 1993 al 2024 - perché a questa scoperta venisse riconosciuto il Nobel?

 

MESSAGGIO CANCELLATO. LA SCOPERTA DEI MIRNA DAL VERME ALL’ESSERE UMANO

La passione di Ambros e Ruvkun è il nematode, un vermicello, Caenorhabditis elegans. Vermicello portentoso perché (povero lui) il suo genoma è facilmente manipolabile, si riproduce velocemente ed è persino trasparente. È inoltre perfetto per lo studio dello sviluppo e della differenziazione cellulare: pur nella sua semplicità possiede già un sistema nervoso, un intestino e dei muscoletti. Oggetto dello studio dei due ricercatori, in due diversi laboratori, sono i geni lin-14 e lin-4 entrambi implicati nello sviluppo cellulare di C. elegans.

Ambros, Rosalind Lee e Rhonda Feinbaum riescono a clonare lin-4, scoprendo che funziona da regolatore, negativo, per lin-14. Non solo. È un gene corto e non codifica per nessuna proteina, la cosa al tempo era strana.

Ruvkun, nel frattempo, scopre che questa interazione - il fatto che lin-4 blocchi l’espressione di lin-14 - non avviene interrompendo la produzione di mRNA.

Nei primi anni ‘90 questo era ancora più strano! In qualche modo la regolazione avviene in un secondo momento.

I due laboratori di ricerca decidono nel 1992 di confrontare i risultati. Ne risulta che il piccolo RNA di lin-4 ha un codice complementare all’mRNA di lin-14. Sembrerebbe che il primo sia regolatore del secondo, e questa è una novità.

Queste osservazioni vengono pubblicate nel 1993 sulla rivista Cell e oggi, dopo 30 anni, valgono ai due ricercatori il premio Nobel (Wightman B., Ha I., Ruvkun G. 1993 e Lee R., Feinbaum R., Ambros V. 1993).

Lo stesso Ambros racconta che, in fondo, nessuno pensava questa fosse una scoperta apripista: il modello della genetica del tempo risultava sufficiente alla comprensione dei problemi posti al tempo.

Non solo. Questa interazione era riscontrata solo nel piccolo nematode e non c’era ragione di credere che fosse qualcosa di diffuso.

Nel 1994, alcuni ricercatori si chiedono se non possa essere qualcosa di più importante, ma la domanda cade quasi nel vuoto. Rosalind Lee continuerà a cercare altri esempi di questa regolazione, ma con scarso successo.

La tecnica di quegli anni non aiuta, è necessario infatti “camminare lungo il genoma” cercando per tentativi le sequenze che potrebbero appartenere a un miRNA (Ambros V. 2008).

Nel 2000, Ruvkun, guidato dalla curiosità - come dirà – rompe l’inerzia scoprendo un altro miRNA, prodotto dal gene let-7.

Questo è un gene che si è conservato lungo quasi tutta la catena evolutiva e fa presumere che questo modello di regolazione possa essere diffuso in altre piante e animali. (Pasquinelli A., Reinhart B. et al. 2000). Ambros e Lee continuano il loro lavoro iniziando a scoprire diversi miRNA.

Ambros racconta che pensava di essere tra i pochi, con Lee, se non l’unico, a cercare ancora i miRNA tra il '96 e il 2000. Fino a quando nell’agosto del 2001 non riceve una richiesta da parte di Science: dovrebbe fare da revisore per un articolo di Tom Tuschl sulla scoperta di diverse decine di miRNA.

Fu un colpo per i ricercatori, che cercarono subito di sottomettere un articolo a Cell senza trovare l’interesse della rivista. Disperati andranno da Science, la rivista accorderà loro la pubblicazione in contemporanea se avessero inviato l’articolo entro un giorno. Ci riescono, anche se verrà giudicato un articolo decisamente scarno. Assieme a loro e a Tuschl su quel numero uscirà un terzo articolo sulla scoperta di nuovi miRNA (Ambros V. 2008).

Tra i diversi miRNA scoperti, molti sono stati trovati nel corpo umano.

Il mondo della ricerca inizia a comprendere il potenziale di questi regolatori, così generici e così diffusi. I miRNA regolano finemente il rapporto tra genoma, sviluppo cellulare e rapporto tra organismo e ambiente. Alcune espressioni patologiche di un miRNA possono prodursi in tumori, anche in età infantile come nella rara sindrome di DICER1.

 

OLTRE IL MECCANISMO. DUBBI ,TERAPIE, COMPORTAMENTO E SVILUPPI FUTURI

Oggi i miRNA sono una realtà ormai attestata nella ricerca medica e il Nobel per la Medicina a Ambros e Ruvkun conferma e ribadisce l’interesse diffuso per questo campo di ricerca.

Nel database si trovano 48.860 diversi miRNA diffusi in 270 organismi.  Il meccanismo di produzione di un miRNA, la sua espressione come regolatore, l’interazione con i diversi geni sono ormai sufficientemente chiari (Shang R., Lee S. et al. 2023).

Delle terapie farmacologiche mirate sembrano dare effetti (rimpiazzare un miRNA assente a esempio), ma i risultati dei trial sono ancora controversi. Alcuni di questi evidenziano una grande efficacia (pur se correlativa), altri al contrario danno risultati nulli, quando non tossici per l’organismo (Ho P. T. B., Clark, I. M., Le L. T. T. 2022).

Propaganda farmacologica a parte, sembra interessante comprendere il ruolo di questi piccoletti nel rapporto con l’organismo intero e i suoi bisogni.

In tal senso, sono rilevanti gli studi che cercano di comprendere la funzione regolatrice all’interno di un meccanismo di feedback negativo nei neuroni dopaminergici del mesencefalo. Cellule implicate in comportamenti complessi come quelli di ricompensa o di dipendenza e che vengono a mancare via via che si sviluppano patologie come il Parkinson. Uno studio germinale ma che cerca di tracciare una correlazione tra comportamenti e espressione genetica coinvolgendo il miRNA. (Kim J., Inoue K, Ishii, J. et al. 2007).

Allo stesso modo i miRNA sembrano poter diventare utili biomarcatori.

La loro diffusione in tutto il corpo potrebbe renderli adeguati per lo sviluppo di nuove tecniche diagnostiche per le più diverse patologie, oltre che per lo studio di trattamenti. Anche qui gli studi sono appena agli inizi e per far sì che si sviluppino è necessario comprendere il comportamento dei miRNA Loganathan T., Doss G. 2023).

In ultimo va citata un’osservazione sui miRNA che si può ritenere affascinante: sono stati trovati infatti miRNA ragionevolmente stabili in uno studio comparato sul latte materno.

Per i ricercatori, questi avrebbero il potenziale per venire assorbiti dall’intestino e una delle ipotesi è che si potrebbe avere il passaggio di una continua “comunicazione” di informazioni su comportamenti possibili, sui modi di regolare quel genoma che ci è stato lasciato in eredità (Tingo L., Ahlberg E. 2021).

 

 

BIBLIOGRAFIA

  • https://www.nobelprize.org/prizes/medicine/2024/prize-announcement/
  • https://www.nobelprize.org/prizes/medicine/2024/advanced-information/
  • Weiss C., Ito, K et al. (2017) “A Macro View of MicroRNAs: The Discovery of MicroRNAs and Their Role in Hematopoiesis and Hematologic Disease” in Int Cell Mol Biol, 334: 99-175.
  • Kim J., Inoue K, Ishii, J. et al. (2007) “A microRNA feedback circuit in midbrain dopamine neurons” in Science 317 (5482): 1220-1224.
  • Pasquinelli A., Reinhart B. et al. (2000) “Conservation of the sequence and temporal expression of let-7 heterochronic regulatory RNA” in Nature 408: 86-89.
  • Wightman B., Burglin T. et al. (1991) “Negative regulatory sequence in the lin-14 3’-untranslated region are necessary to generate a temporal switch during Caenorhabditis elegans development” in Genes & Development 5:1813-1824.
  • Bartel D. (2004) “MicroRNAs: Genomics, Biogenesis, Mechanism, and Function” in Cell 116: 281-297.
  • Shang R., Lee S. et al. (2023) “microRNAs in action: biogenesis, function and regulation” in Nat Rev Genet 24(12): 816-833.
  • Ho P. T. B., Clark, I. M., Le L. T. T. (2022) “MicroRNA-Based Diagnosis and Therapy” in Int J Mol Sci 23: 7167.
  • Tingo L., Ahlberg E. (2021) “Non-Coding RNAs in Human Breast Milk: A Systematic Review” in Frontiers of Immunology 12: 725323.
  • Loganathan T., Doss G. (2023) “Non-coding RNAs in human health and diseases as biomarkers and therapeutic targets” in Functional & Integrative Genomics 23: 33.
  • Wightman B., Ha I., Ruvkun G. (1993) “Posttranscriptional Regulation of the Heterochronic Gene lin-14 by lin-4 Mediates Temporal Pattern Formation in elegans” in Cell 75: 855-862.
  • Lee R., Feinbaum R., Ambros V. (1993) “The elegans Heterochronic Gene lin-4 Encodes Small RNAs with Antisense Complementarity to lin-14” in Cell 75: 843-854.
  • Ambros V. (2008) “The evolution of our thinking about microRNAs” in Nature Medicine 14 (10): 1036-1040.

 


Stiamo ritardando la prossima glaciazione? Sì.

Sia il lettore più attento che quello più frettoloso avranno notato che nel titolo è già contenuta la risposta. Per quanto sinteticamente perfetta, ad entrambi, anche al più frettoloso, risulterà una risposta troppo breve ed interesserà perciò comprendere il perché di questo “Si”.

Questa evidenza emerse da una serie di studi che iniziarono negli ultimi anni del XX secolo e che si svilupparono lungo il primo decennio del XXI.

Il primo riscontro della disattesa partenza di una nuova era glaciale fu uno studio diretto dal paleoclimatologo William Ruddiman che coinvolse i meteorologi John Kutzbach e Steve Vavrus.

Essi cercarono, e trovarono – grazie a un modello di simulazione matematica che il climatologo Larry Williams creò negli anni ’70 - la conferma di quanto negli anni ‘80 aveva scoperto il geologo John Imbre: l’ultima fase interglaciale doveva essere terminata tra i 6.000 e i 5.000 anni fa.

Questo modello sul comportamento climatico venne impostato escludendo, tra i fenomeni che influenzano l’alternanza tra ere glaciali e interglaciali, le emissioni anomale di gas serra, iniziate quasi esattamente nello stesso periodo di fine dell’ultima fase interglaciale.

Secondo i risultati del modello, da allora i ghiacciai avrebbero dovuto iniziare ad accrescersi progressivamente, per via di un raffreddamento medio globale di 2°C (tantissimo in soli 6-5.000 anni) e il punto di massimo raffreddamento avrebbe dovuto presentarsi a Nord della Baia di Hudson, toccando un calo medio invernale di 5-7°C.

Però, ciò non è avvenuto.

Ancor più precisamente, lo studio rivelò che nell’Isola di Baffin (Canada) si sarebbe dovuto instaurare uno stato di glaciazione incipiente, ossia la presenza di un manto nevoso perenne, contro la sua attuale assenza per 1-2 mesi ogni estate.

In più, ai giorni nostri, avremmo dovuto assistere a qualcosa di analogo nell’altopiano del Labrador, il penultimo luogo in cui si sciolsero i ghiacciai dell’ultima glaciazione; il primo era per l’appunto l’isola di Baffin.

Lo studio generò sia plausi che critiche, e da queste ultime Ruddiman fu stimolato a fare ulteriori approfondimenti che lo portarono a studiare una glaciazione intercorsa ben 400.000 anni fa, che presentava variazioni della radiazione solare e delle emissioni naturali di gas serra analoghe a quelle della fase odierna.

L’approfondimento confermò quanto previsto dallo studio precedente e mai avvenuto perché interrotto cinque millenni fa: si sarebbe dovuto registrare un progressivo decremento fino ai valori minimi della concentrazione in atmosfera di metano (CH₄) e anidride carbonica (CO2).

Questi ulteriori studi, in sostanza, riconfermavano quanto ipotizzato: siamo oggettivamente all’interno di una fase glaciale, ma climaticamente ritardata. La causa del ritardo è da ricondursi prevalentemente a questa anomala alta concentrazione di gas serra.

PERCHÉ “OGGETTIVAMENTE” ALL’INIZIO DI UNA NUOVA FASE GLACIALE?

Se nel brevissimo periodo, anche di poche ore, è difficile prevedere localmente quale sarà il comportamento meteorologico, questo può essere, invece, fatto per il comportamento climatico globale nei tempi più lunghi delle decine e centinaia di migliaia di anni.

I paleoclimatologi hanno infatti già da tempo scoperto l’esistenza di veri e propri cicli climatici. Lo hanno potuto fare incrociando i dati geologici e paleontologici (soprattutto dai carotaggi oceanici) con quelli chimici (presenza di molecole e atomi con isotopi specifici presenti nei ghiacci e nei sedimenti fossili dei fondali marini) assieme alle leggi astronomiche ormai note dei moti terrestri detti “millenari”.

Su questi ultimi possiamo basare la “oggettività” che cercavamo.

I MOTI MILLENARI DEL PIANETA TERRA.

Se il moto orbitale della Terra attorno al Sole causa l’avvicendamento delle stagioni in circa 365 giorni, le cosiddette “ere” glaciali e i periodi interglaciali, fenomeni molto più lunghi nel tempo, sono invece principalmente conseguenza della variazione della quantità di radiazione solare ricevuta dal Pianeta, dovuta a tre movimenti che la Terra compie in decine di migliaia di anni.

1. Il primo è quello dell’oscillazione dell’asse di rotazione terrestre: scoperta dal matematico e astronomo francese Urbain Jean Joseph Le Verrier nel XIX secolo, è una lenta variazione dell’angolo di inclinazione dell’asse, che compie il proprio ciclo oscillatorio tra 22° 20’ e 24° 50’ in 41.000 anni circa.

Essa influisce direttamente sulla quantità di radiazione solare che raggiunge le latitudini più elevate del Pianeta (dai 45° N in su).
In termini più semplici: minore è il grado d’inclinazione dell’asse terrestre, minore sarà la quantità di radiazione che ricevono i poli terrestri, minori dunque saranno le temperature del clima globale e viceversa.
Attualmente l’inclinazione è di 23° 50’ circa, in fase di risalita verso la gradazione minima.

I restanti due moti influiscono invece sulla variazione della distanza della Terra dal Sole, che in termini empirici equivale alla sensazione che possiamo esperire d’inverno nel variare di pochi centimetri la nostra distanza dal tanto amato calorifero (i più freddolosi sanno bene quanto pochi centimetri facciano la differenza tra felicità e sofferenza).

2. L’eccentricità dell’orbita del Pianeta attorno al Sole: varia in un ciclo di circa 100.000 anni ed è quel fenomeno per cui l’orbita della Terra tende ad essere ellittica e solo ad avvicinarsi a un’orbita circolare (il cerchio ha eccentricità pari a 0).

Sempre scoperta da Le Verrier, questa variazione influisce sulla distanza media che il Pianeta mantiene rispetto al Sole (ripensate alla vostra distanza dal calorifero nelle giornate invernali e all’invidia che avete provato verso i compagni di classe o i colleghi che gli stavano più vicino durante l’intera giornata).

Le sue oscillazioni periodiche sono molto più irregolari rispetto a quelle dell’asse terrestre e attualmente si attesta a 0,0167, in un raggio di variazione totale tra il valore minimo di 0,0033 e quello massimo di 0,0671. In termini pratici parliamo di variazioni nell’ordine dei milioni di chilometri di differenza di distanza dalla fonte di calore che è il Sole.

3. Per ultimo abbiamo il moto di precessione, dal ciclo più breve di 25.000 anni, ossia il moto conico dell’asse di rotazione della Terra dovuto all’attrazione reciproca con la Luna e gli altri pianeti.

Scoperto nel XVIII secolo dal famoso enciclopedista francese Jean-Baptiste Le Rond d'Alembert, questo fenomeno è meno intuitivo da immaginare e viene spesso spiegato attraverso il moto di una trottola, la quale non solo gira su sé stessa ma possiede anche un movimento che la porta ad ondeggiare e inclinarsi da una parte all'altra: il moto di precessione.

Gli effetti che questi moti hanno sul clima sono anche chiamati Cicli di Milanković, dal nome dall'ingegnere e matematico serbo Milutin Milanković che li ipotizzò e studiò ai primi del XX secolo.

CONCLUSIONI

Anche se il clima è il risultato di un sistema complesso le cui variabili generano altrettanti e complessi meccanismi di feedback, in generale possiamo immaginare che valga la regola per cui ogni fenomeno che modifica per lungo tempo il comportamento della radiazione solare ricevuta dalla Terra, è determinante sul lungo tempo per il clima globale del Pianeta; i suoi effetti, però, saranno sempre riscontrabili con leggero ritardo.

La relazione tra i vari moti millenari determina dunque, oltre alla ricorrenza dei periodi glaciali, anche l’intensità con cui essi si presenteranno ciclicamente.

I dati raccolti dai paleoclimatologi ci rivelano inoltre che la storia delle glaciazioni è in realtà molto recente. È da 3 milioni di anni che la Terra si sta lentamente raffreddando, con la comparsa dei primi ghiacciai, solamente stagionali, risalente a circa 2,75 milioni di anni fa nelle regioni settentrionali del Pianeta.

È invece da “soli” 0,9 milioni di anni che hanno iniziato ad esistere i ghiacciai permanenti.

Nel periodo delle decine e centinaia di migliaia di anni, il clima globale è dunque prevedibile grazie ai modelli fisici ed astronomici confermati dagli studi di geologi, paleologi e paleoclimatologi: abbiamo la certezza che, anche basandosi esclusivamente sul moto di precessione, ci troviamo già dentro l’inizio di una nuova era glaciale - che non è però mai iniziata.

Quasi certamente questo inizio disatteso è da attribuirsi alle emissioni in atmosfera dei cosiddetti “gas serra”, che, come è ormai accettato dalla quasi totalità delle comunità scientifiche, non permettono la naturale dispersione della quantità di radiazione solare ricevuta dal pianeta che invece continua a riscaldarsi.

Inoltre, secondo i modelli climatici, questi gas sarebbero dovuti diminuire anziché aumentare, ostacolando l’innescarsi dei feedback positivi e naturali di innesco della prossima glaciazione.

Stiamo ritardando la prossima glaciazione? Si.

 

 

PER APPROFONDIMENTI

William Ruddiman, “L’aratro, la peste, il petrolio - L’impatto umano sul clima”, UBE Paperback, 2015

William Ruddiman, “Earth’s Climate”, Freeman, 2001


Individuare il sesso, una storia infinita

Dopo aver notato che nella cosiddetta “natura” l’ermafroditismo e la transizione sessuale all’interno di un medesimo attante sono delle possibilità e che nell’antichità l’ermafroditismo non era considerato un errore di natura, vediamo ora come i criteri di individuazione sessuale (contrariamente a ciò che comunemente si pensa) siano cambiati nel corso del tempo, e più volte (almeno 5 – cfr. Montanari 2018).

1. IL FENOTIPO

Per secoli la determinazione del sesso (riconoscimento e assegnazione), e poi del genere, fu basata sul fenotipo, ovvero sui caratteri morfologici/fisici empiricamente accertabili come la barba, la distribuzione del grasso corporeo, il pomo d’Adamo, le ghiandole mammarie, ecc. Tuttavia, a parte (forse) il pomo d’Adamo, questi caratteri non sono sempre presenti in un uomo. Infatti, esistono persone glabre, con massa corporea che può essere simile a una donna ecc. Lo si nota sui mezzi pubblici o per strada, quando a volte (osservando alcune persone) non siamo certi delle nostre classificazioni.

2. I GENITALI

Successivamente si passò a inserire nel fenotipo anche caratteristiche fisiche meno visibili, come ad esempio i genitali. Tuttavia, siccome nella vita quotidiana i genitali sono quasi sempre coperti e nascosti, l’attribuzione del sesso diviene un ragionamento probabilistico, perché la prova mediante ispezione quasi sempre (e per fortuna) non ci è permessa. Inoltre, spesso non sappiamo qual è lo standard di un genitale per essere considerato tale. E nemmeno che forma hanno i genitali de* altr*, neanche de* nostr* più car* amic* se non abbiamo avuto con loro una relazione intima oppure non abbiamo praticato qualche sport collettivo che prevedeva il rituale delle docce (di adolescenziale memoria, per chi scrive).

Perciò si può anche parlare di genitali sociali, ovvero la forma di genitali che presumiamo che una persona abbia in base alla sua apparenza, ossia al suo genere sociale. 

Ma anche con i genitali le cose non sono così semplici come invece pensava l’onorevole Daniela Santanché, che in almeno un paio di occasioni (27 gennaio e 11 marzo 2019) ebbe a dire:

Con la replica di un’altra onorevole, Vladimir Luxuria, che prontamente rispose: «Non mi parli di natura proprio lei, che ha fatto molti più interventi chirurgici di me per motivi estetici. Sei più trans di me, Dany». Invocare la natura - l’abbiamo già visto in La costruzione di un’identità (Prima parte) - è sempre una pericolosa arma a doppio taglio…

Peraltro, l’apparato genitale è costituito sia da organi esterni (o visibili), ma anche organi interni (non visibili). Nel fenotipo maschile più comune, il pene e lo scroto formano gli organi esterni. La prostata, l’uretra, i testicoli, le vescicole seminali, le vie spermatiche (dotti eiaculatori) e il dotto deferente sono invece interne/non visibili. Nel fenotipo femminile più comune gli organi esterni/visibili sono il monte di Venere, il clitoride, le grandi labbra e le piccole labbra. Quelli interni/non visibili sono la vagina, l’utero, le tube o trombe di Falloppio, l’endometrio, la cervice e le ovaie.

Per dare un’idea di quante fusioni ci possano essere tra gli organi, ora sappiamo che il clitoride e il pene si sviluppano della stessa materia, anche se hanno diversi ruoli nella riproduzione e la vita sessuale. Oppure che nell’antichità si credeva che la vagina fosse un pene introflesso (ripiegato verso l'interno), un po’ simile a un capezzolo introflesso. 

Purtroppo, la forma e grandezza del genitale esterno è ancora tra i fattori primari nell’assegnazione del sesso… alla nascita. 

Tuttavia, ci chiediamo: in un neonato, quanti cm deve avere una protuberanza per essere considerata un pene oppure una clitoride?

Quando parliamo di genitali cosiddetti “ambigui” intendiamo una variazione di grandezza e forma proprio tra quello che consideriamo la clitoride e il pene. Anche perché essi sono (esternamente) molto simili:

3. LE GONADI

Tuttavia i due precedenti criteri risultarono ancora non sufficienti e si passò a un terzo criterio: le gonadi.

Infatti, nel 1876, il patologo tedesco E. Klebs inventò un nuovo sistema di classificazione basato sulla struttura delle gonadi (dal greco gone seme e aden ghiandola) organi anatomici che producono i gameti, ovvero le cellule riproduttive). Le gonadi femminili sono le ovaie (organi interni, situate nella pelvi) e producono gli ovociti. Quelle maschili sono i testicoli (organi interni, nello scroto) e producono gli spermatozoi. Come si può vedere, si procede sempre più verso l’interno e quindi sempre più verso il meno visibile.

Secondo questa classificazione, un individuo (uomo o donna che fosse) con i testicoli era indubitabilmente un uomo, non importa quali mascheramenti potessero avvenire a livello fenotipico; specularmente un individuo con le ovaie era indubitabilmente una donna. 

Dregen (1998) sostiene che la scoperta delle gonadi sessuali soppiantò il criterio di valutazione in base ai genitali esterni per la determinazione sessuale, fino a diventare l’unico attributo/metro per dirci a quale sesso si appartiene. Le cose piccole e nascoste (come le ghiandole) soppiantarono, quindi, le cose grandi e visibili. Il pene e la vagina non contavano più (qualcuno lo dica all’onorevole)… 

Tuttavia, nell’embrione (che per molte persone è già un essere umano) le gonadi si sviluppano partendo da una gonade indifferente, cioè un organo che ha la potenzialità di diventare sia testicolo che ovaio. La differenziazione avviene solo… al 2º mese di gravidanza. 

Infine, le gonadi sono anche il maggiore produttore di 3 ormoni sessuali nel corpo: estrogeni, progestinici e androgeni.

Ma perché concentrarsi sulle gonadi (l’apparato genitale interno)? 

Probabilmente perché sono organi riproduttivi e l’ideologia del tempo assegnava alla riproduzione il valore più alto. Tuttavia, anche questa classificazione scricchiolava. Infatti, una persona può: avere gli organi riproduttivi e decidere di non utilizzarli; non averli; o averli di un genere diverso rispetto al proprio corredo cromosomico… senza che questo impatti sulla propria identità di genere. Ad es. uno potrebbe dire “gli uomini non hanno l’endometrio: ecco la differenza tra maschi e femmine”!
Risposta: certo. Ma questa è solo in una prospettiva riproduttiva. Se a una donna tolgono l’endometrio, oppure subisce un’isterectomia totale (asportazione dell’utero intero e le strutture circostanti cervice, ovaie, tube di Falloppio ecc.) o parziale non è più una donna? 

4. I CROMOSOMI: IL GENOTIPO (O DNA)

Per ovviare la debolezza della classificazione gonadica, si passò allora (la faccio breve) ai cromosomi, che sono strutture all'interno del nucleo delle cellule. Essi contengono i geni di una persona. 

Il cromosoma contiene da centinaia a migliaia di geni. Ogni cellula umana normale contiene 23 coppie di cromosomi, per un totale di 46 cromosomi (23 del padre e 23 della madre), ovvero 22 coppie di autosomi (presenti in entrambi i sessi) e una (!!!) di eterosomi cosiddetti sessuali: XX per il sesso femminile e XY per il sesso maschile. 

Dall’epoca della “scoperta” scientifica dei cromosomi sessuali (prima metà del ‘900), le coppie cromosomiche XY e XX sono state rapidamente adottate come indicatori canonici del sesso biologico, mediante il cariotipo (o patrimonio o mappa cromosomica): se un individuo ha 1 cariotipo XY + i testicoli è un uomo; se possiede 1 cariotipo XX + le ovaie è una donna.

Cioè l’UNICO cariotipo diverso tra uomini e donne… sarà dirimente, e andrà a fare la differenza!!! E si chiamerà cariotipo femminile 46 XX e il cariotipo maschile 46XY. 

In altre parole, la minoranza (1 sola delle 23 coppie di cromosomi) ha vinto sulla maggioranza!

In politica questo creerebbe qualche problema…

4.1. PROBLEMI CON I CROMOSOMI

Questa distinzione però non regge il confronto con la fenomenicità del reale. Se la concezione ordinaria dell’anatomia e fisiologia umana immagina una concordanza tra i marcatori di genere chiaramente dimorfici (cromosomi, genitali, gonadi, ormoni), i biologi sanno che tale concordanza a volte non si manifesta. Come nel caso degli/lle intersessuali. E’ stato infatti riconosciuto che la differenziazione sessuale a livello biologico non agisce secondo una logica dicotomica e non produce solo due tipologie di corpi uniformi.

All’incirca una persona su 1000 sviluppa un corpo in cui NON tutti i componenti corrispondono al genere dei cromosomi di sesso e questo senza particolare complicazione in termini di salute fisica. Inoltre, la maggioranza degli/lle ermafrodit* con corredo cromosomico XX, ha materiale Y presente sui cromosomi X
in quantità sufficiente a produrre i tessuti di entrambi i sessi (cioè testicoli e ovaie). E ancora, ci sono anche ermafrodit* con presenza di cromosomi sessuali in parte maschili e in parte femminili nelle diverse cellule del corpo: 46,XX/46,XY oppure 46,XX/47,XXY. Alla base si trova uno “sbilanciamento” tra i geni che regolano lo sviluppo dell’ovaio piuttosto che del testicolo, molti dei quali sono stati identificati, mentre ne esistono altri probabilmente ancora non noti.

4.2. MARIA JOSÉ MARTÍNEZ-PATIÑO

In previsione delle Olimpiadi del 1988, all’atleta spagnola Maria José Martínez-Patiño il comitato olimpico aveva richiesto un test genetico, una procedura standard per verificare che non si presentassero in gara atleti uomini. Pur avendo un aspetto femminile convincente e una chiara identità di genere femminile, risultò tuttavia che Maria presentava un cariotipo XY maschile. In più non aveva né le ovaie né l’utero. Per i commissari lei era un uomo! La diagnosi fu di sindrome da insensibilità agli androgeni (AIS). Per cui fu esclusa dalla competizione e radiata dalla squadra olimpica spagnola. I commissari fecero prevalere l’autorità dei cromosomi sugli altri marcatori di genere. La sua, una vita completamente rovinata.

Oggi, però, il comitato Olimpico non utilizza più come criterio di controllo il test genetico (cfr. Fausto-Sterling 2000: 1-3). Magra consolazione per lei…

5. GLI ORMONI

Si passò così (la faccio nuovamente breve e lineare) agli ormoni. L’ormone (dal greco όρμάω “mettere in movimento”) è un messaggero chimico che trasmette segnali da una cellula o un tessuto a un’altra cellula o altro tessuto. Gli ormoni sono stati concepiti e poi scoperti a inizio ‘900. 

Gli ormoni sessuali sono divisi in tre macro categorie: 

  1. Androgeni, come il testosterone, prodotto in maggior parte dal gonadi e dalle ghiandole surrenali; 
  2. Estrogeni, tra i più importanti c’è l’estradiolo; 
  3. Progestìnici, tra i più noto il progesterone prodotto dalle gonadi. 

Gli estrogeni ed androgeni sono ormoni presenti in tutt*, ma in quantità diverse nei maschi o nelle femmine. Gli estrogeni sono presenti in quantità superiori nelle donne, gli androgeni sono presenti maggiormente negli uomini. I progestinici (pro-gestazione), invece, sono ormoni sessuali femminili che stimolano la secrezione dell’endometrio, favorendo così le condizioni adatte alla fecondazione dell’uovo e al suo annidamento nella mucosa uterina.

Per cui, a parte i progestinici, non abbiamo ormoni specificatamente femminili o maschili… 

E qui nascono ancora problemi classificatori…

5.1. CASTER SEMENYA

Caster Semenya è una mezzo-fondista. Nel 2009 a soli 18 anni fece molto parlare di sé, fino a diventare un caso internazionale, dopo aver vinto la medaglia d’oro negli 800 metri femminili ai Mondiali di atletica leggera di Berlino, distanziando la seconda classificata di oltre 2 secondi. 

La vittoria però è stata subito messa in discussione a causa dei suoi tratti mascolini, uniti all’impressionante potenza con la quale ha demolito le sue rivali. Caster Semenya fu così accusata di essere un uomo. Dopo aver effettuato dei test di DNA (mai rivelati al pubblico per rispetto della sua privacy) è stata poi riammessa alle competizioni e, nel 2012, ha vinto la medaglia l’oro alle Olimpiadi di Londra (800 metri femminili). 

Lei è affetta da iperandrogenismo: il suo corpo produce naturalmente una eccessiva quantità di ormoni androgeni, come il testosterone, rispetto alla media. La IAAF – l’Associazione Internazionale delle Federazioni di Atletica Leggera, oggi World Athletics – per tutelare ogni atleta e rendere le competizioni sportive il più possibile “ad armi pari”, nel 2011 ha imposto una regola che obbliga le donne con iperandrogenismo a sottoporsi a una terapia ormonale per abbassare la produzione di ormoni androgeni, che ritengono possano falsificare le competizioni sportive.

Con la Federazione sudafricana, Caster Semenya ha però fatto ricorso al TAS – il Tribunale arbitrale internazionale dello sport di Losanna. Il TAS ha respinto il ricorso dell’atleta sudafricana. Per cui l’atleta sudafricana non poté difendere il titolo mondiale ai Mondiali di Doha nel settembre 2019. L’atleta era stata esclusa da alcune competizioni sportive per essersi rifiutata di assumere farmaci che riducessero il suo alto livello di testosterone. Lei dice: "Alla fine, so di essere diversa. Non mi interessano i termini medici e quello che mi dicono. Essere nata senza utero o con testicoli interni. Non sono meno una donna. Queste sono le differenze con cui sono nata e le accetto. Non mi vergognerò perché sono diversa”. 

L’11 luglio 2023, la Corte europea dei diritti dell’uomo (CEDU) di Strasburgo ha sentenziato che il TAS e la World Athletics hanno violato i diritti dell’atleta sudafricana Caster Semenya.

Tuttavia, la decisione di Strasburgo non invalida le regole dettate dalla IAAF e, quindi, non ha permesso a Semenya di poter gareggiare gli 800m (senza alcun trattamento sanitario) alle olimpiadi di Parigi 2024.

5.2. BARBRA BANDA

Barbra Banda è una calciatrice zambiana, a cui sono stati rilevati livelli di testosterone più alti del consentito dopo il suo exploit alle Olimpiadi 2020 (tenutesi nel 2021). Il testosterone porta un vantaggio in termini di prestazioni, rendendo gli atleti più veloci e più forti. Banda ha rifiutato una cura ormonale poiché temeva i potenziali effetti indesiderati. Alle Olimpiadi ha avuto ottime prestazioni ed è stata la prima donna a segnare due triplette in un torneo olimpico. L’attaccante dello Zambia è stata ritenuta da più parti un uomo. La Confederazione Africana di Calcio (CAF) non le ha permesso di giocare alla Coppa d’Africa del 2022. Il CAF ha regole molto più stringenti rispetto a quelle delle Olimpiadi. Invece, la massima istanza calcistica (la FIFA), si è pronunciata sul “caso Barbra Banda”, permettendo la sua partecipare ai Mondiali in Australia e Nuova Zelanda del 2023. E alle Olimpiadi di Parigi 2024 ha segnato un’altra tripletta (4 goal in totale). Insomma, nemmeno ricorrendo agli ormoni si riesce a risolvere la questione…

Comunque, non sarebbe il caso che CIO, FIFA, CAF, World Athletics e tutte le altre federazioni sportive utilizzassero gli stessi parametri per giudicare se un’atleta possa o meno gareggiare o giocare con le donne?

Ma soprattutto, è possibile trovare questi parametri?

Ne parliamo la prossima volta, trattando anche di Imane Khelif, la pugile algerina il cui caso tanto ha fatto discutere la scorsa estate.

 

 

RIFERIMENTI BIBLIOGRAFICI

Dreger, Alive (1998), Hermaphrodites and the medical invention of sex, Harvard University Press, Cambridge, Mass.

Fausto-Sterling, Anne (2000), Sexing the body: Gender politics and the construction of sexuality, New York: Basic Books.

Montanari, Enrico (2018), La permeazione felice. Stati intersessuali e nuove prospettive, Tesi di laura in Scienze Filosofiche, Università degli Studi di Milano.


Il mito della specie e della sua evoluzione

1. PARLARE DI SPECIE E DI EVOLUZIONE

I concetti di selezione, di evoluzione e di conservazione delle specie sono entrati, dalla formulazione che ne fece C. Darwin nel 1872[1], nel linguaggio corrente e scientifico ma, a volte, vengono usati in modo improprio, distorcendone il senso originale.

Una distorsione frequente dell’idea darwiniana è quella secondo selezione e evoluzione sono soggetti che agiscono con l’obiettivo di migliorare la specie per renderla più resistente ed adeguata al contesto in cui vive.

Ad esempio, Donald Hoffmann[2], stimato cognitivista americano, nel suo libro sulla percezione e sulla conoscenza della realtà, L’illusione della realtà – come l’evoluzione ci inganna sul mondo che vediamo (Bollati Boringhieri, 2020) sostiene noi e gli altri animali percepiamo la realtà in modo distorto, che vediamo[3] quello che ci conviene vedere per avere maggiori possibilità di sopravvivere e di riprodurci – di perpetuare la nostra specie.

È un punto di vista interessante dal lato filosofico e cognitivo e ripropone – in termini e linguaggio scientifici attuali – il concetto cartesiano di “grande illusione”[4], affinandolo e arricchendolo di esempi anche divertenti e appassionanti. È verosimile pensare che in alcune occasioni percepiamo[5] le cose in modo tale da metterci in guardia contro i pericoli, che ci orientiamo in modo immediato, senza ragionare, verso comportamenti che aumentano la nostra possibilità di sopravvivere, che ci nutriamo con alimenti che ci danno maggiore energia se dobbiamo fare sforzi o fatiche, e così via, che la nostra cognizione sia modulata in modo tale da garantire il massimo risultato.

Tuttavia, Hoffman suggerisce che - al centro di questa distorsione percettiva - sia proprio l’evoluzione[6] ad agire come soggetto, ad ingannarci per garantire la sopravvivenza del singolo individuo e la conservazione, la perpetuazione e il progressivo miglioramento della sua specie attraverso la riproduzione.

In questa visione la specie è un oggetto coerente, con confini ben definiti, in cui si ascrivono categorie di animali con caratteri omogenei, in cui questi animali si potrebbero riconoscere; e, l’evoluzione ha il carattere di soggetto, agisce con un fine, riconosce la specie, i suoi punti di forza e di debolezza, e ne orienta i meccanismi adattativi.

Questa concezione, ancora, si trova in alcuni schemi ecologisti e ambientalisti, in cui la specie è oggettivizzata ed elevata a valore da preservare, la natura è un soggetto che agisce, l’evoluzione, di nuovo, è un soggetto e ha un fine, quello di affinare e preservare le specie.[7]

2. DARWIN NON SAREBBE D’ACCORDO

Una prima sorpresa, per chi legge il trattato di C. Darwin sulla origine e selezione delle specie, è che - effettivamente - utilizza il termine specie e lo fa “come se” la specie fosse un unicum coerente e ben definito ma – nello stesso tempo – mette in guardia esplicitamente sul fatto che usa

«il termine di specie come applicato arbitrariamente, per ragioni di convenienza, a gruppi di individui molto somiglianti fra loro, e che esso non differisce sostanzialmente dal termine varietà, il quale è riferito a forme meno distinte e più variabili. Anche il termine di varietà, per quanto riguarda le semplici differenze individuali, è applicato arbitrariamente, per ragioni di convenienza.» (Darwin C., L’origine delle specie, 2019, Bollati Boringhieri)

Ancora più sorprendente può risultare che Darwin non intendesse affatto la “selezione naturale”, la “lotta per l’esistenza”, l’”evoluzione”, la “natura” come soggetti che agiscono ma – al contrario – come «azione combinata e risultato di numerose leggi[8]» (Cit., p. 154), e scrivesse che «nel senso letterale della parola, il termine selezione naturale è erroneo» (Cit., p. 154), lo ritenesse una espressione metaforica (cfr. ibidem):

«Si può dire, metaforicamente, che la selezione naturale sottoponga a scrutinio, giorno per giorno e ora per ora, le più lievi variazioni in tutto il mondo, scartando ciò che è cattivo, conservando e sommando tutto ciò che è buono» (Cit. p. 157).

Allo stesso modo, Darwin annota (cit. p. 154) che per alcuni «il termine selezione naturale implica una scelta cosciente da parte degli animali che vengono modificati», sottolinea il senso metaforico di questa espressione e – di fatto – anticipa una interpretazione che diventerà corrente, quella della personificazione delle forze selettive.

E quando (cit., p. 157), tratta metaforicamente la selezione come un soggetto,

«silenziosa e impercettibile essa lavora quando e ovunque se ne offra l'opportunità per perfezionare ogni essere vivente in relazione alle sue condizioni organiche e inorganiche di vita»,

evidenzia che il fenomeno selettivo riguarda il miglioramento delle capacità di sopravvivenza del singolo individuo nel contesto in cui vive.

In sintesi, appare chiaro che - nella accezione darwiniana originale – la specie non è né un soggetto né un oggetto coerente e ben delimitato, e che la selezione, l’evoluzione e la conservazione delle specie non sono soggetti che agiscono ma processi risultato di condizioni di vita e – in definitiva – di fenomeni guidati dal caso, dal contesto e senza finalismi

«si può dire che le condizioni di vita non soltanto causano la variabilità, o direttamente o indirettamente, ma altresì includono la selezione naturale, poiché le condizioni determinano se questa o quella varietà sopravviverà» (Cit., p. 203).

Il ruolo del caso nel processo evolutivo può essere reso in modo chiaro con questo esempio: tra due individui qualunque, quello più adatto all'ambiente in cui si trova – cioè, quello che ha sviluppato in modo maggiore, nel corso della sua breve vita, le competenze e capacità più efficaci per quell'ambiente - ha più probabilità dell’altro di vivere abbastanza a lungo; vivendo abbastanza a lungo ha anche più probabilità di avere rapporti sessuali con individui che hanno sviluppato altrettante caratteristiche adeguate all'ambiente, se, casualmente, ne incontra.

Come conseguenza di questa casualità di vita lunga e di occasioni di rapporti sessuali, questo individuo ha maggiore probabilità di riprodursi e i nuovi nati hanno (o, perlomeno, potrebbero avere) le stesse caratteristiche di adeguatezza all'ambiente dei genitori.

Allo stesso modo si può proporre una riflessione sulla presenza di organi sessuali complementari che, per chi pensa a meccanismi finalistici nella selezione, sono "dedicati" all'accoppiamento a fini riproduttivi: proviamo a fare un esperimento mentale collocato nella notte dei tempi, in cui ipotizziamo un gruppo di 40 individui della stessa varietà, di cui 10 senza organi sessuali, 10 con organi sessuali senza capacità riproduttiva, 10 con organi sessuali con capacità riproduttiva e forma complementare e 10 con organi sessuali con capacità riproduttiva ma con forma non complementare, dopo qualche anno che tipo di individui ritroviamo? Certamente quelli che – casualmente – sono nati con organi sessuali complementari e che – sempre casualmente – si sono incontrati.

In estrema sintesi: in un ampio gruppo di individui diversi, quelli che sono, casualmente, più adeguati al contesto hanno più opportunità di vivere a lungo e riprodursi. La generazione successiva vedrà più individui con quelle caratteristiche di adeguatezza e meno di quelli meno adeguati. E, dopo alcune generazioni, troveremo solo individui del tipo "più adeguato".[9]

3. LA SELEZIONE NON È TELEOLOGICA E LA SPECIE NON ESISTE

Quando parliamo di selezione, di evoluzione e di conservazione delle specie è opportuno ricordare che questi concetti sono esenti da personificazione e da suggestioni finalistiche, che essi sono metafore per rappresentare il risultato di occorrenze casuali per cui gli individui che si trovavano al posto giusto, nel momento giusto e con le caratteristiche giuste sono sopravvissuti più a lungo e hanno avuto l’occasione di generare discendenti.

Al contrario, indulgere nella personificazione di questi concetti comporta il rischio di distorsioni socialmente pericolose, come, ad esempio, la giustificazione della “legge del più forte” e l’uso della selezione naturale per legittimare il carattere naturale di discriminazioni sociali, sessuali e razziali.

Allo stesso modo, considerare le specie come oggetti internamente coerenti o – addirittura – come soggetti, può essere il fondamento di pericolosi ragionamenti specisti o di atteggiamenti ecologisti i cui risultati sono discutibili, come la reintroduzione[10] di una varietà di animali in un territorio, oppure – ne ho già scritto recentemente – uccidere un grosso carnivoro “problematico” sia moralmente accettabile poiché quella morte non incide sulla conservazione della specie nel territorio in cui essa vive.

 

 

NOTE

[1] L’edizione di On the origin of species by means of natural selection or the preservation of favoured races in the struggle for life che C. Darwin considerava definitiva è la sesta, pubblicata – appunto – nel 1872

[2] Cfr. Wikipedia - Donald Hoffman

[3] E sentiamo, e odoriamo, in sostanza percepiamo con i sensi

[4] Secondo Descartes l’immagine della realtà esterna che viene proposta dai sensi alla mente potrebbe essere del tutto illusoria, con poco o senza attinenza con la realtà com’è veramente; l’unica garanzia che abbiamo che questa percezione è veridica risiede in Dio, che non ci inganna, che è garante della veridicità della percezione.

[5] Uso qui il “noi” esteso a tutte le specie animali senzienti, dotate di sensi e di percezione.

[6] Uso evoluzione e specie in corsivo per sottolinearne la soggettivazione

[7] Di questo – e delle distorsioni morali sul tema delle specie - ne parlerò in un prossimo articolo

[8] Per C. Darwin, molto sull’onda humiana, le leggi sono «la sequenza di fatti da noi accertati» (Cit. p. 154)

[9] Se proprio vogliamo parlare di specie come oggetto coerente, è bene evitare di dire "la specie ha sviluppato quelle caratteristiche" e – invece –dire "la specie si è trovata con quelle caratteristiche" come risultato di singole storie di singoli individui che hanno, singolarmente, sviluppato quelle caratteristiche; dire: la specie "è " quelle caratteristiche. Questo perché la "specie" non esiste. Similmente la "selezione" non opera, "l'evoluzione" non seleziona; non fanno nulla perché non esistono, non sono soggetti che agiscono, sono solo fenomeni che sono accaduti. Così ci salviamo dall'equivoco finalista, teleologico, dell'evoluzione.

[10] Presto un articolo sulla discutibilità, sia scientifica che morale, della reintroduzione degli orsi bruni in Trentino


La costruzione di un’identità (Seconda parte) - Il sesso nell’antichità

Nell'articolo precedente, La costruzione di un’identità (Prima parte), abbiamo visto come l’ermafroditismo e la transizione sessuale (cioè cambiare sesso nel corso della vita) siano fenomeni naturali. Sia nel mondo vegetale (piante e fiori) che animale (vermi, molluschi, pesci).

E gli esseri umani? Come è stato considerato l’ermafroditismo in passato? Un errore di natura? Non sempre.

Nell’antichità l’ermafroditismo (l’ambi-sesso) fu considerato uno stato originario, un’essenza divina, completa, irraggiungibile, la perfezione perché nell’uno c’erano tutte le possibilità.

Chi era rimasto ermafrodita, anche dopo la scissione primordiale, era quindi un essere ritenuto semi-dio, un umano non umano, un umano che sfuggiva alla razionalità del dualismo imposto dalla cultura e dalla società (cfr. Fausto-Sterling, A., 2000: 32). L’ermafrodito era definibile in un genere altro rispetto a quello maschile e femminile, definito dagli Dei appunto neutrum.

Ermafrodito è il figlio di Hermes (messaggero degli Dei) e di Afrodite (dea dell’amore e della bellezza). Il suo nome è la crasi dei nomi dei suoi genitori. Secondo il mito, la ninfa Salmace – perdutamente innamorata del giovane – chiese a suo padre (Poseidone) di poter essere fusa per sempre con il ragazzo. Fu così che la ninfa-donna si fuse con il semidio-uomo: ne nacque l’ermafrodita/o.

 Platone

Nel Simposio di Platone, il commediografo Aristofane sostiene che a uno stadio originario dell’umanità,
(precedente alla divisione dei sessi) esisteva solo un terzo genere, un po’ come il numero 1 (parimpari) che genera tutti gli altri numeri:

«Innanzitutto, i generi degli uomini erano tre e non due come ora, ossia maschio e femmina,
ma c’era anche un terzo che accomunava i due, e del quale ora è rimasto il nome, mentre esso è scomparso. L’androgino era, allora, una unità per figura e per nome, costituito dalla natura maschile e da quella femminile accomunate insieme, e nella forma e nel nome, mentre ora non ne resta che il nome, usato in senso spregiativo. […] Per questo i generi erano tre, perché il maschio aveva tratto la sua origine dal Sole, la femmina dalla Terra e il terzo sesso, che partecipava di entrambi, dalla Luna, la quale partecipa della natura del Sole e della Terra» (
Platone, Simposio, 189 e/190 b, Mondadori, Milano 2001, pp. 55-57, trad. di Giovanni Reale).

Platone nel IV sec. a.C. sembra utilizzare (erroneamente) il termine androgino [composto da ἀνήρ «uomo» e γυνή «donna»] come sinonimo di ermafrodita.

Non solo nel mondo greco antico, ma anche in altre culture, l’ermafroditismo era visto positivamente. Ad esempio, secondo alcuni interpreti biblici, Adamo in origine nacque ermafrodita (Adamo-Eva) e venne successivamente scisso in maschio e femmina (cfr. Eliade 1989: 89). Inoltre, sono ermafroditi tutti gli Dei più importanti della mitologia scandinava (Odino, Loki, Tuisto, Nerthus), le divinità egizie Hapi, Atum e Neith di Sais, e quelle indiane Shiva e Vishnù, oltre ad Aditi. Pure l’azteco Ometeotl, la divinità doppia composta dai due aspetti Ometecuthli/Omecihuatl, è ermafrodita[1].

Aristotele

Come abbiamo visto nel Simposio, le cose cominciano a cambiare già ai tempi di Platone: l’ermafroditismo tra gli umani diviene una condizione molto controversa, spesso considerata un’aberrazione, un fenomeno infausto e turpe. Per Aristotele l’ermafrodita è un individuo sovrabbondante, in cui l’eccesso di materia sbilancia l’equilibrio tra maschile e femminile. Il pregiudizio aristotelico però si ferma al piano fisico: l’ermafroditismo è una condizione che interessa solo i genitali e non l’intera persona.

Questa visione ‘mostruosa’ dell’ermafrodita successivamente si accresce: neonat* che presentavano caratteristiche ambigue e difficilmente definibili venivano respint* come affratellat* al diavolo, emanazioni del peccato, messagger* di verità ingannatrici. Si profila in epoca medievale una lettura nuova dell’ermafroditismo, che non viene valutato soltanto nelle sue implicazioni fisiche, bensì inizia a essere giudicato come una devianza morale. Avviene cioè una transizione, storicamente fondamentale, dal pregiudizio fisico a quello morale: essere ermafrodit* non significava più possedere due attributi al posto di uno, ma significava essere individui ingannevoli a causa di una devianza fisica.

Per cui, fino agli inizi del ‘600 gli ermafroditi vengono considerati mostri, giustiziati e bruciati, e le loro ceneri sparse nel vento (cfr. Foucault 2004: 67).

Questo breve (e incompleto) excursus storico ci fa capire (al di là di ogni pretesa essenzialista) che i modi con cui indentifichiamo l’altro sono basati su categorizzazioni (culturali) che possono cambiare (e spesso lo fanno) nel tempo. E appellarsi alla “natura” non è sempre un buon modo di affrontare un tema. Anche perché la supposta “natura” (pensata come entità autonoma dall’agire umano), proprio in questo caso ci dice che esistono molteplici possibilità di identificazione sessuale e ridurle alle (o farle forzatamente rientrare nelle) nostre classificazioni non è sempre cosa saggia.

Ma allora, quali sono i criteri di individuazione sessuale? Lo vedremo la prossima volta.

 

 

NOTE

[1] Cfr. https://win.storiain.net/arret/num197/artic1.asp

BIBLIOGRAFIA

Eliade, Mircea (1989), Il mito della reintegrazione, Milano: Jaca Book.

Fausto-Sterling, Anne (2000), Sexing the Body: Gender Politics and the Construction of Sexuality, New York: Basic Books.

Foucault, M. (2004), Gli anormali. Corso al Collège de France (1974-1975), Milano: Feltrinelli.

 

 


Gemelli digitali del pianeta? No grazie - Una riflessione sui "futuri simulati"

Un articolo recentemente pubblicato sul giornale WIRES Climate Change offre una critica articolata delle iniziative anche Europee di costruire dei gemelli digitali dell’intero pianeta, comprensivi di oceani, atmosfera, biosfera, e degli umani con le loro economie e società. Di cosa si tratta?

Molti gemelli artificiali sono già di uso corrente, in ingegneria, medicina e gestione dei processi. Secondo il sito della IBM un gemello digitale

… È una rappresentazione virtuale di un oggetto o sistema, disegnato per riflettere accuratamente un oggetto fisico. Esso copre l’intera vita dell’oggetto, viene alimentato con dati in tempo reale e usa simulazioni, nonché tecniche di apprendimento automatico (machine learning)

Gemelli di una turbina, di un ciclo produttivo o di un cuore umano, possono aiutare nello sviluppo di nuovi prodotti, processi o farmaci.

Il passaggio da una turbina al pianeta con noi sopra non è ovviamente cosa da nulla. Questi megamodelli gireranno su supercomputers inghiottendo enormi banche dati e generando immensi output che potranno essere ‘letti’ con l’ausilio di intelligenze artificiali. Essi ci consentiranno, secondo chi li propone, di affrontare le sfide dell’antropocene (un termine usato per indicare una nuova fase geologica caratterizzata da un visibile impatto umano) con particolare attenzione ai cambiamenti climatici. I gemelli del pianeta saranno collegati in tempo reale con satelliti, droni, boe, cavi sottomarini, sensori della produzione agricola e telefoni mobili.

Euronews, una rivista con sede a Bruxelles, si porta avanti, e annuncia: 'Gli scienziati hanno costruito un "gemello digitale" della Terra per prevedere il futuro del cambiamento climatico'. Secondo Margrethe Vestager, Vicepresidente Esecutiva per un'Europa dell’era digitale:

Il lancio dell'iniziale Destination Earth (DestinE) è un vero punto di svolta nella nostra lotta contro il cambiamento climatico... Significa che possiamo osservare le sfide ambientali, il che ci aiuterà a prevedere scenari futuri - come non abbiamo mai fatto prima... Oggi, il futuro è letteralmente a portata di mano.

 

DestinE è la versione europea dei numerosi progetti volti a costruire gemelli digitali del pianeta. L'idea che possiamo costruire una replica in silico (cioè nella pancia di un computer) della Terra ha un chiaro fascino culturale, una visione prometeica di fuga definitiva dell'umanità dalla materialità, accolta con entusiasmo come si vede da diversi decisori politici e da molte istituzioni scientifiche, come si puo’ vedere dal numero speciale del giornale Nature Computational Change, che discutendo diverse applicazioni del gemelli digitali presenta l’estensione all’intero pianeta come una naturale evoluzione della tecnologia. Perché opporsi, quando tanti fondi appaiono a portata di mano per sviluppare computers e modelli più potenti per studiare la Terra, il suo clima, l’evoluzione metereologica e gli eventi estremi? L’iperbole diventa di rigore, e così si arriva a dire che i gemelli preconizzano una nuova fase nello sviluppo dell’umanità, dove il mondo diventa “cyber-physical” cioè senza più barriere fra il virtuale ed il reale, grazie al suo nuovo esoscheletro.

Pubblicare un articolo critico come quello offerto da Wires Climate Change diventa così una sfida per gli undici autori, che richiede pazienza e una certa dose di ostinazione per procedere nonostante i rifiuti di molti giornali di scienze naturali. Quali ragioni adducono questi autori a ‘mettersi di traverso’?  Le ragioni sono diverse e fanno riferimento a diverse scuole e discipline – come gli stessi autori:

  • I proponenti dei gemelli digitali della Terra sostengono che essi, aumentando la risoluzione spaziale dei modelli, fino alla scala del kilometro, ci consentiranno di decifrare i misteri del cambio climatico. Per i dissidenti sopracitati:

Più alta è la risoluzione (cioè, maggiore è la localizzazione), più emergono feedback non fisici come rilevanti, che si tratti degli effetti microclimatici delle foreste o dei micropattern di albedo dovuti al ricongelamento di pozze acquose sulle calotte di ghiaccio. Il cambiamento di scala spesso comporta cambiamenti non banali nella complessità e nei principi che governano il sistema, e scale più dettagliate possono rivelare comportamenti caotici deterministici. Una risoluzione diversa potrebbe richiedere descrizioni di processi differenti, forse ancora sconosciute.

  • I gemelli sono il risultato di una catena di riduzioni: la scienza viene ridotta alla fisica delle equazioni che governano il cambiamento climatico, e questa viene a sua volta ridotta ad un determinismo che solo esiste nelle equazioni stesse.
  • L’enfasi sui gemelli, anche per affrontare sfide come la difesa della biodiversità, stravolge la natura della sfida e ne sposta il baricentro dal sud globale, dove si trovano le specie da classificare e difendere, al nord globale dove l’attenzione si concentrerà sulle specie sulla quali esistono più dati.
  • Il progetto dei gemelli illustra drammaticamente l’autorità epistemica (relativa alla conoscenza) assunta dai modelli e da chi li opera. Gli eccessi di tale autorità, resi evidenti nel corso della recente pandemia, sono evidenti nella impostazione dei gemelli, che tendono a posizionare il cambio climatico – di certo reale e incombente – come una mono-narrazione cui tutto deve fare riferimento, comprese guerre, migrazioni, e derive autoritarie, con il risultato di oscurare la geopolitica con la fisica a danno dei deboli che si vorrebbero difendere dal cambiamento climatico.
  • I gemelli digitali emergono da un intreccio di cambiamenti sociopolitici e tecnologici, in cui i numeri – indipendentemente da come vengono generati, siano essi visibili, come nelle statistiche, o invisibili, come quelli che girano nel ventre degli algoritmi – influenzano sempre più il discorso sociale, causando l’allarme dei filosofi, dei giuristi, degli economisti e degli stessi tecnologi, per non parlare degli esperti che studiano la sociologia della quantificazione e la sua relazione con la politica.

Quest’ultimo bullet, relativo alla relazione fra modelli, numeri e politica, si presta a interessanti digressioni, su come i numeri conferiscano potere epistemico e legittimità, e siano diventati il mezzo prevalente per esprimere valore nelle nostre società. L'accesso e la produzione di numeri riflettono e rafforzano le strutture di potere esistenti. I numeri catturano la nostra attenzione orientandola selettivamente. I numeri sono diventati invisibili poiché penetrano ogni aspetto della vita attraverso grandi modelli, algoritmi e intelligenza artificiale. Numeri e fatti sono diventati sinonimi. I numeri hanno colonizzato i fatti.

Un’altra digressione possibile riguarda il "fact signalling” con i numeri – «una pratica in cui i tropi stilistici del pensiero logico, della ricerca scientifica o dell'analisi dei dati vengono indossati come un costume per rafforzare un senso di giustizia morale e certezza». Questa è diventata un'attività dilagante praticata da esperti, presunti verificatori di fatti, politici e media. Un'arte simile è praticata dai cosiddetti ‘imprenditori di valori’ – esperti il cui lavoro consiste nel misurare il valore sociale di diverse iniziative al fine di stabilire legittimità, dimostrare conformità, cambiare comportamenti o giustificare un campo. Il fact signalling è anche praticato da attori industriali per difendere i propri interessi sotto il pretesto di difendere la scienza dai suoi presunti nemici. I numeri sono diventati una misura di virtù, ed i gemelli del pianeta ce ne forniranno in abbondanza.

Una terza ed ultima digressione – ci perdoneranno i lettori – riguarda il ruolo dei mezzi di comunicazione in quanto discusso fin qui. I media hanno sostanzialmente fallito nel monitorare adeguatamente gli esperti, spesso presentando le opinioni degli stessi esperti come certezze. Sul fronte cruciale della politica, i media contribuiscono a una campagna futile per difendere la democrazia e i valori dell'illuminismo attraverso la “verifica dei fatti” (sempre con numeri). Come osservato da un linguista cognitivo, ciò avvantaggia le forze antidemocratiche moltiplicando il loro messaggio: contare le bugie di Trump significa parlare di Trump ogni giorno. L'uso sconsiderato dei numeri banalizza i valori della politica e indebolisce la vita democratica.

Tornando ai gemelli del pianeta, si può concludere con una ricetta in quattro punti per un futuro più gentile, basata sullo sviluppo di diversi modelli specifici e adatti allo scopo piuttosto che su un modello universale, sull'esplorazione del potenziale di modelli semplici basati su euristiche in contesti climatici/ambientali, sulla raccolta e integrazione di dati da fonti divergenti e indipendenti, inclusa la conoscenza tradizionale, e sull'abbandono di una visione del pianeta centrata sulla fisica a favore di una diversità di processi relazionali, sia sociali che biologici, naturalmente fluttuante e irriducibilmente incerta, che richiede pratiche di cura più pluraliste e provvisorie per contrastare le narrazioni socio-ecologiche della modernizzazione ecologica, della crescita verde, dei servizi ecosistemici e simili.

Questa non è una discussione del tutto nuova. Il sociologo della scienza Brian Wynne osservava quaranta anni fa in relazione ai grandi progetti di modellizzazione:

Che sia deliberatamente concepito e utilizzato in questo modo o meno, la grande modellizzazione può essere interpretata come un simbolo politico il cui significato centrale è la diseducazione e la privazione del diritto di partecipazione delle persone dalla sfera della politica e della responsabilità.

Wynne suggeriva inoltre che:

In effetti, l'analisi delle politiche, specialmente quella condotta attorno a modellizzazioni su larga scala, tende ad essere strutturata in modo tale che ogni gruppo di modellizzazione costituisca virtualmente la propria ‘peer community’ [la comunità di esperti in grado di verificare la qualità del prodotto scientifico].

È quindi legittima la preoccupazione?

 

 

---------------------------------

Una versione di questo articolo è apparsa in inglese nel blog ‘The Honest Broker’ di Roger Pielke Jr., settembre 2024.


L’etica hacker al di là di destra e sinistra - Il potere e la Silicon Valley

Quo usque tandem

Fino a quando i politici e i media mainstream abuseranno delle categorie di destra e sinistra per parlare della Silicon Valley? Candidati, ministri, deputati e giornalisti si impigliano in questa classificazione già nei loro discorsi consueti, aggovigliandosi in parole d’ordine in cui è difficile comprendere cosa distingua questi orientamenti politici e in che modo li si debba identificare. La loro applicazione al sistema di economia e di potere delle Big Tech è ancora più arbitrario, dal momento che i fondatori e i manager delle multinazionali digitali americane, l’ecosistema degli startupper e dei finanziatori, dichiarano da sempre di appartenere ad un’élite dell’umanità in cui valgono regole di valutazione, diritti di decisione e libertà di manovra, che non si trovano nella disponibilità di tutti.

Nello statuto di Facebook e nella lettera agli azionisti al momento del collocamento in Borsa, Mark Zuckerberg chiariva che il fondatore avrebbe conservato un potere di voto maggioritario, in modo indipendente dalla distribuzione delle quote azionarie, perché aveva dimostrato di essere più smart di chiunque altro. La rivendicazione di questo privilegio proviene dall’etica hacker, che distingue gli esseri umani in capaci e incapaci, senza ulteriori sfumature. L’abilità è testimoniata dal talento di trovare una procedura per risolvere qualunque problema – anzi, nell’individuare il procedimento più semplice dal punto di vista dell’implementazione e più esaustivo dal punto di vista dei risultati. Se si considera che questa è la prospettiva con cui viene descritta l’intelligenza dalle parti della Silicon Valley, non sorprende che la progettazione di una macchina capace di vincere le partite di scacchi sia stata interpretata come la via maestra per realizzare l’Intelligenza Artificiale Generale (AGI), raggiungendo la Singolarità, il tipo di intelligenza che si ritrova negli esseri umani.

Il problema di cosa sia smartness è che dipende sempre dalla definizione, e dal contesto culturale che la concepisce. Per gli esponenti più influenti della Silicon Valley coincide con la capacità di escogitare algoritmi: una serie di operazioni governate da una regola che possono essere automatizzate – ingranaggi che, sistemati nei luoghi opportuni, fanno funzionare meglio la macchina-mondo, così com’è. La politica, come riflessione sul potere e come progetto antropologico che immagina una realtà migliore e una società più giusta (qualunque significato si assegni a migliore e a giustizia), non serve: è inefficiente, provoca disagi e rallentamenti. L’universo attuale non ha bisogno di aspirazioni al cambiamento, se non il requisito di un’efficienza maggiore, movimenti più oliati, privilegi che si perpetuano scontrandosi con meno frizioni, un’opinione pubblica convertita in una platea di utenti-clienti.

Smartness

In questa prospettiva, i «ragazzi» che hanno fondato le imprese da cui proviene l’ecosistema di software in cui siamo immersi, possono a buon diritto stimarsi più smart degli amministratori pubblici. Elon Musk ha avviato il progetto Starlink per l’erogazione di connettività a banda larga via satellite nel 2019, e oggi conta su oltre 7.000 satelliti già in orbita, con circa tre milioni di abbonati tra gli utenti civili di tutto il globo – senza contare la capacità di intervenire nelle sorti delle guerre in corso in Ucraina e Israele, o di contribuire al soccorso delle popolazioni alluvionate in Emilia Romagna nel 2023. L’Unione Europea ha varato un piano concorrente solo quattro anni dopo: Iris2 ha debuttato nel marzo 2023, dopo nove mesi di dibattito preliminare, con la previsione di lanciare 170 satelliti entro il 2027. Il progetto però sta già subendo dei rinvii a causa delle tensioni con i partner privati Airbus (tedesca) e Thales (francese).

Altro esempio: dopo l’approvazione dell’AI Act, l’Unione Europea ha allestito un Ufficio per l’applicazione del regolamento, che occuperà 140 persone. Nel piano è previsto un finanziamento distribuito fino al 2027, di 49 milioni di euro complessivi, per progetti che creino un grande modello linguistico generativo open source, capace di federare le aziende e i progetti di ricerca del continente. L’obiettivo è costruire un’alternativa concorrente a ChatGPT, che però OpenAI ha cominciato a progettare nel 2015, su inziativa di quattro fondatori privati (tra cui il solito Elon Musk e Sam Altman, attuale CEO), che hanno investito di tasca loro oltre 1 miliardo di dollari, e che è stata sostenuta con più di dieci miliardi di dollari da Microsoft nell’ultimo round di finanziamento.

L’archetipo randiano

La storia dei successi delle tecnologie ideate e commercializzate in tutto il mondo dalle società della Silicon Valley accredita la convinzione dei loro fondatori di incarnare l’élite più smart del pianeta; l’etica hacker stimola la loro inclinazione a concepire, realizzare e distribuire dispositivi il cui funzionamento viola qualunque normativa a tutela della privacy e della proprietà intellettuale in vigore, con la creazione di mercati che trasformano ambienti, comportamenti, relazioni, corpi umani, in beni di scambio e di consumo; la filosofia di Ayn Rand giustifica sul piano della cultura, dell’ideologia e della politica, il loro atteggiamento come la missione salvifica dell’individuo eccezionale nei confronti della destinazione storica dell’intera specie. La devozione agli insegnamenti della Rand accomuna tutti i leader delle Big Tech in un’unica visione dell’uomo e del mondo, che legittima i loro modelli di business come valide espressioni del loro talento, e censura le reazioni degli organismi di giustizia come il sabotaggio perpetrato dall’ottusità tradizionale e dalla repressione (sprigionata dalla vocazione comunista di ogni istituto statale) sulla libertà di azione dell’imprenditore-eroe. La rivendicazione della libertà di iniziativa al di là dei limiti di qualsiasi sistema legale non avviene solo sul piano del diritto, ma è avvertita come un dovere da parte dei depositari della smartness del pianeta – perché, come osserva il co-fondatore ed ex direttore di Wired Kevin Kelly, il loro coraggio di innovazione porta a compimento un percorso di evoluzione ineluttabile: il tentativo di resistervi conduce ad un ruolo subordinato nelle retrovie del presente, nella parte di chi viene accantonato dalla Storia.

Tecnologia e istituzioni

Riotta e Bonini rilevano che oggi l’espressione culturale della Silicon Valley è il Think Tank del Claremont Institute, dove verrebbe praticato una sorta di culto delle idee di Leo Strauss. Se così fosse, dovremmo riconoscere che il clima filosofico della zona si è molto moderato, e raffinato, rispetto al superomismo tradizionale della Rand. Tuttavia gli editorialisti de la Repubblica leggono questo passaggio come un segnale dello sbandamento verso destra dei rappresentanti delle Big Tech, tra i quali si avvertirebbe sempre di più la frattura tra progressisti e reazionari. L’articolo del 21 settembre di Riotta prepara l’interpretazione politica del premio «Global Citizen Award 2024» dell'Atlantic Council a Giorgia Meloni, consegnato il 24 settembre da Elon Musk in persona. Molti giornali hanno chiosato il significato dell’evento come la celebrazione dell’alleanza tra il gruppo di imprenditori legati a Musk e la destra europea e americana. Il contratto di cui il creatore di Starlink e la Presidente del Consiglio avrebbero parlato nel loro colloquio privato riguarda proprio la gara di appalto per i servizi di connettività dello stato italiano. Tim e OpenFiber si sono aggiudicati i progetti per la copertura con banda larga di tutto il territorio, alimentati dal Pnrr; ma hanno già accumulato ritardi e opposto difficoltà alla concorrenza satellitare, per cui il governo potrebbe decidere di sostituire la loro fornitura via terra con quella dei servizi di Elon Musk. Anche per le operazioni di lancio dei satelliti di Iris2, l’Italia potrebbe appoggiare la collaborazione con SpaceX, grazie alla quale verrebbero superati gli impedimenti sollevati da Airbus e Thales. Il rapporto con le società americane permetterebbe loro di entrare nelle infrastrutture strategiche per la gestione dei servizi civili e persino per quelli di sicurezza nazionale dell’Unione Eruopea.

Già negli anni Ottanta del secolo scorso Ulrich Beck osservava che il ritmo di avanzamento della scienza e della tecnologia è troppo veloce per permettere alle istituzioni pubbliche di vagliare i rischi, di verificare condizioni e conseguenze, di guidarne lo sviluppo: alla politica non resta che constatare e convalidare l’esistente. Il rapporto che si stabilisce tra le figure di Musk e della Meloni non sembra differente: non è l’imprenditore ad essere affiliato alle fila della destra politica, ma è l’innovatore spregiudicato che definisce le prospettive della tecnologia, le possibilità che essa pone in essere, e i criteri per giudicare dispositivi e processi concorrenti. L’Unione Europea è relegata nel ruolo di inseguitore poco efficiente di ciò che Starlink ha già concepito e realizzato: il discorso con cui Giorgia Meloni consacra Elon Musk come campione degli ideali della destra, in fondo, non è che il gesto di validazione dell’esistente da parte delle istituzioni, e l’affiliazione della politica al mondo che l’eroe randiano ha progettato per noi. È la Presidente del Consiglio ad essere arruolata tra i legittimatori della leadership naturale dell’hacker, nelle fila di coloro che percepiscono il bene comune come la soluzione tecnologica di problemi che, o permettono questo tipo di ricomposizione, o non esistono.

Come ha dichiarato Sam Altman alla fine di luglio 2024, anche la crisi delle disparità sociali ha una soluzione che deve essere gestita dalle aziende tecnologiche, con la distribuzione di un reddito base universale a tutti coloro che stanno per perdere il lavoro: a causa della rivoluzione imminente dell’Intelligenza Artificiale Generale, secondo il CEO di OpenAI, questa sarà la situazione in cui a breve verseremo quasi tutti. Sono quasi due decenni che con le piattaforme digitali, Facebook e Google in primis, l’intero mondo Occidentale si è trasformato in un enorme esperimento sociale a cielo aperto, controllato e mirato solo da chi possiede le chiavi del software (purtroppo, molto spesso, nemmeno troppo in modo consapevole).

Come al tavolo dell’Atlantic Council, Giorgia Meloni siede alla destra di Elon Musk, alla corte dei re della tecnologia politica.

 

 

BIBLIOGRAFIA

Ulrich Beck, Una società del rischio. Verso una seconda modernità, trad. it. a cura di W. Privitera, Carocci Editore, Roma, 2005.

Paresh Dave, Here’s What Happens When You Give People Free Money, «Wired», 22 luglio 2024.

Kevin Kelly, Quello che vuole la tecnologia, Codice Edizioni, Milano 2010.

Gianni Riotta, Carlo Bonini, Silicon Valley, in fondo a destra, «la Repubblica», 21 settembre 2024.


Abbandonati al nostro fianco - La lotta di infermiere e infermieri tra esaurimento e riconoscimento sociale

Mesi di agitazione e scioperi per i professionisti della sanità. I sindacati di infermiere e infermieri delle aziende pubbliche contestano la mancanza di accordi con lo stato e mentre scrivo è previsto per il 23 settembre uno sciopero dei lavoratori della sanità privata e delle RSA che coinvolgerà oltre 200.000 persone.

Lo scorso maggio a Cagliari un grosso sciopero di infermieri denunciava il carico di lavoro esagerato a fronte di una continua carenza di personale. Alla fine di agosto la protesta coinvolgeva i lavoratori delle province di Grosseto, Siena e Arezzo. Infermieri e infermiere, operatori socio-sanitari, amministrativi, ostetriche e tecnici sanitari hanno limitato la disponibilità alle richieste dell’azienda sanitaria

Le principali richieste: assumere per far fronte all’importante e perdurante carenza di personale. Aumentare i salari e le possibilità di carriera interne alla professione, garantire ferie e malattia. Implementare dispositivi per la sicurezza sul lavoro e tutela dalle malattie e dalla violenza dei pazienti.

LA DIMENSIONE DELL’ABBANDONO DEGLI INFERMIERI

Quanti ne manchino alla nostra sanità per funzionare è difficile da quantificare. Lo scorso febbraio il ministro della salute, Orazio Schillaci, dichiarava che la mancanza di personale si attesta sulle 10.000 persone. Ben più alto il dato fornito da Walter De Caro (presidente di CNAI – Consociazione Nazionale Associazioni Infermieri/e) a maggio in occasione della Giornata Internazionale dell’Infermiere. De Caro stima la necessità di un’integrazione di 100/200 mila professionisti. Cifra, quest'ultima, che varia a seconda degli indicatori di cui si tiene conto, ma in ogni caso lontana da quella del Ministero.

Lo stesso Ministero, in un report del 2023 relativo al periodo 2021-2022, osservava un lieve incremento generale del personale di salute pubblica, ma l’abbandono di oltre 15.000 tra infermieri e infermiere con contratto a tempo indeterminato. Difficile parlare di normale ricambio: il 18% di questi abbandoni avviene infatti nei primi due anni post-laurea. A questo si aggiunge il triste dato di un 20% che lascia del tutto il settore sanitario, pubblico o privato, rinunciando alla professione.

Certo, il governo ha cercato di colmare questi vuoti con timide iniziative come l’aumento dei posti nelle facoltà di Infermieristica. Al test d’ingresso 2024, tenutosi a inizio di settembre, i posti a concorso erano 20.435 (+3% rispetto al 2023) e le domande sono state 20.715 (-4,2%). Un rapporto tra domanda e posti che sfiora l’1 mentre in altre professioni sanitarie è ben più elevato (Fisioterapia 6,7; Osteopatia 4,8; Ostetricia 4,2) e che deve tenere conto di tutti coloro che non riusciranno a passare il test.

IL PROBLEMA PER GLI INFERMIERI È RIUSCIRE A SVOLGERE LA LORO PROFESSIONE

Leggendo uno studio pubblicato su Eurohealth nel 2023 il problema assume dimensioni internazionali (pur con le dovute differenze di trattamento e stipendio). A incidere sui numeri dell’abbandono sono, secondo i ricercatori,

1) gli effetti del periodo pandemico, il cui carico di lavoro in condizioni estreme ha comportato un grosso esodo di professionisti sanitari.

2) L’invecchiamento delle nostre società e il correlato aumento di malattie croniche aumenta la domanda di assistenza, a fronte di un’offerta limitata dai pochi professionisti formati.

3) Assenza di pianificazione per le sanità pubbliche.

4) Un mercato del lavoro non favorevole: stipendi bassi e soprattutto poche possibilità di carriera che non permettono adeguati aumenti di stipendio in rapporto a esperienza, formazione e anzianità.

Ora, quali sono le proposte di questi ricercatori? Una riflessione a partire dai dispositivi economici che l’Unione Europea può mettere in atto. Aumentare gli stipendi. Proteggere lavoratori e lavoratrici dai rischi di infezione così come dalla violenza nei luoghi di lavoro. Prendersi carico della loro salute mentale e del loro benessere dentro e fuori il luogo di lavoro (M. Wismar, T. Goffin, 2023).

Qui è il punto. Il lavoro è diventato sempre più duro e pericoloso. È richiesta continua preparazione clinica e all’uso di nuove tecnologie mentre il contesto lavorativo a malapena rende possibile compiere adeguatamente la professione. La carenza di personale comporta turni infiniti, congedi e malattie respinte, ferie interrotte (quando non “eliminate” dal contratto). E queste carenze ricadono poi sulla percezione che la società ha degli stessi infermieri, essendo loro il punto di contatto principale e quotidiano tra pazienti e istituzione ospedaliera.

CHI PUÒ ABBANDONA, CHI NON PUÒ TIENE DURO A CARO PREZZO

In un recente studio realizzato tra il 2022 e il 2023, il 45% di infermiere e infermieri si dichiaravano disposti a lasciare il lavoro entro un anno se ce ne fosse stata la possibilità. Nello stesso campione (3200 persone ca. da 38 presidi ospedalieri italiani), il 40% risultava soggetto a stress emotivo elevato, un quinto di loro erano a forte rischio di depressione maggiore (Bagnasco et al. 2023).

Nello stesso studio, una collaborazione tra Università di Genova e Fnopi, le cause dell’insoddisfazione venivano fatte risalire (tra le altre) a stipendio (78%) e mancanza di avanzamenti professionali (65 %). La quasi totalità dei partecipanti indicava nell’aumento di organico e nella maggiore autonomia la soluzione.

Crisi di vocazione, scarsa volontà di lavorare e attaccamento al denaro insomma. Atteggiamento che non stupisce soprattutto nei giovani. È così?

No. Il 70% delle persone interrogate nello studio UNIGE/FNOPI dichiarava di essere in numero insufficiente per prestare cure di qualità al paziente e il 45% denunciava la mancata applicazione di una filosofia della persona. A questo si aggiunge la generale sensazione di non essere ascoltati dalla governance aziendale.

Vengono così a mancare le cure essenziali allo svolgersi di una giornata ospedaliera (per noi, che veniamo allettati!). A esempio la mobilizzazione per evitare le piaghe da decubito o la nostra educazione come pazienti e le informazioni relative alle terapie in atto. Chi lavora si accorge di queste mancanze, ma fatica a prestare attenzione alla routine quotidiana dovendo vivere in una continua situazione di emergenza. Non si parla solo della pandemia, basta prendere uno studio del 2019 per farsi un’idea di quanta letteratura esista sul burnout nella professione infermieristica. Esaurimento che si presenta con una prevalenza del 30% fino al 60% e osservato già da un decennio almeno (si veda a es. A. Dordoni et al., 2019).

IDENTITÀ PROFESSIONALE, AMBIENTE SOCIALE E RUOLO IN SOCIETÀ

Il problema ha radici più profonde e una di queste affonda nel terreno sociale. Il ruolo sociale di infermiere e infermieri come professionisti sanitari fatica ancora oggi a venire riconosciuto. Un ruolo che certo a che fare con vocazione e motivazioni personali, ma che altrettanto è prodotto dalle interazioni con gli altri così come dai contesti sociali e lavorativi (Miao et al. 2024).

La categoria ha un profilo professionale dal 1994 e dal 1999 è riconosciuta, per legge, come professione sanitaria con relative responsabilità. Nonostante questo, è ancora difficile che a infermieri e infermiere venga riconosciuta l’importanza del loro servizio per la comunità.

Fa sorridere leggere in un articolo pubblicato su ANSA che un italiano su due riconosce l’importanza del ruolo sociale degli infermieri. Un italiano su due. L’altro italiano dei due ancora non vede un professionista con competenze e conoscenze cliniche. Anche dopo il covid, finita l’epoca di eroi ed eroine, sono tornati a essere suore caritatevoli e servi del dottore.

E cruciale è la percezione esterna. Esterna, ma portata all’interno del luogo di lavoro da ogni paziente e dalle scelte amministrative e politiche riguardanti i presidi ospedalieri. Una percezione negativa può portare a un conflitto tra i ruoli. Perché dovrei fare l’infermiere? Che cosa sto facendo qui? Perché sacrificare per questo i ruoli famigliari, amicali e altri possibili ruoli lavorativi riconosciuti? Il conflitto sfinisce, logora e mina le forze, già provate, con cui la persona affronta quel mondo di emergenza continua che è il lavoro in reparto.

Non possiamo dire a una persona di provare emozioni positive per evitare il rischio di esaurimento. Possiamo disporre, come società e come individui, un ambiente lavorativo salubre e dare a queste persone il giusto riconoscimento professionale. L’ambiente di lavoro è prodotto e produce l’attività quotidiana, ripetitiva, di cura. La ripetizione può essere quella della frustrazione, del fallimento, dei rapporti trascurati e degli errori clinici. Al contrario, l’ambiente sociale può permettere che a ripetersi siano la relazione col paziente, i corretti trattamenti, la crescita personale e professionale.

 

 

NOTE

A. Bagnasco et al. (2023) “Benessere professionale dell’infermiere e sicurezza delle cure in epoca pandemica” in L’Infermiere 60 (4): 164-177.

A. Dordoni et al. (2019) “Relazione tra burnout infermieristico, qualità dell’assistenza e errore clinico” in L’infermiere 4: 44-54.

C. Miao et al. (2024) “Nurses’ perspectives on professional self-concept and its influencing factors: A qualitative study” in BMC Nursing 23: 237.

M. Wismar, T. Goffin (2023) “Tackling the Health Workforce Crisis: Towards a European Health Workforce Strategy” in Euroealth 29 (3): 22-26.