La valutazione oggettiva non esiste - È sempre guidata da una teoria (soggettiva) sottostante…

Si sente spesso pronunciare l’espressione “valutazione oggettiva”. Essa viene commissionata e richiesta a studiose, consulenti e valutatrici. In realtà tale espressione è un ossimoro. Perché la valutazione è sempre soggettiva. Forse, il vero pericolo è che diventi soltanto arbitraria. Ma a questo ci sono rimedi.

Le esperte e studiose serie di valutazione (non le praticone) lo sanno bene. E da molto tempo, ormai.

Cito solo tre approcci di importanti autori e autrici, che fin dagli anni ’80 hanno tematizzato questo aspetto, in polemica con la valutazione di impianto positivista e sperimentale:

  • la valutazione realistica (Realistic Evaluation) di Ray Pawson e Nick Tilley
  • la valutazione guidata dalla teoria (Theory-Driven Evaluation) di Chen e Rossi
  • la valutazione basata sulla teoria (Theory Based Evaluation) di Carol Weiss

Il tratto comune a questi tre approcci è mostrare (e teorizzare) come la valutazione sia sempre guidata da una teoria sottostante, e quindi basata sia su assunti epistemologici ma anche di conoscenze di senso comune.

Vediamo un esempio illuminante che ci proviene dall’economia 

Il valore di una professione

La New economics foundation (Nef) è un istituto di ricerca, consulenza e idee innovative (think tank) composto da una cinquantina di economiste, famose per aver portato nell'agenda del G7 e G8 (a fine anni duemila) temi quali il debito internazionale.

Nel 2009 si proposero di condurre una ricerca sul valore delle professioni, che adottasse però una prospettiva diversa (da quelle tradizionali). Tale prospettiva aveva lo scopo di “collegare gli stipendi al contributo di benessere che un lavoro porta alla comunità".

Come spiegarono nella stessa introduzione della ricerca, "abbiamo scelto un nuovo approccio per valutare il reale valore del lavoro. Siamo andati oltre la considerazione di quanto una professione viene valutata economicamente e abbiamo verificato quanto chi la esercita contribuisce al benessere della società. I principi di valutazione ai quali ci siamo ispirati quantificano il valore sociale, ambientale ed economico del lavoro svolto dalle diverse figure".

--------

In altre parole, se si modificano i criteri teorici, culturali, ideologici (ma questa è una scelta, una decisione, un atto soggettivo), avremmo risultati di ricerca molto diversi.

Il Nef calcolò così il valore economico di sei diversi lavori, tre pagati molto bene e tre molto poco, introducendo nuovi criteri e abbandonando i vecchi (soggettivi anche loro, ovviamente).

Il risultato fu sorprendente e rovesciava le gerarchie tradizionali. 

Ad esempio, comparando un operatore ecologico e un fiscalista, il Nef concludeva che il primo contribuisce con il suo lavoro alla salute dell'ambiente grazie al riciclo delle immondizie, mentre il secondo danneggia la società perché studia in che modo far versare ai contribuenti meno tasse. Quindi il primo dovrebbe essere pagato molto di più e il secondo molto di meno (per usare un eufemismo).

Lo stesso vale, dicono al Nef, per i banchieri che prosciugano la società e causano danni all'economia globale.

In generale, esaminando “il contributo sociale del loro valore, abbiamo scoperto che i lavori pagati meno sono quelli più utili al benessere collettivo".

Conclusione che certamente approverebbero i due uomini in giallo, ma anche Wim Wenders, visto che con il suo ultimo film Perfect Days (2023) fa un biopic di un addetto alle pulizie dei bagni pubblici di Shibuya (uno dei 23 quartieri speciali di Tokyo), quasi un eroe dei nostri tempi.

Le economiste del Nef sono molto chiare: “il nostro studio vuole sottolineare un punto fondamentale e cioè che dovrebbe esserci una corrispondenza diretta tra quanto siamo pagati e il valore che il nostro lavoro genera per la società. Abbiamo trovato un modo per calcolarlo e questo strumento dovrebbe essere usato per determinare i compensi". 

Per cui, la valutazione è primariamente un problema teorico

Solo secondariamente diventa un problema tecnico. 

Proprio l’opposto di quello che molte scienziate ci dicono, e continueranno a (men)dire…

 

 

RIFERIMENTI BIBLIOGRAFICI

Chen H. T. (1990), Theory driven Evaluation, Thousand Oaks: Sage.

Chen H. T. e Rossi P. H. (1981), The multi-goal, theory-driven approach to evaluation. A model linking basic and applied social science, in “Social Forces”, 59, pp. 106-22.

Pawson R. e Tilley N. (1997), Realistic evaluation, London: Sage.

Weiss C. H. (1995), Nothing as Practical as Good Theory: Exploring Theory-Based Evaluation for Comprehensive Community Initiatives for Children and Families, in Connell J. P., Kubisch A. C., Schorr L. B. e Weiss C. H. (a cura di), New Approaches to Evaluating Community Initiatives. Vol. 1 Concepts, Methods, and Contexts, The Aspen Institute, Washington (DC), pp. 65-92.

Weiss C. H. (1997a), How can Theory-Based Evaluation make greater headway? in “Evaluation Review”, 4, pp. 501-524.

Weiss C. H. (1997ab), Theory-based evaluation: past, present, and future, in “New Directions for Evaluation”, 76, pp. 41-55, 

Weiss C. H. (1998), Evaluation. Methods for studying programs and policies, Upper Saddle River (NJ): Prentice Hall, 1998.


Avanti verso il nulla - Sul futurismo nichilista contemporaneo (prima parte)

La nave

ha anche un motore

e avendo un motore

non sa dove va ma continua a andare

(Giorgio Gaber, La nave, 1974)

Cosa diremmo di una persona che, magari a causa di un trauma o di un lutto, vivesse concentrata sul passato e rifiutasse di vivere il presente e fosse del tutto chiusa alla dimensione del futuro? Certo, che non sta bene. Non si può vivere decentemente così. E di una che, specularmente, fosse proiettata esclusivamente verso il futuro e le future realizzazioni, incapace di vivere nel presente, e di tenere in conto a maggior ragione delle esperienze del passato? Anche in questo caso, diremmo che soffrirebbe, che non sarebbe in grado di godere della vita, la quale in fondo è fatta di una serie di momenti presenti. Se fossimo in un contesto di psicologia individuale potremmo parlare nel primo caso di un disagio dovuto a una forma di malinconia, nel secondo a una forma di euforia maniacale.

Spostandoci sul terreno del carattere sociale,[1] abbiamo da una parte un orientamento “passatista”, fissato cioè a un passato ritenuto in quanto tale preferibile e incline, dunque, al misoneismo (al rifiuto cioè di ogni novità), tipico delle società preindustriali; dall’altro un orientamento futuro-centrico, “futurista”, altrettanto nevroticamente fissato all’esaltazione del dileguare di ogni cosa in favore di un “nuovo” in quanto tale certamente migliore. Quest’ultimo è propriamente il carattere dell’epoca che viviamo in particolare nelle società più avanzate, segnate dal predominio dispotico di un potere che è insieme tecnico e capitalistico. Il dogma di oggi dice che «il futuro è il posto migliore»;[2] ed è di tale dogma, non meno contestabile per il fatto di essere… moderno, che si parlerà in questo articolo.

Il documento da cui propongo di prendere le mosse è la fulminante dichiarazione dell’ingegnere informatico Yann LeCun, capo del team di Meta (il nuovo nome di Facebook) che si occupa di intelligenza artificiale, nel corso di un’intervista rilasciata a un quotidiano italiano: «Mi affascina il futuro. Del presente mi interessa capire solo gli sbagli e come superarli».[3] Una frase che può essere considerata un “concentrato” di un più generale modo di rapportarsi alla temporalità che la società attuale suggerisce e impone ogni giorno nel suo «monologo elogiativo» permanente.[4] Il dirigente di Meta, che risponde in questo modo alle caute preoccupazioni espresse dall’intervistatore sulle prospettive dell’IA, com’è chiaro, non dichiara solo di essere affascinato dal futuro, ma di trascurare e disprezzare il presente (del passato naturalmente neppure parla), in quanto – sembra di capire – unicamente luogo di passaggio verso l’unica meta interessante, appunto il futuro. Ma c’è un problema: quella meta, una volta divenuta presente (ogni futuro di oggi è il presente di domani), ricadrà nello stesso disinteresse, in favore del futuro di domani. E in verità una meta non c’è neppure: c’è solo quella che potremmo chiamare una fuga senza fine verso il nulla, o «furia del dileguare» – per usare una espressione hegeliana[5] – per la quale ogni momento presente non vale che in quanto preparazione di un momento futuro, che sarà ovviamente migliore, e così via all’infinito.

Ha osservato il filosofo tedesco-coreano Byung-Chul Han, in un bel libro dedicato alla Scomparsa dei riti, che «oggi al tempo manca una struttura stabile. Non è una casa, bensì un flusso incostante: si riduce a una mera sequenza di presente episodico, precipita in avanti». (La scomparsa dei riti. Una topologia del presente, Milano, Nottetempo, 2021, p. 13).

Si procede, dunque, sempre “avanti” e sempre più rapidamente, in un fenomeno di accelerazione sociale che è oggetto di crescente attenzione da parte delle scienze sociali.[6] In questo illimitato e davvero scriteriato procedere, nessun valore, nessun obiettivo, nessuna condizione desiderabili debbono essere posti, perseguiti, mantenuti; l’unica cosa che conta e che deve esistere, l’unico punto di riferimento per il nostro agire, è il costante flusso delle merci, ma anche delle esperienze, delle tecniche, delle forme di vita:[7] una condizione, dunque, realmente nichilista.

È una dinamica che era stata a suo tempo già individuata da Marx, che pure non si era soffermato sugli esiti nichilistici qui indicati, quando aveva rilevato che «il movimento del capitale è senza misura» (Marx K., Il capitale, libro I, a cura di Delio Cantimori, Roma, Editori Riuniti, 1974, p. 185).

-------------

In questa modalità di rapporto con il tempo, che nasce nel quadro della modernità capitalistica e della sua complessiva rimodulazione dell’esperienza e della vita sociale, accade – secondo quanto sottolineato trent’anni fa da Giacomo Marramao – che «la prospettiva tende progressivamente a fagocitare l’esperienza» (Giacomo Marramao, Minima temporalia. Tempo spazio esperienza, Milano, Il Saggiatore, 1990, p. 108), potendosi parlare di vera e propria «propensione nichilista» (cit. p. 104) della modernità. Mi pare tuttavia evidente che è l’ultima fase della modernità, quella apertasi negli ultimi decenni, a rendere egemone e “totalitaria” tale propensione. E l’accelerazione dell’innovazione tecnologica in molti ambiti, in quello informatico in particolare, ha avuto in questo un ruolo determinante.

Ha osservato a questo proposito Gabriele Balbi, in un notevole recente pamphlet sulla ideologia digitale, che «il tempo storico ideale per la rivoluzione digitale è proprio il futuro, anche perché nel presente viene sempre raccontata come incompleta, come un processo in continua evoluzione, come una trasformazione che non ha né può avere una fine predefinita» (Balbi G., L’ultima ideologia. Breve storia della rivoluzione digitale, Roma-Bari, Laterza, 2022, p. 64-65). Non sorprende, allora, che un recentissimo saggio sulle prospettive dell’applicazione dell’intelligenza artificiale si dichiari in copertina – programmaticamente – una Apologia del futuro (De Biase L, Apologia del futuro. Quello che il domani può fare per noi, Roma, LUISS University Press, 2024).

Il tempo dell’era digitale, in effetti, è proprio un tempo della precarietà e dell’incompletezza, foriero inevitabilmente di ansia e di senso di inadeguatezza, forse proprio di quella «vergogna prometeica» indicata da Günther Anders come il portato principale e perturbante della nostra epoca di dominio della tecnica industriale (fa parte di essa non solo il sentirsi inferiori in potenza alle macchine, ma anche, insieme, il sentirsi troppo lenti rispetto alle velocità macchiniche).[8]

Non mancano del resto alcuni sintomi addirittura clamorosi di tale deriva, se pensiamo per esempio a certi esiti obiettivamente antiumanistici propri di quelle visioni della rivoluzione digitale che si dichiarano post- o transumaniste. Così per esempio Hans Moravec, uno dei profeti del transumanismo, poteva affermare già vent’anni fa, in relazione agli imminenti sviluppi delle nanotecnologie e dell’intelligenza artificiale, con un misto di fatalismo e di entusiasmo: «l’uomo biologico si troverebbe naturalmente spinto fuori dall’esistenza, poiché una specie sopravvive raramente a uno spazio ostile che presenta un grado di evoluzione superiore» (cit. in Paul Virilio, Ce qui arrive, Paris, Éditions Galilée, 2002, tr.it. Milano, Cortina, 2002, p. 19-20).

Al venir meno di ogni valore, di ogni capacità di identificare dei fini razionali nello sviluppo sociale, si accompagna come si vede, in non pochi casi, il rifiuto della umanità stessa. O meglio quella che – se si pensa a certo dibattito oggi molto in voga sull’IA – si potrebbe definire una voglia matta di dimissioni dall’umano.

-------------

In ogni caso, quel che qui mette conto sottolineare è che nella visione attuale dovremmo affidarci con sicurezza all’impersonale flusso delle cose, alle asserite leggi dello sviluppo tecno-scientifico, sicuri che esse siano apportatrici di beneficio generale. Una visione del mondo e della storia non solo falsa, dal momento che postula una natura neutrale e deterministica dello sviluppo tecnologico (come se esso non fosse attraversato dalla storia, dal conflitto degli interessi, dalle dinamiche economiche, da influssi culturali ecc.), ma chiaramente finalizzata a radicare nelle coscienze dei contemporanei un senso di stupido ottimismo e di cieca fiducia verso l’organizzazione sociale presente. Una pedagogia dell’apatia e della passività, in definitiva.

L’adesione a questo “regime di temporalità” implica infatti l’adesione al modello economico e sociale dominante, a quello che un sociologo italiano, Mauro Magatti, ha definito «capitalismo tecno-nichilista», ovvero un modello in cui la razionalità strumentale e l’imperativo del profitto hanno riassorbito senza residui ogni altro criterio.[9] Tale modello, che si forma a partire dall’ultimo quarto del Novecento, prima negli Stati Uniti poi in Europa, non ha più molto a che fare con il vecchio capitalismo “weberiano” (lavoro, disciplina, impegno, attaccamento alla proprietà…), ma è piuttosto un capitalismo del desiderio e della seduzione, nonché della liberazione attraverso la tecnica. Un capitalismo che promette all’individuo una generalizzata libertà (di natura peraltro fantastica e delirante) un po’ da tutto: dal lavoro faticoso, dalla politica, dalle relazioni sociali e sentimentali, ora perfino – nelle tecno-utopie postumaniste, come si vedeva poc’anzi – dalla materia e dalla biologia stesse. Ma navigando in questo insieme di… “liberazioni” da ogni radicamento, è l’umano stesso che abdica a se stesso, l’individuo stesso, apparentemente celebrato, che finisce per precipitare appunto nel nulla.

Sulla dimensione realmente nichilistica del capitalismo contemporaneo (cioè dove per nichilismo non si intende una ideologia o una dottrina, ma appunto una configurazione socio-culturale reale) è intervenuto nei suoi ultimi anni il filosofo Aldo Masullo (1923-2020):

«la condizione del nostro odierno esistere esige non tanto una discussione sull’essenza del nichilismo, quanto un’esplorazione di effettivi stati di nichilismo. (…) Uno dei sintomi è la profonda trasformazione dei nostri rapporti con il tempo. Oggi la velocizzazione dei cambiamenti (travolgente esito tecnologico), l’accelerazione del quotidiano, l’immediatezza del repentino, insomma il dissolversi della durata nel delirio di eventi puntiformi, esaltano l’istantaneo senza ragione e il vuoto del presente».[10]

Particolarmente radicato in ambito scientifico-tecnologico,[11] questo approccio alla temporalità dilaga in realtà in ogni campo della vita odierna (sempre più permeato del resto dalla macchina tecno-scientifica e dalle sue “esigenze”), spingendoci tutti in una dimensione di accelerazione permanente i cui effetti in termini di disagio crescente sono ormai oggetto di un’ampia letteratura sociologica, psicoanalitica, antropologica ecc.,[12] oltre ad essere stati denunciati nella celebre enciclica Laudato si’ di Papa Francesco con parole molto lucide.[13]

-------------

In un piccolo saggio dedicato al concetto di Futuro, Marc Augé ha rimarcato il nesso che nella percezione attuale del futuro ricopre la dimensione (tipica di società industriali avanzate e consumistiche) della “innovazione”: quest’ultima – sosteneva l’antropologo francese scomparso nel 2023 – costituisce un vero e proprio «fatto sociale totale», secondo la celebre definizione di Marcel Mauss, poiché «riguarda simultaneamente tutti gli aspetti della società e fa appello a tutti i suoi attori» (Augé M., Futuro, Torino, Bollati Boringhieri, 2012, p. 81).[14] È insomma un futuro-come-innovazione quello che risulta oggi socialmente egemone, un futuro come costante susseguirsi di novità (proprio come l’industria capitalistica deve perennemente presentare nuove merci, vere o presunte non importa), un futuro meramente quantitativo. Un futuro che – dicono molti osservatori – finisce per farsi fagocitare da se stesso, e dunque un futuro che, paradossalmente, si auto sopprime in favore di un eterno presente (così François Hartog, su cui si tornerà, che parla infatti di «presentismo» per indicare l’attuale «regime di storicità»)[15].

È chiaro che stiamo parlando di quale idea di progresso sia oggi dominante; ovvero di come questa idea, così intimamente legata a tutta la vicenda della modernità occidentale, si configuri nella società industriale avanzata di oggi (o forse dovremmo dire, per essere à la page, società digitale). Se questa furia “futuristica” di cui abbiamo parlato appare oggi così dominante e in sostanza accettata è anche perché il mito del progresso è uno di quelli cui, nel disincantamento generalizzato, ancora crediamo (paradossi del postmodernismo? Forse…). Ma, giunto a questo punto, per non abusare della pazienza del lettore, rimando alla seconda parte di questo articolo. Stay tuned.

 

 

NOTE

[1]  Uso qui il concetto di “carattere sociale” come inteso tra gli altri da Erich Fromm, per esempio, in Beyond the chains of illusion. My encounter with Marx and Freud (1962), tr.it. Marx e Freud, Milano, il Saggiatore, 1968, p. 75-92. Vedi anche la voce Carattere sociale, in Luciano Gallino, Dizionario di sociologia, Torino, Utet, 2014 (1.ed. 1978), p. 94-96.

[2] Così, dovendo proporre una serie di scritti e discorsi di Barack Obama al termine del suo secondo mandato presidenziale, una grande casa editrice italiana decide di intitolare il volume che li raccoglie: Barack Obama, Il futuro è il posto migliore. Il 44. Presidente degli Stati Uniti in parole sue, prefazione di Walter Veltroni, Milano, Rizzoli ETAS, 2017.

[3] La dichiarazione del manager di Meta si trova in: Pierluigi Pisa, Arriva la nuova IA di Meta. “Imparerà da sola, penserà e proverà emozioni umane”, “la Repubblica”, 14 giugno 2023, p. 32-33.

[4] L’espressione si deve a Guy Debord, nella Società dello spettacolo (1967): «Lo spettacolo è il discorso ininterrotto che l’ordine presente tiene su se stesso, il suo monologo elogiativo» (Guy Debord, La società dello spettacolo, in Id., La società dello spettacolo. Commentari sulla società dello spettacolo, introduzione di Carlo Freccero e Daniela Strumia, Milano, Baldini & Castoldi, 2019, p. 71-72).

[5] Il concetto di «furia del dileguare» [die Furie des Verschwindens], coniato da Hegel nella Fenomenologia dello spirito (Cfr. G.W.F. Hegel, Fenomenologia dello spirito, vol. II, trad. di Enrico De Negri, Firenze, La Nuova Italia, 1963, p. 129) con riferimento agli esiti utopistico-estremistici della Rivoluzione francese (dove alla «libertà assoluta» non resta che «l’operare negativo» che non s’acquieta mai, producendo catastrofi politiche), viene qui adottato per indicare la pulsione intima dell’Occidente capitalistico, che lo spinge (ci spinge) ad operare solo in senso negativo e dissolvente, senza alcun costrutto sensato ed equilibrato.

[6] Mi limito qui a citare Hartmut Rosa, Accelerazione e alienazione. Per una teoria critica del tempo nella tarda modernità, Torino, Einaudi, 2015.

[7] Osservava David Harvey, in un saggio ormai di riferimento su questi temi, The condition of postmodernity (1990): «La dinamica di una società “usa e getta”, come l’hanno definita scrittori come Alvin Toffler, cominciò a diventare evidente durante gli anni Sessanta. Significava qualcosa di più del semplice buttar via una cera quantità di prodotti (…); significava buttar via valori, stili di vita, relazioni stabili, e l’attaccamento alle cose, agli edifici, ai luoghi, alle persone, ai modi ereditati di fare ed essere» (David Harvey, La crisi della modernità, Milano, il Saggiatore, 1993, p. 349).

[8] Cfr. Günther Anders, L’uomo è antiquato.1. Considerazioni sull’anima nell’epoca della seconda rivoluzione industriale, Torino, Bollati Boringhieri, 2003, p. 37-120.

[9] Cfr. Magatti M., Libertà immaginaria. Le illusioni del capitalismo tecno-nichilista, Milano, Feltrinelli, 2009.

[10] Nell’intervista il grande filosofo italiano riassumeva le tesi del suo Stati di nichilismo, Roma-Napoli, Paparo, 2016.

Ricordiamo che, nella filosofia italiana contemporanea, sostenitori della tesi del nichilismo come condizione storico-sociale del modo di produzione capitalistico sono stati Costanzo Preve, in particolare in Il convitato di pietra. Saggio su marxismo e nichilismo (Milano, Vangelista, 1991), e Massimo Bontempelli, La conoscenza del bene e del male, Pistoia, CRT, 1998.

[11] Giampietro Gobo ha sottolineato di recente su questo blog come l’accelerazione sociale dominante sia dannosa per la stessa attività scientifica: cfr. Giampietro Gobo, Quando la pazienza è più produttiva della fretta. Sull’esistenza di un nuovo pianeta, “Controversie”, 07/05/2024,

[12] Cfr. Hartmut Rosa, Accelerazione e alienazione, cit.

[13] «La continua accelerazione dei cambiamenti dell’umanità e del pianeta si unisce oggi all’intensificazione dei ritmi di vita e di lavoro, in quella che in spagnolo alcuni chiamano “rapidación”  (rapidizzazione). Benché il cambiamento faccia parte della dinamica dei sistemi complessi, la velocità che le azioni umane gli impongono oggi contrasta con la naturale lentezza dell’evoluzione biologica» (Papa Francesco, Laudato si’. Lettera enciclica sulla cura della casa comune, commenti di Bruno Bignami, Luis Infanti de la Mora, Vittorio Prodi, Bologna, Edizioni Dehoniane, 2015, p. 19).

[14] Nelle società attuali – osserva ancora Augé – «potremmo dire che ormai siamo capaci di definire il nostro rapporto con lo spazio e il tempo, cioè con l’elemento essenziale dell’attività simbolica che definisce l’essenza dell’uomo e dell’umanità, solo attraverso artefatti messi a punto dall’industria e fatti circolare su mercato» (ivi, p. 78).

[15] Cfr. François Hartog, Regimi di storicità. Presentismo e esperienze del tempo, Palermo, Sellerio, 2007.


Perché l’astensionismo… “fa bene” ai partiti, specie a quelli più grandi

Nei giorni scorsi si sono sentiti accorati appelli bipartisan ad andare a votare.

E diversi quotidiani hanno presentato con preoccupazione il fenomeno (crescente) dell’astensionismo, il quale (secondo loro) “agitava i partiti”, “incombeva sul voto”, sul quale “pendeva la mannaia dell’astensione”.

Insomma, sembravano tutti allarmati per l’astensionismo.

In realtà l’astensionismo giova ai partiti, soprattutto a quelli più grandi. Infatti, meno persone vanno a votare e più essi si rafforzano.

Sembra un’affermazione assurda, un’enormità; invece (dati alla mano) è perfettamente plausibile.

Già il sociologo Niklas Luhmann, più di quarant’anni fa (Soziale Systeme, Frankfurt am Main, Suhrkamp, 1984. Trad. it. Sistemi sociali. Fondamenti di una teoria generale, Bologna, Il Mulino, 1990), sosteneva che il consenso era strutturalmente una risorsa scarsa nelle democrazie occidentali. Per cui non valeva la pena di dannarsi tanto nell’ottenerlo, perché scarso comunque sarebbe restato. In altre parole, si può benissimo governare… con poco consenso.

Passiamo ora ai dati.

Diverse leader di partito, nelle scorse ore, hanno esultato per essere aumentate di qualche punto percentuale. Ad esempio il PD nelle elezioni europee precedenti (2019) aveva ottenuto il 22,74%; ora, invece, il 24,08%: un punto in mezzo in più. Che diventano ben 5 rispetto alle ultime elezioni politiche (19,04%).

Ma se andiamo a vedere i valori assoluti (avvertenza che si impara alla prima lezione di un qualsiasi corso di statistica), scopriamo che i voti per i partiti più grandi sono calati, e anche di molto. In altre parole, i voti calano ma le percentuali aumentano. E i politici (e i giornalisti) guardano solo le seconde, dimenticando (furbizia? malafede? ignoranza?) i primi.

Non ci credete? Date un’occhiata alla tabella:

(Fonti dati: Elezioni Europee 2019, Elezioni Europee 2024, Elezioni  Politiche 2022)

Così può capitare che FdI perda quasi mezzo milione di voti rispetto alle Politiche di due anni fa, ma salga miracolosamente del quasi 3%. Che il PD prenda soltanto 250mila voti in più rispetto alle Politiche ma faccia un balzo del 5%; e che ne perda quasi mezzo milione rispetto alle scorse europee ma salga di 1 punto e mezzo. Che la Lega e Forza Italia perdano rispettivamente 340mila e 291mila voti rispetto alle Politiche, ma salgano di qualche decimo.

Invece questo non succede con i partiti minori (vedasi +Europa), che quando perdono voti, perdono anche decimi percentuali.

Facciamo un ragionamento per assurdo: se alle prossime elezioni vanno a votare solo 10 persone su 1000 aventi diritto, e queste danno 3 voti a FdI, 3 al PD, 2 al M5S, 1 alla Lega e 1 Forza Italia, questi partiti prenderanno rispettivamente il 30%, 30%, 20%, 10% e 10%, pur avendo perso tutto l’elettorato e con un’astensione pari al 99%.

Perché, diversamente dai sondaggi, dove i ‘non so’ si espungono (giustamente) dalle percentuali finali — non si può attribuire un’opinione a chi dice di non averla — nelle elezioni questo non avviene: il voto viene attribuito anche a chi non vota [1].

E questo viene fatto presupponendo una distribuzione (partiticamente) omogenea delle astenute. Ma così assolutamente non è: coloro che non vanno a votare sono tendenzialmente le persone più critiche nei confronti del sistema politico (e non solo le “indifferenti” o qualunquiste, che potrebbero essere equamente distribuite).

Quindi non è vero che 1 vale 1. Al contrario: l’1 del votante (con alti tassi di astensionismo) vale molto di più. Con il 50% di astensionismo, vale 2. E con un ipotetico 99% di astensionismo vale quasi 100!

In questo modo le elezioni sono (matematicamente) delle ponderazioni, degli artifizi, delle manipolazioni aritmetiche.

Per cui 10 votanti (l’1%) contano come il 100% e si distribuiscono i 76 seggi europarlamentari. In questo caso (assurdo), gli eletti sarebbero più dei votanti… cioè qualche eletto non sarebbe andato a votare…

Allora è chiaro perché i partiti più grandi (quelli sopra il 10%) non hanno interesse a combattere seriamente l’astensionismo. Perché se anche porta a loro meno voti, alza però le loro percentuali. E sono queste (malauguratamente) quelle che contano.

Per cui colei/colui che non va a votare, fa (indirettamente) il gioco dei partiti più grandi.
Perché il suo non-voto se lo prendono lo stesso…

 

 

NOTE

[1] Nei sondaggi l’astensionista corrisponde alla nonrespondent, persona che non ha voluto partecipare al sondaggio. In questi casi la sondaggista interviene in due modi: 1) con una “riserva”, cioè sostituendo la nonrispondente con un'altra (socio-demograficamente) simile a lei; oppure, 2) con una “ponderazione”, cioè attribuendo (mediante un coefficiente) fittiziamente l’opinione media di quelle che hanno risposto (nel senso di aver partecipato al sondaggio) a coloro che non l’hanno fatto. Ma entrambe queste operazioni hanno dei limiti e, soprattutto, la ponderazione è sconsigliata quando il fenomeno nonresponse supera il 50% (come nel caso di queste ultime elezioni europee). Per un approfondimento: Gobo, G. (2015), La nuova survey. Sondaggio discorsivo e approccio interazionale, Roma, Carocci, pp. 201-202.


Scienze sociali in scena: un rapporto fecondo tra sociologie e teatro

«Il teatro è così infinitamente affascinante perché è così casuale. È come la vita…»
(Arthur Miller)

 

Teatro, persona, maschere, ruoli e palcoscenico… Sono da sempre interconnessi. Non è un caso se nel linguaggio comune vi siano molti riferimenti al teatro: «il ruolo di genitore», «le persone hanno molte maschere», «è calato il sipario», e così via.

Anche nelle scienze sociali vi sono molti riferimenti a questa realtà: dal concetto stesso di rappresentazioni sociali, all’approccio drammaturgico dello scienziato sociale Erving Goffman (1945, The Presentation of Self in Everyday Life) che analizza le istituzioni sociali, quelle della vita quotidiana e quelle professionali, come vere e proprie rappresentazioni teatrali, in cui gli individui sono considerati come degli attori e che, a seguito di un periodo variabile e differente di preparazione in un contesto sociale definito retroscena, interpretano pubblicamente dei ruoli, in un altro spazio pubblico, ovvero la ribalta. Anche in un’altra disciplina di grande interesse, si ha un forte richiamo al teatro, ossia l’antropologia teatrale che analizza le interazioni degli individui e/o delle collettività all’interno di una forma di drammatizzazione organizzata. Quindi diventano interessanti i rapporti dell’attore teatrale/sociale con i gesti e le parole portati in scena. Uno degli studiosi più importanti di questa sub-disciplina, Eugenio Barba (1993, La canoa di carta) la definisce come «lo studio del comportamento scenico pre-espressivo che sta alla base dei differenti generi, stili, ruoli e delle tradizioni personali o collettive».

A partire da queste premesse (intrecciate sia con il mio bagaglio culturale e di ricerca, che a sua volta interseca antropologia, criminologia e sociologia, che con la mia passione per l’arte, il teatro e il cinema) è nato il progetto di divulgazione scientifica in chiave teatrale, Scienze sociali in scena. 

Gli obiettivi del progetto

Il progetto, dunque, ha diversi obiettivi: innanzitutto quello di trasmettere gli elementi caratterizzanti le scienze sociali di cui mi occupo attraverso il teatro, inteso come uno dei migliori strumenti per acquisire conoscenza; al tempo stesso affrontare i problemi della società contemporanea; ma soprattutto accomunare l’esperienza della ricerca scientifica e il mondo delle arti sceniche attraverso uno scambio reciproco di saperi e di sostegno per la divulgazione scientifica con una impostazione e un linguaggio alla portata di tutti.

Il logo

L’identità di una qualsiasi entità, per affermarsi, necessita innanzitutto di simboli. Proprio per queste ragioni il logo ingloba le tante “dualità” che sottendono questo progetto. Innanzitutto, i colori: il bianco e il nero, come richiamo sia alle zone di luce ed ombra dell’agire umano, ma anche correlati alla contrapposizione tra il retroscena e la ribalta, ma più in generale si riferiscono alle varie forme di ambivalenza che accompagnano l’uomo. I simboli: sulla sinistra sono presenti le classiche maschere che rappresentano il teatro, ma hanno anche un altro significato, ovvero quello proposto da Jung che «prende in prestito il termine dal latino Persōna Persōnam, ovvero la maschera che gli attori solevano indossare durante le rappresentazioni sceniche. La Persona era solo un riflesso dell’immagine del personaggio interpretato dall’attore, ne riprendeva i lineamenti, lo caratterizzava, lo inseriva in un ruolo».  A destra, invece, ritroviamo un network, e quindi una simbologia che richiama l’attitudine umana di entrare in relazione con i suoi simili. 

La strutturazione di Scienze sociali in scena

Il progetto ha una strutturazione particolare. Innanzitutto, si apre con dei video con sottofondo musicale, da me realizzati, perché ho anche l’hobby, seppur del tutto amatoriale, del video editing. Questa fase ha un duplice compito: sia di creare un’atmosfera densa e volta ad attirare l’attenzione, ma al tempo stesso, essere una vera e propria scenografia visuale. Dopodiché inizia la fase teatrale propriamente detta, in cui vengono interpretati passaggi delle mie ricerche, ma anche eventuali personaggi analizzati. Si tratta di un momento essenziale, perché ha il compito di portare lo spettatore “all’interno” della tematica trattata. 

Il passo successivo consiste nella fase intervista al personaggio, il cui scopo consiste nel mostrare come si conduce un’intervista dal punto di vista delle scienze sociali, per far comprendere come sia complicato rimanere, per esempio, avalutativi rispetto a determinate tematiche; ma, al tempo stesso, è utile per dare il via all’ultima fase ossia quella dell’analisi di tutto ciò che è stato portato in scena, con un linguaggio semplice ed accessibile, in modo tale da trasmettere forme di conoscenza utili non solo ai fini dell’evento, ma anche nella vita quotidiana.

Curiosità

Scienze sociali in scena interseca le scienze sociali non solo con la recitazione, ma anche con l’arte. Infatti, un elemento centrale di questo progetto sono sia la realizzazione di fotografie, che la presenza di installazioni artistiche in scena, in linea con la tematica trattata. 

Il progetto [1] è totalmente autonomo e autofinanziato, perché i realizzatori credono che soltanto nell’autonomia si possa erogare un prodotto di ricerca libero da qualsiasi forma di influenza politica, economica, o di altra natura. 

In questo modo, è possibile che si rafforzi la figura del divulgatore teatrale: ossia uno scienziato sociale in grado di trasmettere il proprio sapere, la propria esperienza sul campo, i propri prodotti scientifici nel contesto teatrale. 

Speriamo che questo progetto possa avere una crescente attenzione e impatto in diversi contesti ed ambiti, ricordando sempre che nel grande teatro della vita, cerchiamo sempre le sedie dello stupore, dell'innovazione, della diversità e perché no anche del sano dissidio... Si tratta di sedute quasi sempre libere... Quelle dell'ovvio, invece, sono già tutte occupate.

 

 

NOTE

[1] A questa avventura partecipano: Anna Rotundo (per la fotografia, le installazioni artistiche e, in collaborazione con me, l’adattamento delle mie ricerche in chiave teatrale); Maria Novella Madia (attrice); lo staff tecnico (Rita Rotundo e Arturo Obizzo), l’autore di questo post.
Il progetto è stato inaugurato a Catanzaro, con l’adattamento teatrale del Cannibalismo questioni di genere e serialità, e ha ottenuto un numero elevatissimo di presenze!
Per approfondimenti, si può fare riferimento alle pagine Facebook e Instagram.
Sono già in fase di programmazione altri eventi sotto l’effige di Scienze sociali in scena.


Perché il progetto di un’Unione Europea è fallito - Un'analisi socio-linguistica

Tra qualche giorno, metà di noi si appresterà ad andare a votare per il rinnovo del Parlamento Europeo.
Metà perché, nella tornata precedente, non andò a votare il 49% degli aventi diritto, con rilevanti differenze tra i singoli Stati che compongono l’Unione Europea: la palma d’oro (si fa per dire) dell’astensionismo andò alla Slovacchia (75%); l’Italia si collocò poco sotto la media europea (45%); il più “virtuoso” il Belgio (11%). E per questa tornata i sondaggi danno l’astensionismo in aumento.

Le politologhe, nel corso degli anni, hanno indicato diverse cause. Prima fra tutte, la “crisi della rappresentanza”. Per cui l’astensionismo alle elezioni europee è in linea con una tendenza più generale, che tocca anche gli Stati nazionali, le elezioni regionali e locali.

Ma c’è anche un’altra ragione. Più profonda. E l’averla trascurata sin dall’inizio ha decretato il fallimento dell’intero progetto dell’Unione Europea. Tracollo che nessun curatore fallimentare ha ancora certificato, ma che (a me) pare evidente nelle pratiche dei singoli Stati e dei partiti presenti in essi.

Non sono un politologo o un sociologo politico. Per cui le mie riflessioni non nascono da quelle competenze (che non ho) ma da un’analisi socio-linguistica (approccio che insegno nei miei corsi).

Le grandi potenze

L’Unione Europea aspira ad essere una grande potenza, al pari degli USA, Cina, Russia. Altre nuove (potenziali) grandi potenze si stanno affacciando: Brasile, India, e forse Mondo Arabo.
Cos’hanno in comune queste grandi potenze che l’Unione Europea non ha? Una lingua comune.
In questi Paesi, le persone possono (potenzialmente) intendersi perché (quasi) tutte parlano l’inglese, il cinese, il russo, il portoghese, l’hindi e l’arabo moderno standard (che non è mai madrelingua di nessuna arabofona, ma il suo apprendimento avviene seriamente nella scuola). In India, paese con una grandissima diversità culturale, pur avendo ventuno lingue a livello dei singoli stati federati, ha sempre la possibilità di usare l’hindi oppure l’inglese (come lingua ufficiale sussidiaria).
Senza una lingua comune non può esistere a lungo uno Stato o una Confederazione. Si dissolverà a breve.
Ci sono ovviamente delle (piccole) eccezioni: la Svizzera non ha una lingua comune; tuttavia, quando due svizzere si incontrano parlano in francese oppure in tedesco (lingue che hanno imparato seriamente a scuola).

Una lingua comune

Nella (breve) storia dell’Unione Europea non ci sono mai stati tentativi seri di dotare questa federazione di una lingua comune. I tentativi seri sono andati in altre direzioni: legislative (leggi comuni), economiche (mercato comune), politiche (parlamento europeo). Per cui si è ritenuto (in modo miope) più importante costruire una moneta comune (l’euro) piuttosto che una lingua comune. Decisioni guidate da un pensiero solo razionale, che si scontra con le caratteristiche delle culture.
A suo tempo, le decisore politiche avevano davanti a sé almeno due strade per costruire una lingua comune: puntare su una lingua pianificata (l’esperanto) oppure adottare una lingua commerciale (l’inglese).

La prima, sviluppata tra il 1872 e il 1887 dal medico e linguista polacco Ludwik Lejzer Zamenhof, aveva “lo scopo di far dialogare i diversi popoli cercando di creare tra di essi comprensione e pace con una seconda lingua semplice, ma espressiva, appartenente all'umanità e non a un popolo. Un effetto di ciò sarebbe stato quello di proteggere gli idiomi "minori", altrimenti condannati all'estinzione dalla forza delle lingue delle nazioni più forti. Per questo motivo l'esperanto è stato ed è spesso protagonista di dibattiti riguardanti la democrazia linguistica (…) Dopo rapida espansione del movimento esperantista in molti Paesi, esso subì vari duri colpi nel corso della Prima guerra mondiale, ma soprattutto nella Seconda guerra mondiale a causa di Hitler, che riteneva l'esperanto la lingua degli ebrei (Zamenhof era ebreo), ma anche nella Russia di Stalin (e più recentemente, nell'Iraq di Saddam Hussein). Nel secondo dopoguerra (eccetto dove gli esperantisti erano ancora perseguitati) il movimento riprese vigore, ma subendo la forza a livello internazionale del francese prima e soprattutto dell'inglese poi, data la forza e l'influenza degli Stati Uniti d'America sulla scena internazionale”.
Oggi l’esperanto, nonostante i tanti proclami e risoluzioni dell’UNESCO, non sembra aver nessuna possibilità.

A questo punto, potrebbe essere l’inglese ad assumere il ruolo di lingua unificante.
Tuttavia, nell’Unione Europea solo il 10-20% parla l’inglese in modo fluente (requisito necessario per intendersi reciprocamente) e per lo più sono persone altamente scolarizzate.
Se l’Unione Europea facesse ora un investimento serio scolasticamente, forse tra 50 anni avremmo una federazione con una lingua comune, come le grandi potenze. Ma a parte il fatto che, con la velocità dei cambiamenti attuali, è inimmaginabile un tempo di attesa così lungo, ci sono molte forze che remano contro questo progetto (che comunque sarebbe discutibile, dal sapore neo-coloniale): le popolazioni degli Stati membri (in primis francesi e italiane) non sono così innamorate di questa lingua, anzi sono abbastanza restie ad impararla; inoltre, lo stato membro (UK) in cui l’inglese è madrelingua ha da poco… abbandonato l’Unione. Una beffa.

Le conseguenza dell'assenza di una lingua comune

La mancanza di una lingua comune, la base principale su cui intavolare una discussione, uno scambio di idee, una comprensione reciproca, rinforza le identità nazionali. E, a cascata, produce tante conseguenze nefaste. Che sono un po’ sotto l’occhio di tutte:

  • 3 parlamenti (Bruxelles, Strasburgo e Lussemburgo) al posto di 1 solo;
  • la possibilità di veto da parte di uno stato membro (e come se la Florida avesse potere di veto alle decisioni internazionali degli US);
  • nessuna politica estera comune su conflitti come (ad esempio) Libia, Bielorussia, Grecia-Turchia, Israele-Palestina; ad eccezione (chissà per quanto?) dell’Ucraina-Russia). In quei conflitti gli Stati membri appoggiano contendenti diversi, a tal punto che pochi giorni fa Spagna e Irlanda hanno riconosciuto lo Stato della Palestina (l’avrebbe fatto la Florida?);
  • nessuna politica militare comune (ogni Stato dell’UE si arma e vende armi per conto proprio);
  • nessuna politica fiscale comune (regimi fiscali diversi a Malta, Irlanda, Paesi Bassi… — questo, a onor del vero, avviene anche negli US);
  • nessuna politica commerciale comune (ogni Stato UE compete con gli altri per vendere i propri prodotti e stipula contratti commerciali in modo indipendente);
  • ecc.

Per cui l’Unione Europea, come progetto culturale, è fallita.
Rimane il progetto economico, legislativo e politico. Ma senza una lingua comune sarà sempre in affanno e non potrà competere con le altre grandi potenze.

Io comunque, a scanso di equivoci, andrò a votare.

P.S. Ho usato il femminile sovraesteso, “per vedere l’effetto che fa”.


Il “doppio click”, ovvero l’atteggiamento blasé nel turismo e nella scienza

«Si riscosse sentendosi quasi chiamato e interrogato dalle ultime parole di Settembrini, ma, come quando quest’ultimo aveva voluto costringerlo solennemente a decidersi fra “Oriente e Occidente”, atteggiò il viso all’espressione di chi pone riserve e non si vuole arrendere, e tacque. Spingevano tutto all’estremo, quei due, come è forse necessario quando si viene ai ferri corti, e litigavano accaniti per un’alternativa suprema, mentre a lui sembrava che nel mezzo, tra le esagerazioni contestate, tra il retorico umanesimo e la barbarie analfabeta, ci doveva pur essere quello che si potrebbe chiamare l’umano». (Mann T. (1924), La montagna incantata, Corbaccio, Milano, 2015, p. 500)

Fra i personaggi più straordinari della letteratura possiamo annoverare sicuramente Lodovico Settembrini e Leo Naphta, i due precettori di Hans Castorp, il protagonista de La montagna incantata di Thomas Mann.

In questo romanzo di formazione infatti, il giovane ingegnere tedesco è costantemente sollecitato sul profilo intellettuale da queste due figure che – con fenomenale, e a tratti assurda, coerenza – lo invitano a scegliere fra visioni del mondo radicalmente contrapposte: da un lato, il massone italiano lo esorta ad abbracciare i valori illuministici del progresso, il culto della ragione, l’universalismo cosmopolita, l’arte classica e il liberalismo; dall’altro, il gesuita est-europeo lo spinge verso il socialismo, la relatività esistenziale del sapere e la sintesi idealista del corpo e della mente, sulla falsariga delle dottrine radicali teocratiche del medioevo.

La ricostruzione degli elementi e dei valori culturali propri di questi due personaggi, e dei loro partiti idealtipici, è talmente precisa e dettagliata, così completa nella presentazione fattane dall’autore, da far nascere costantemente dubbi nel lettore a proposito delle proprie convinzioni personali, una volta che queste vengono adeguatamente ricondotte a quello che Fleck[1] chiamerebbe il loro “stile di pensiero” originario.

Non solo, ma lo portano anche a dissociarsi dall’integralismo con cui i due personaggi difendono le proprie posizioni, talmente esasperato da sfidarsi a duello per affermarle nei confronti del rispettivo avversario.

La genialità e l’attualità dell’opera di Mann, a 100 anni dalla pubblicazione del libro, sta nel fatto che Settembrini e Naphta sono personaggi di fantasia, assolutamente improbabili, pur essendo caratterizzati ciascuno come un insieme di elementi di dettaglio estremamente reali e storicamente ben definiti. Altro che il Signore degli Anelli!

Piuttosto, suggerisce l’autore, è secondo un’ambigua convivenza di “ragione” e “sentimento” che l’uomo moderno, l’ingegnere - e noi che ci impersoniamo in lui - verosimilmente costruisce il proprio percorso di vita: come un coacervo di idee eterogenee, e talvolta in conflitto.

Per esempio, un accostamento inusuale è quello che associa la formazione della cosmologia moderna – nel senso antropologico di insieme di codici che definiscono e regolano l’ordine sociale – alla nascita del turismo, avvenuta fra il XVIII e il XIX secolo.

Infatti, nelle scienze sociali e nel senso comune si tende, generalmente, a derubricare superficialmente l’argomento, come se fosse meno rilevante della razionalizzazione, dell’individualizzazione e di altri cambiamenti di natura politica ed economica avvenuti nello stesso periodo (del resto, abbiamo giusto un paio di settimane di ferie l’anno purtroppo).

Eppure, come mostra lo storico Alain Corbin, nel suo libro L’invenzione del mare (Corbin A. (1988), Le territoire du vide. L’Occident et le désir de rivage, 1750-1840, Flammarion, Paris), all’emergere della prassi del turismo deve essere assegnato un ruolo di primaria importanza, poiché essa istituisce ex abrupto il movimento di ricerca verso l’ignoto, e lo consolida come consuetudine sociale che poi va sempre più generalizzandosi nel corso del tempo.

Il mare, dice appunto provocatoriamente, è stato inventato nel periodo contemporaneo, poiché precedentemente non esisteva, come, ad esempio, secondo il Verbo, esso non è nemmeno previsto nel giardino dell’Eden.

La società “pre-moderna” (qualunque cosa voglia dire questo ambiguo concetto) è una società esclusivamente di pianura, che acquisisce il “desiderio di riva”, la volontà di esplorare i territoires du vide, come un fatto inedito, saldato alla pratica di distinzione sociale dei rampolli dei ceti emergenti di quel periodo che, un po’ come Darwin alle Galapagos, Malinowski nelle Trobriand o Booth negli slum della Londra vittoriana, tenevano dei diari a proposito delle loro “robinsonate”, le gite esplorative delle coste e delle isole ignote che visitavano nel tempo libero.

Quello turistico è quindi, per prendere in prestito un’espressione bourdieusiana, un principio di visione e divisione sociale, un modo di vedere e organizzare la società, un tipo di sguardo sulle cose, una maniera di arrangiarle da un punto di vista materiale, che certamente è concomitante all’industrializzazione, ai processi di democratizzazione e secolarizzazione.

All’affermarsi del turismo possono essere quindi ricondotte tutta una serie di biforcazioni di cui ancora oggi ci avvaliamo: come quella fra natura e cultura, che rispecchia la suddivisione dello spazio in luoghi antropizzati e incontaminati; come la ripartizione economicista fra l’utile (il lavoro) e l’inutile (lo svago); e come la suddivisione dei ruoli sociali in essenze che appartengono, da un lato, ad un tempo passato - quello della campagna, o delle terre esotiche[2], immobili e unicamente da conservare e visitare come reliquie (è sempre, maledettamente, vietato toccare!), e dall’altro ad un futuro appropriabile, ma già ipotecato, quello della città - che chiede di essere imitata, stabilendo la direzione, ma senza offrire reali speranze.

Ma soprattutto[3] al turismo deve essere associato il nuovo modo in cui determiniamo ciò che è vero e ciò che è falso: tutti sanno benissimo che, quando un qualcosa è “per turisti”, significa che è “inautentico, fasullo, o ingannevole”, e che solo i “veri viaggiatori” sanno distinguere e apprezzare ciò che invece è “autentico”.

Come dice Goffman, nel mondo moderno -  in cui la struttura della società supera in estensione e per differenziazione quella familiare e comunitaria, dove la verità rimane nettamente distinta dalla menzogna, come il giorno dalla notte - è attraverso un’ipertrofia di apparati di intermediazione, tutta una serie di dispositivi e costruzioni, che viene assemblato l’ordine sociale.

Nella società contemporanea, la verità è una messa in scena, che deve essere costantemente performata, ed è sempre esposta al rischio di fallire[4] .

Le verità di cui ci avvaliamo sono sempre artefatte, ma, ciononostante, questo ci suona come un paradosso.

Il palcoscenico dove avvengono le rappresentazioni, infatti, lo consideriamo come un piano sostanzialmente illusorio e sovrastrutturale rispetto al retroscena che nasconde (con buona pace dei cuochi che non possono più tirarsi le padelle, visto che ora tutte le cucine sono a vista). La mediazione implica quindi l’istituzione di due dimensioni, una front region e una back region, dove la prima sarebbe come un manto di apparenze che avvolge la vera essenza delle cose nascoste della seconda: «hai finito con le chiacchiere e i sofismi? Vai al sodo, lascia parlare i fatti!».

Come epitomato dal flâneur di Baudelaire, il turismo ha affermato un modo di esistenza che ci spinge ad assegnare un valore al disinteresse, ad apprezzare il mondo e a considerarlo tanto più veritiero quanto più è libero ed irresponsabile nei confronti di un sistema di media, come se questi non operassero altro che distorsioni: si dimentica così della sua massima più famosa, perché ciò che vediamo nelle immagini da cartolina è sempre la meta, e mai la strada per arrivarci.

Mentre solo l’accesso diretto, come quello che pare procurarci il “doppio click” del mouse, consentirebbe una vera esperienza delle cose; poco importa poi che una ricerca scientifica disponga di strumenti e finanziamenti e un'altra solo della buona volontà, la natura è lì in ogni caso!

Come sentenzia Latour, noi moderni siamo incapaci di pronunciare con una sola emissione di voce la frase “è costruito, perciò deve essere vero”[5] .

Tuttavia, dice Cézanne, «guarda la montagna, una volta era fuoco!», troppo concentrati dalla vetta, ci dimentichiamo infatti che la strada per arrivarci dipende dalla nostra formazione, e il sentiero che sapremo aprirci sarà molto diverso se siamo guide alpine attrezzate o escursionisti domenicali, ma non necessariamente uno sarà più vero dell’altro. Piuttosto, essi differiranno nel grado di realtà che saranno in grado di mobilitare e trasformare a proprio vantaggio.

Così, conclude ironicamente Latour: «L’etnologo trova sempre comica l’eterna lamentela inventata dalla critica: “poiché accediamo alle cose conosciute tramite un percorso, questo significa che queste cose sono inaccessibili e inconoscibili di per sé”. Vorrebbe rispondere: “ma di cosa ti lamenti, visto che comunque puoi accedere ad esse?” “Sì” – continuano a piagnucolare – “ma ciò significa che non le cogliamo ‘in sé stesse’, non vediamo come sarebbero ‘senza di noi’. “Bene, ma visto che vuoi approcciarle, se vuoi che siano come sono ‘senza di te’, perché non smettere semplicemente di provare a raggiungerle?” Ancora in modo più lagnoso; “perché così non avremmo alcuna speranza di conoscerle”. Sospira esasperato l’etnologo: “è come se vi congratulaste con voi stessi che c’è un percorso per il monte Aiguille, ma poi vi lamentaste che vi ha permesso di arrampicarvi fino in cima…” La critica si comporta sempre come i turisti blasé, che vorrebbero sempre raggiungere i territori più incontaminati senza difficoltà, e senza incappare in altri turisti». (Latour B. (2013), An Inquiry into Modes of Existence. An Anthropology of the Moderns, Harvard University Press, p. 85)

 

 

NOTE

[1] Cfr. Fleck L. (1935), Genesis and Development of a Scientific Fact, Foreword by T. S. Kuhn, The University of Chicago Press.

[2] Cfr.: Said E. W. (1978), Orientalism, Pantheon Books, New York

[3] MacCannell D. (1976), The Tourist: A New Theory of the Leisure Class, Schocken Books, New York.

[4] Oltre alla ripartizione fra il mondo della pianura e il clima dell’altitudine, per dirla con Mann -  come ha intuito Dean MacCannell, in uno dei più importanti saggi di antropologia del secolo scorso ; Cfr.: Goffman E. (1959), The Presentation of Self in Everyday Life, Doubleday, Garden City

[5] Cfr. Latour B. (2013), An Inquiry into Modes of Existence. An Anthropology of the Moderns, Harvard University Press.


Quando la pazienza è più produttiva della fretta - Sull’esistenza di un nuovo pianeta

Rappresentazione artistica del pianeta X (Caltech/R. Hurt IPAC)

 

La scorsa settimana alcuni quotidiani hanno dato la notizia di nuove prove statistiche che confermerebbero l’esistenza di un nuovo pianeta (il nono, dopo il declassamento di Plutone nel 2006), un corpo celeste grande tre volte la Terra che starebbe ai margini del sistema solare, oltre Nettuno. Infatti, girerebbe intorno al Sole proprio in un’orbita vicino Nettuno.

Il nuovo pianeta (chiamato X, intendendo la x come incognita), non è mai stato osservato direttamente, ma la sua esistenza si potrebbe desumere dalle orbite anomale di diversi oggetti celesti ai margini del Sistema solare. Almeno secondo quanto affermato dagli autori dello studio.

Le orbite anomale sono già servite in passato (a Galilei, Copernico, Keplero ecc.) come prove indirette, come indizi, elementi di una spiegazione plausibile. Ad esempio il pianeta Nettuno fu individuato seguendo le indicazioni del matematici britannico John Couch Adams e di quello francese Urbain Le Verrier, che basarono i loro calcoli su discrepanze delle orbite di Urano, Saturno e Giove.

A tutt’oggi l’ipotesi dell’esistenza del pianeta X non è ancora accettata dalla maggioranza degli astronomi, ma quest’ultimo studio sarebbe una forte prova a sostegno della sua presenza.

La notizia, per coloro che sono interessati alla sociologia della scienza, è interessante perché questa ipotesi circola da ben più di 100 anni. Infatti i primi studi sul pianeta nove risalgono alla fine dell’Ottocento e sono proseguiti per tutto il secolo scorso, ad esempio, con l'astronomo statunitense Percival Lowell (ai primi del Novecento). Nel 1915, nel suo osservatorio, furono registrate due deboli immagini di Plutone, ma esse non venero riconosciute come tali fino alla scoperta di Plutone, nel 1930. Ma non era il pianeta X.

Nel 2014 la NASA, mediante il suo programma di esplorazione Wide-Field Infrared Survey Explorer (WISE), escluse l'esistenza di un pianeta X.

Ora, invece, l’ipotesi torna a prendere quota.

D’altra parte, il fenomeno dei tempi lunghi, era già capitato con la conferma delle onde gravitazionali: il fisico statunitense Joseph Weber, come avevamo già visto in un altro post, aveva cominciato a lavorarci negli anni Sessanta senza che i suoi lavori venissero accettati come prova. Accettazione avvenuta solo recentemente, molti anni dopo la sua morte avvenuta nel 2000.

Fra le tante lezioni che si possono trarre, una è che la scienza debba essere “lenta”, un’attività meditata, attenta e riflessiva. Sempre più, invece, si vogliono prove subito, riscontri immediati, conferme veloci. Con scarsa tolleranza per ipotesi visionarie, ma con ancora poche prove. Ormai vige un modello di fare scienza che preferisce i temi noti, acquisiti e di moda, anziché quelli ignoti, potenzialmente rivoluzionari e più marginali.

In altre parole, si sta sempre più affermando una scienza “sveltina” (e la recente crescita esponenziale di pubblicazioni “veloci” ne è un indizio), che non si dà (e non prende) tempo per osservare con calma e in profondità i fenomeni e i loro esiti, anche nel medio e lungo periodo.

Un proverbio (non a caso) di origini orientali, riportato nella favola di Esopo La scrofa e la cagna, dice “la cagna frettolosa fa figli ciechi”.
Il pensiero meridiano, come ha evidenziato Franco Cassano Il pensiero meridiano (2005), l’ha poi trasformato in “A iatta prisciarola fa i iattareddi orbi” (in Sicilia) e “A gatta pe' jì 'e pressa, facette 'e figlie cecate” (a Napoli).

Bisognerebbe ricordarlo a Janine Small (responsabile Pfizer per i mercati internazionali), che il 10 ottobre 2022, al Parlamento Europeo, a una precisa domanda di un parlamentare su quali test erano stati fatti per affermare che chi avrebbe assunto il vaccino anti-covid non avrebbe trasmesso il virus ad altre persone (ricordiamoci che su questo assunto in Italia fu istituito la green pass, certificazione senza la quale una persona non poteva circolare liberamente perché potenziale diffonditrice del virus in quanto non vaccinata) rispose candidamente: "the vaccine has not been tested to prevent infection” (…) “there was no time” (…) “we had to move at the speed of science”.

Ecco, appunto… la velocità della scienza…


Mundus patet - Ernesto De Martino e l’informe atomico

E la fine di “un mondo” non significherà la fine “del mondo” ma, semplicemente, “il mondo di domani”

Ernesto De Martino

Risale ai miti fondativi dell’antica Roma la comparsa del termine mundus, con cui si indicava il perimetro della città. Terra già esistente, diviene cosmo creato in virtù di un gesto collettivo. Il rito di fondazione prevedeva la partecipazione di un gruppo o, secondo uno sguardo diacronico, di una comunità. Ovidio racconta che venne scavato un fosso in cui riporre beni di vario genere. In seguito questo venne riempito di terra. Fu Romolo stesso, secondo l’autore, a tracciare con l’aratro «il solco su cui costruire le mura»[1]. Non solo un perimetro, bensì un’intera superficie. Catone spiega la derivazione del senso terreno del mundus dal mondo che sta «sopra di noi: la sua forma infatti […] è simile alla forma di quello»[2]. Alla forma a volta dell’universo corrisponde la forma a fossa, a “U”, del mondo sotto di noi, chiamato anche mundus Cereris: il mondo dei defunti. Il mondo degli inferi è cautamente sigillato con un apposito coperchio apribile, oppure è sovrastato dall’altare di Romolo. Mundus è dunque l’insediamento, il centro fissato, ma anche il limine tra mondo celeste e inferi. In quanto soglia esso assume un significato aggiuntivo, inserendosi in un’articolazione di senso e di operazioni ulteriori. Insieme al bue nero e alla giumenta bianca[3], Romolo si mette alla guida della sua aratro per tracciare il confine, il limen, del nuovo insediamento. È a partire dalla centralità delle tecniche agricole nella società romana “delle origini” che è possibile individuare il terzo senso del termine mundus che, secondo Herbert J. Rose, «poteva essere destinato a determinati riti agrari, poteva contenere per esempio piccole quantità di grano non tanto come primizie bensì per essere benedette dalle potenze del mondo infero»[4]. Si istituisce uno scambio tra mondo dei vivi e mondo dei morti cui segue la rigenerazione della terra. Nel capitolo di Morte e pianto rituale dedicato alla “Messe del dolore”, l’etnologo napoletano Ernesto De Martino (1908-1965) analizza la configurazione del rapporto dell’uomo del mondo antico con l’esperienza di morte. L’autore sostiene che «veder fiorire» e «veder scomparire» sono accadimenti che dipendevano «in larga misura da potenze che sfuggivano al controllo umano»[5], ma che nondimeno venivano integrati in un «ordine di lavori agricoli» che – come l’arare, il seminare e il raccogliere – istituivano un rapporto speculare con quelle forze indomabili, per cui l’uomo «si fa procuratore di morte secondo una regola umana»[6]. Così come, attraverso il raccolto, l’uomo decide per la morte della spiga, così attraverso il seminare l’uomo opera in direzione della propagazione della vita, della sua ripetizione. L’autore riconosce che questo rapporto organico non risolve, non evita, il rischio di una crisi[7]. Occorre fissare un primo interrogativo: in che senso non è sufficiente osservare e domesticare la natura – imitandola – per essere certi che «domani ci sarà un mondo»[8]?

Che cosa è “mondo”? È una sfera? Oppure è una volta, cui corrisponde una fossa, separate da un coperchio che noi uomini calpestiamo? Lo storico delle religioni Mircea Eliade (1907-1986) ha tentato di descrivere il tipo di spazio che viene in essere nell’esperienza dell’uomo religioso. Così come il coperchio serve ad un tempo da membrana e da limite invalicabile del mundus Cereris, così le Colonne d’Ercole sono il limite ultimo oltre cui non spingersi, pena cadere nel nulla e ritrovarsi faccia a faccia con Atlante. Allo strapiombo dell’Inferno dantesco corrisponde, secondo una simmetria longitudinale, la verticalità del Purgatorio alla cui somma sta l’Eden[9]. In queste tre rappresentazioni ricorre un carattere osservato da Eliade: «per l’uomo religioso lo spazio non è omogeneo»[10]. Esistono spazi consacrati, con una loro forza, un loro preciso significato; ed esistono spazi «non consacrati […] amorfi»[11]. I primi sono «l’unica cosa reale», mentre i secondi costituiscono una mera «informe distesa» che circonda i primi[12]. Lo spazio sacro diviene tale in virtù di una ierofania, di una manifestazione delle forze sacre che sancisce una separazione ontologica tra lo spazio sacro e lo spazio profano[13]. Da questa cesura nasce il templum come perimetro e indice che questo posto, questo cerchio di terra, è sede delle potenze sacre. Il tempio si costituisce come centro di orientamento, come centro di irradiamento: qui il sacro si concentra, il fedele vi si dirige, il sacro ne emana e viene sigillato in una forma – coperchio o montagna. Il mondo sembra essere, stando a Eliade e De Martino, il “reale” che si dispiega in quanto tale in forza di una significazione. Più che un villaggio, un bosco o un pianeta, il mondo è un prodotto – da producere, portare avanti – derivante e continuamente costruito nel rinnovamento di un legame agonistico dell’uomo con sé stesso e con le forze su cui non può nulla. Il mondo è il risultato di una tessitura faticosa che ricorda quella di Penelope: potenzialmente infinita. Se il mondo non è qualcosa di stabile bensì di stabilizzato che cosa succede quando l’uomo cessa di essere religioso? Religio, rilegare, cucire insieme l’uomo e il mondo, inserire l’esteriorità entro una trama ordinata, un disegno. Secondo Eliade non è possibile trovare un uomo che non sia religioso in toto, «anche la vita più desacralizzata conserva tuttavia le tracce di una valoristica religiosa del Mondo»[14]. Siamo meno religiosi, ossia siamo meno adeguati ad una religione istituzionalizzata, e il nostro rapporto con la natura è per molti aspetti meno sacralizzante che un tempo. Eppure la religione intesa come rapporto non riguarda solo le relazioni uomo-divinità e uomo-natura, bensì anche quella dell’uomo a sé e al suo simile. La religione è quel comportamento umano che continuamente sancisce la validità di determinati valori che divengono condivisi in quanto universalizzabili, ossia: traduce quotidianamente in pratiche le regole di un comportamento dello stare insieme in uno spazio collettivo. La comunità non è una sommatoria di individui, bensì un insieme organico orientato verso un modo del vivere in comune che costituisce la base per la formulazione delle regole – tacite o meno – di questo stesso vivere in comune. La religione, come la politica; il mundus, come lo Stato. Cosa hanno in comune queste forme di rapporto? Arrischiamo una risposta provvisoria: la religione e la politica, il mundus e lo Stato, costituiscono le forme – dunque i mondi? – entro cui si regolano le attività umane attraverso l’istituzione di regole e di valori che, differentemente da quanto oggigiorno si predica, non sono indefinitamente rinegoziabili. Se viviamo nell’epoca di crisi dei valori non è perché siamo meno religiosi o perché ci muoviamo in un mondo in cui le scienze “dure” insegnano la prevedibilità dei fenomeni, mostrandoci contemporaneamente la loro fallibilità intrinseca e dunque inducendoci a un certo scetticismo. La crisi dei valori deriva in primo luogo dalla friabilità della postura di chi ritiene che questi siano tutti, indipendentemente, sempre di nuovo rinegoziabili. L’apparente marmoreità di questa posizione vacilla nel momento in cui ne si considera il rovescio, il risvolto pratico: l’equivalenza potenziale di ogni futuro possibile.

Ci siamo domandati in che senso non è sufficiente osservare e domesticare la natura per essere certi che domani ci sarà un mondo. Se il mondo sorge come effetto di un procedimento di tessitura del reale che pone l’uomo al livello di Aracne, non stiamo dando troppo potere all’uomo? Se questo rimane religioso in quanto tessitore, possiamo accettare che il mondo finisca? Eppure, prima di domandarci questo, dobbiamo chiederci, insieme a De Martino, che cosa significa pensare la fine del mondo. Secondo l’etnologo il mondo è primariamente culturale. Il problema della fine sorge anticamente[15]: culture differenti rappresentano secondo le relative divinità, concezioni dello spazio e del tempo, della morte, la loro fine del mondo[16]. Il rischio della fine del mondo è ricorsivo e va affrontato in quanto, secondo l’etnologo, «se ignorato o leggermente accantonato può comportare soluzioni catastroficamente negative per l’umanità»[17]. Nel suo contributo De Martino declina gli assi portanti della sua riflessione alla luce dei «200 000 di Hiroshima»[18]. Il 6 agosto 1945, alle otto del mattino, un mondo è finito. Eppure, qualcuno ha preparato questa fine, la ha calcolata scrupolosamente sottomettendola a sperimentazioni, approvazioni e registri; ne ha osservato gli effetti dopo averli previsti più o meno approssimativamente. Il mondo è finito quel giorno per chi ignorava lo spesso tessuto di preparazioni, ma è finito anche per chi pazientemente preparava questo avvenimento, per chi lo ha curato. Un decadimento annoso dunque, le cui manifestazioni terminali indicano che la krisis è già trapassata nell’epoca in cui «l’umana civiltà può autoannientarsi, perdere il senso dei valori intersoggettivi della vita umana, e impiegare le stesse potenze del dominio tecnico della natura secondo una modalità che è priva di senso per eccellenza, cioè per annientare la possibilità stessa della cultura»[19].

Come armarci contro questo scacco? Una fine senza escaton, in cui alla vastità del mondo sopra e sotto di noi corrisponde la puntuale e calcolata localizzazione di una promessa di salvezza o di condanna. Il mondo non è forse mai stato così aperto.

 


NOTE

[1] Ovidio, Fasti e frammenti, in Opere, materiali a c. di F. Stok, UTET, Torino 1999.

[2] Catone, Commentari, in E. De Martino, La fine del mondo. Contributo all’analisi delle apocalissi culturali (1977), materiali a c. di G. Charuty, D. Fabre, M. Massenzio, Giulio Einaudi editore, Torino 2019, pp. 119-120.

[3] Ovidio, cit., p. 337.

[4] H. J. Rose, “The Mundus”, in Studi e materiali di storia delle religioni, XII, 1931, pp. 115-127, qui p. 121. Traduzione italiana parziale in E. De Martino, Morte e pianto rituale. Dal lamento funebre antico al pianto di Maria (1958), materiali a c. di M. Massenzio, Giulio Einaudi Editore, Torino 2021, p. 125.

[5] E. De Martino, Morte e pianto rituale, cit., p. 225.

[6] Ibid.

[7] Ippocrate di Coo e la sua scuola medica impiegavano il termine krisis per indicare quella fase del decorso della malattia che si impone come discrimine all’interno del percorso di guarigione del paziente. I due esiti possibili che potevano configurarsi anche contraddicendo le previsioni del medico e repentinamente consistevano nel decadimento nella morte o nella risoluzione dell’equilibrio organico nella guarigione. Più che l’alternativa del decorso ci interessa il carattere di imprevedibilità, di sorpresa, che comunque accompagna l’osservazione e la ricerca.

[8] E. De Martino, La fine del mondo, cit., p. 65. Corsivo nostro.

[9] Giorgio Agamben ne Il regno e il giardino dedica un capitolo al cosmo dantesco ricostruendone alcune interpretazioni teologiche e reinterpretandone il ruolo alla luce della sua percorribilità da parte di Dante, in forza della quale l’Eden si configurerebbe come “la figura della beatitudine terrena”, cui l’uomo può accedere. G. Agamben, Il regno e il giardino, Neri Pozza, Vicenza 2019, p. 71. Corsivo nostro.

[10] M. Eliade, Il sacro e il profano (1957), tr. it. E. Fadini, Bollati Boringhieri, Torino 2013, p. 19.

[11] Ibid.

[12] Ibid.

[13] L’Inferno dantesco nasce dall’urto di Lucifero sulla terra in seguito alla sua cacciata dal Paradiso. La terra risponde all’urto e alla forza ritirandosi. A questo movimento corrisponde l’emergere della forma conversa: il monte del Purgatorio.

[14] M. Eliade, Il sacro e il profano, cit., p. 20.

[15] “Il problema della fine del mondo” è il titolo del contributo di De Martino al convegno internazionale organizzato dal filosofo cristiano Pietro Prini nel 1964. Il convegno “Il mondo di domani” ebbe luogo a Perugia tra il maggio e il luglio 1964. Stando a Giordana Charuty al convegno parteciparono anche, tra altri, Paul Ricœur, Gabriel Marcel e Umberto Eco. Il contributo di De Martino venne inserito nel testo che seguì al convegno, dall’omonimo titolo, pubblicato da Prini a Roma nello stesso anno.

[16] Nel testo del 1977 De Martino analizza una varietà di modi di intendere, prevedere e interpretare, il tema della fine del mondo. Possiamo indicare, tra i numerosi indagati dall’autore, i casi della schizofrenia, del marxismo e della decolonizzazione. Nondimeno, si potrebbe considerare lo studio su Morte e pianto rituale come una propedeutica al testo del 1977: il lutto sancisce la fine di un mondo culturale, necessita la restaurazione di un ordine che può essere riarticolato e riassunto solo entro una dinamica collettiva che si esplica attraverso operazioni e tecniche intersoggettive.

[17] E. De Martino, “Il problema della fine del mondo”, in La fine del mondo, cit., pp. 69-76, qui p. 69.

[18] Ivi, p. 71.

[19] Ivi, p. 70.


Classificazioni e standardizzazioni - Come cambiano la medicina contemporanea

Nell’articolo precedente abbiamo visto come la creazione di nuovi standard e classificazioni richieda complesse negoziazioni tra molteplici attanti. Questo processo di standardizzazione caratterizza diversi mondi sociali come ad esempio la medicina contemporanea.

Infatti, secondo Timmermans e Berg all’interno della medicina gli standard raggiungono una universalità locale (1997). I due autori osservano come la costruzione dei protocolli medici e la loro applicazione non sia universale e valida per tutti i contesti, ma il protocollo si adatta alle singole comunità di pratica attraverso una serie di adattamenti e accordi. Dunque, uno standard viene costruito localmente ma non per questo perde la capacità di mettere in relazione i diversi elementi delle infrastrutture. 

Inoltre, Timmermans e Berg (2003) analizzano l'effetto degli standard nella pratica medica, mostrando come questa venga modificata da essi. Secondo i due autori gli standard non sono neutrali. Ad esempio, l’adozione di linee guida nella pratica clinica o di nuove nomenclature, generano nuove forme di vita che modificano la pratica medica e degli attori:

«Gli standard sono intrinsecamente politici perché la loro costruzione e applicazione trasformano le pratiche in cui si inseriscono. Cambiano le posizioni degli attori: alterando i rapporti di responsabilità, enfatizzando o deenfatizzando le gerarchie preesistenti, cambiando le aspettative dei pazienti» (2203, p. 22)

In particolare, i due autori si focalizzano su come la medicina basata sull’evidenza cambi la pratica medica sia a livello micro che macro. La medicina basata sull’evidenza è caratterizzata da uno stretto legame tra clinica e ricerca scientifica, con lo scopo di generare cure più efficienti, migliorare i processi sanitari, coordinare in modo più efficace le attività di ricerca e un’istruzione migliore per medici e assistenti. 

Verso la fine degli anni Ottanta si fece strada un impulso alla standardizzazione nel campo sanitario, inizialmente come un libero scambio di informazioni, standardizzazione di competenze, strumenti e strutture, e più recentemente con la prescrizione del contenuto del lavoro medico, attraverso la creazione di linee guida. La medicina basata sull'evidenza interviene nel processo decisionale medico: nonostante i pazienti non presentano mai situazioni identiche, una delle abilità dei medici è quella di tradurre una serie di osservazioni molto specifiche o di frasi di linguaggio comune in linguaggio specialistico. Un tempo il medico, attraverso l’utilizzo della propria conoscenza tacita, era in grado di applicare autonomamente le conoscenze scientifiche; ma ora la medicina basata sull’evidenza tenta di elaborare e uniformare i risultati della ricerca scientifica, delineandone l’applicazione, codificando sequenze di attività e azioni uniformi per rispondere a una determinata situazione. L’introduzione di uno standard ha però degli effetti anche a livello macro; infatti, affinché i dati medici diventino comparabili, è necessario uniformare le terminologie, creare nuove nomenclature in modo che i sistemi informativi di diversi contesti organizzativi riescano a comunicare facilmente.

Bowker e Star (2003) nel libro Sorting Things Out, cercano di capire come gli attori progettano e utilizzano i sistemi di classificazione, mettendo in luce come ogni meccanismo di classificazione sia caratterizzato dal contesto sociale, politico, filosofico e sociotecnico, ma anche da aspetti cognitivi, burocratici e formali. Gli autori prendono come caso di studio la Classificazione internazionale delle malattie (ICD), ovvero uno strumento statistico-epidemiologico, analizzandone le genesi, le trasformazioni e gli usi che ne vengono fatti. Attraverso un approccio pragmatico agli standard, essi riprendono e ri-adattano il teorema di Thomas (1928): le cose percepite come reali lo sono nelle loro conseguenze. Pertanto, anche se gli attori considerano le classificazioni puramente mentali o formali, cercheranno di adattare il loro comportamento a quelle concezioni. Anche se ogni classificazione è sotto-determinata dalla realtà (Bloor 1976; Barnes, Bloor, e Henry 1996), scrivono i due autori:

«Sebbene sia vero che le mappe non catturano completamente i terreni, sono tecnologie potenti. Aiutano a trovare la propria strada, come originariamente previsto formalmente. E servono come risorse per strutturare tutti i tipi di azioni collettive: sogni di vacanze, soluzioni di cruciverba, spiegazioni della distanza sociale.» (Bowker e Star 1999, p. 54) 

Il primo volume dell’ICD era principalmente un lungo elenco di numeri con nomi di malattie o cause di morte. Verso la fine degli anni Quaranta diventa uno strumento per codificare e classificare le malattie che rappresentano una minaccia per la salute pubblica. Tutto ciò ha una dimensione performativa e delle implicazioni pratiche: l’obiettivo è quello di creare uno schema di classificazione generale all’interno di più discipline (medicina, epidemiologia e statistica) in rapida evoluzione. Nel momento in cui vengono decise delle categorie, queste influiscono sugli sviluppi futuri della disciplina; ad esempio, le informazioni che verranno raccolte si focalizzeranno su particolari malattie escludendo quelle rare o non contagiose. 

Uno dei principali usi dell'ICD è la registrazione delle cause di morte da parte di medici legali, ospedali e medici. In uno dei testi dell’ICD si elencano diverse tipologie di “insufficienza cardiaca”: congestizia, ventricolare sinistra e una generica insufficienza cardiaca non specificata. Queste tre categorie acquisiscono rilevanza e diventano degli standard di riferimento. Ciò implica che la successiva raccolta di informazioni verrà fatta alla luce di quelle categorie. 

Ad esempio, le insufficienze cardiache causate da guasti meccanici o rotture di protesi o di pacemaker che prima rientravano nella categoria “insufficienza cardiaca”, andranno ri-classificate e ri-significate all’interno delle nuove categorie esistenti. Dunque, il processo di classificazione non ha a che fare solamente con categorie astratte, ma si tratta di un processo pratico inerente al modo in cui le persone classificano gli oggetti che incontrano nella vita quotidiana:

«Quando guardiamo ai modi in cui cultura e pratica si intrecciano nel testo dell’ICD, non stiamo smascherando un falso pretendente alla corona della scienza; stiamo attirando l'attenzione su una caratteristica esplicita, positiva e pratica della progettazione dell'ICD: “L'ICD si è sviluppato come una classificazione pratica, piuttosto che puramente teorica”» (cit. p. 71)

L’intento dell’ICD non è quello di catturare l’intera pluralità di situazioni o di essere una rete in grado di rappresentare tutta la conoscenza, ma piuttosto uno strumento epidemiologico utilizzabile all'interno di un contesto di pratica organizzativa. Inoltre, l’ICD si è evoluto nel tempo in base ai cambiamenti della medicina e delle tecnologie mediche; ad esempio, negli anni Quaranta, l’introduzione di nuove tecnologie diagnostiche provocò una nuova categorizzazione della tubercolosi. L’IDC non rappresenta uno strumento epidemiologico elastico, infatti viene modificato anche in base allo sviluppo di nuove o vecchie malattie, alcune si trasformano come il GRID (Gay-Related Immune Deficiency) si trasformò in AIDS, altre perdono di importanza come l’isteria, altre invece scompaiono come il vaiolo negli anni Ottanta. In altre parole, i cambiamenti che avvengono nel mondo si riflettono, modificando, lo schema di classificazione. 

---------------

In conclusione, all’interno della medicina contemporanea gli standard sono usati ma anche modificati e prodotti. Bisogna uscire da una visione dello standard come “imposto dall’alto” che, una volta adottato, è in grado di modificare qualsiasi pratica. L’invito è quello di guardare lo standard come qualcosa prodotto nella pratica da un insieme eterogeneo di attanti, in grado di regolare le pratiche; ma allo stesso tempo le pratiche possono generare degli standard modificando quelli già esistenti o producendone di nuovi. Si tratta di un processo di co-produzione tra standard e pratiche. 

 

Bibliografia

Bowker, G. C., e Star S. L. Sorting Things out: Classification and Its Consequences, 1999, Cambridge, Mass.: MIT Press Cambridge, Mass.

Thomas, W.I, and Swaine Thomas D., The Child in America: Behavior Problems and Programs, 1928. Knopf.

Timmermans S. e Berg M., «Standardization in Action: Achieving Local Universality through Medical Protocols». in Social Studies of Science, 1997, 27(2):273–305. doi: 10.1177/030631297027002003.

Timmermans S. e Berg M., The Gold Standard, 2003. Temple University Press.


Che gusto ha studiare il cannibalismo? - Un punto di vista sociologico (prima parte)

“La conoscenza (…) comincia con la tensione tra sapere e ignoranza: non c’è problema senza sapere – non c’è problema senza ignoranza. Poiché ogni problema nasce (…), dalla scoperta di un’apparente contraddizione fra quello che riteniamo nostro sapere e quelli che riteniamo fatti”.

Con queste parole si conclude il mio secondo saggio, Cannibalismo, questioni di genere e serialità (2023) edito dalla casa editrice Tab edizioni di Roma nell’aprile dello scorso anno. Non mi sarei mai aspettato che un tema così pregno di timore, tanto da essere annoverato come uno dei più grandi tabù, potesse suscitare tanto interesse… Eppure, è successo! Questo saggio ha vinto una menzione di merito dalla giuria del concorso nazionale Caffè delle arti; è stato collocato al terzo posto tra i migliori saggi sul tema da Notizie scientifiche; è stato attenzionato da testate giornalistiche e culturali di respiro nazionale, etc.

Ricordo, però, che appena mi misi all’opera, molti tra docenti e amici mi chiedevano “che gusto ci trovi a studiare questo tema?”. La mia risposta era, ed è, molto semplice: mi piace tutto ciò che è poco attenzionato, ciò che è di nicchia, perché è in queste intercapedini del sapere che si ha la possibilità di portare alla luce qualcosa di nuovo, o semplicemente qualcosa di cui si conosce molto poco… Ed è proprio il caso del cannibalismo, che per quanto sia stato studiato dall’antropologia, dalla criminologia e dalla stessa psicoanalisi, e vedremo brevemente in che modo, da parte della sociologia, invece, non vi è stato molto interesse.

Gli argomenti trattati in questa opera sono tanti: dall’analisi transdisciplinare del cannibalismo l’antropologia, la sociologia, la criminologia e la psicoanalisi; allo studio di 5 casi di soggetti cannibali Leonarda Cianciulli, Andrei Chikatilo, i coniugi Baksheev, Jeffrey Dahmer, Armin Meiwes, nonché alcune divinità antropofaghe come Śiva, per poi giungere ad una ipotesi  secondo la quale i tratti comuni tra il modus operandi dei serial killer studiati e i culti cannibali vi sarebbe, in soggetti di questo tipo e non solo, un istinto atavico di tipo sociopsicologico e śivaista.

Da notare il fatto che negli ultimi anni il tema del cannibalismo è tornato in auge grazie sul grande e il piccolo schermo, pensiamo alla pellicola cinematografica Bones and Hall, adattamento cinematografico di Luca Guadagnino dell’omonimo romanzo di Camille DeAngelis; la serie tv Dahmer - Monster: The Jeffrey Dahmer Story e molto recentemente La Società della Neve il cui soggetto principale è il caso del disastro aereo sulle Ande in cui vennero praticati atti di cannibalismo per sopravvivenza.

Ma innanzitutto cosa si intende per cannibalismo?

In generale potremmo definirlo come l’atto con il quale un individuo si ciba di un altro suo simile, cioè appartenente alla sua stessa specie. Si tratta di un comportamento presente in molte specie animali, comprese le scimmie, ma anche nella storia del genere umano sia da un punto di vista evolutivo che simbolico. Questo aspetto, infatti, lo considero il grande paradosso del cannibalismo perché da un lato, anche solo menzionarlo stimola sensazioni e reazioni di assoluto ribrezzo e intolleranza, dall’altro però le prove storico-archeologiche sono inconfutabili: il cannibalismo ha accompagnato l’evoluzione della specie umana.

A questo proposito, da un punto di vista antropologico, il cannibalismo sembrerebbe che sia apparso più di 70.000 anni fa. La tendenza cannibalistica dei Neanderthal è stata identificata principalmente grazie all’analisi di teschi su cui erano presenti delle manipolazioni. Famoso è il teschio del Circeo in cui sono stati individuati segni di pratiche rituali funerarie di tipo cannibalistico. Anche sui teschi di Homo pekinensis, risalenti al Pleistocene medio (circa 350.000-450.000 anni) sono state trovate delle fessure e tagli; la prova più evidente del fatto che i nostri antenati fossero dediti al cannibalismo sarebbe il cosiddetto foramen magnum, cioè il foro presente sull'osso occipitale allargato manualmente per estrarre e mangiare il cervello.

Ma il cannibalismo, noto anche come antropofagia, ha caratterizzato anche epoche successive: è stato considerato come uno degli atti tipici della stregoneria, l’accusa con la quale condannare eretici, ma anche uno strumento terapeutico, definito tecnicamente come cannibalismo medico o terapeutico Si tratta di una forma peculiare di cannibalismo dove cuore, midollo e sangue umani venivano ritenuti veri e propri presidi terapeutici, e quindi molto usati nelle pratiche medico-sanitarie. Questa forma di cannibalismo era già nota agli antichi romani i quali erano convinti che l’epilessia si potesse curare succhiando il sangue dalle ferite dei gladiatori. Tale usanza venne mantenuta fino al XVIII secolo. In particolare, si prescriveva l’assunzione di carne umana, generalmente proveniente da morti per decapitazione o impiccagione, per il trattamento dell’epilessia. In Gran Bretagna, addirittura, nacquero i cosiddetti mummy shop, ovvero farmacie che vendevano carne umana mummificata. E sullo scopo terapeutico del cannibalismo, nel suo ultimo saggio Siamo tutti cannibali, uno degli antropologi più autorevoli, Lévi-Strauss, ha sostenuto che il cannibalismo non solo sia presente quotidianamente ma che gran parte delle tecniche terapeutiche che altro non sono che la forma più evoluta del cannibalismo: il trapianto di organi, le trasfusioni, l’impiego di ormoni ipofisari, innesti cutanei o di altre parti del corpo provenienti da cadaveri, ecc. L’obiettivo di Lévi-Strauss, a differenza di altri suoi colleghi, è quello di esorcizzare il concetto di cannibalismo, sottolineando come sia necessario considerare questo fenomeno come “normale” e non come fattore di discrimine fra società selvagge e società civilizzate. Altri suoi colleghi, invece, hanno considerato il cannibalismo o come la manifestazione più evidente della differenza tra i popoli civilizzati e meno civilizzati, o ancora come un mero mito con quale etichettare popoli considerati inferiori.

Nel caso della psicoanalisi, invece, il cannibalismo assume altri significati. Freud lo definisce come la manifestazione più evidente dell’aggressività repressa, che si manifesta, appunto, mediante l’attacco orale, che sarebbe alla base della storia umana e della sua evoluzione, ma al tempo stesso considera l’antropofagia come l’espressione dell’impulso con il quale si intende introiettare l’altro per appropriarsene. Parte di questi atteggiamenti si rilevano nel bambino, durante la fase orale o cannibalica dello sviluppo psichico. L’uomo, ricorda Freud, sin dalla nascita si attacca al seno materno e finché non svilupperà i denti, si limiterà alla suzione, che è comunque fonte di appagamento sessuale per l’infante.

Secondo la criminologia, invece, il cannibalismo rientra nelle cosiddette parafilie ossia condizioni in cui si sviluppano interessi sessuali atipici. In questo ambito il cannibalismo, è correlato ad atti commessi da serial killer, ossia individui, che nella maggior parte dei casi, commettono almeno 3 omicidi, spinti da istinti sessuali deviati.

Da un punto di vista sociologico il cannibalismo ha avuto scarsa attenzione, questo perché la stessa sociologia dell’alimentazione ha avuto un suo riconoscimento formale solo di recente. Uno dei pochi tentativi di analisi sociologica dell’antropofagia è stato proposto da Georges Guille-Escuret e nella sua trilogia Sociologie comparée du cannibalisme, in cui il cannibalismo viene analizzato come un evento sociale endogeno alla società. Il concetto di cannibalismo, da questo punto di vista, ricorda quello di incorporazione della cultura, cioè l'introiezione di ciò che proviene dalla società dentro ciascuno di noi. Ma mangiare in generale è un “fatto sociale”, per dirla in termini durkheimiani, rappresenta, cioè, il massimo grado di espressione del volere collettivo e dell’esigenza di relazionalità. Così la rilevanza sociale dell'alimentazione e del suo ruolo relazionale lo si ritrovano già nel termine compagno, dal latino companio, composto da cŭm, con e pānis, pane; letteralmente, quindi, compagno significa "chi mangia il pane con l'altro". Mangiare diventa essenziale per stare in relazione, ecco perché la nutrizione viene considerata in sociologia come uno dei mediatori più importanti, nonché a fattore di incremento e di strutturazione del capitale sociale, cioè dell’insieme più ampio di relazioni di cui ciascuno gode. Ma il cannibalismo ha anche altri significati sociologici: quelli riconducibili al rito, per esempio pensiamo al processo di transustanziazione e al precetto cristiano di cibarsi del corpo e sangue di Cristo; è all’interno di molti miti, leggende, fiabe, si pensi a: Pollicino, Hänsel e Gretel, il conte Ugolino, ecc.

Nel titolo del mio saggio un altro termine chiave è questioni di genere, da intendere semplicemente come la variabilità con la quale si viene definiti uomo o donna e correlata all’orientamento sessuale. Questi due aspetti sono stati essenziali per il mio lavoro, poiché sono stati utilizzati per scegliere ed analizzare 5 soggetti cannibali: Leonarda Cianciulli la Saponificatrice di Correggio, Andrej Romanovič Čikatilo il Mostro di Rostov, Dmitry Baksheev e Natalia Baksheeva la Coppia cannibale, Jeffrey Lionel Dahmer il Mostro di Milwaukee e Armin Meiwes il Cannibale di Rotenburg an der Fulda, di cui vi parlerò dettagliatamente nella seconda parte di questo post.