Ripensare le Scienze - Considerazioni a partire da "Il Golem"

La scienza sembra essere o tutta buona o tutta cattiva»[1]; così inizia Il Golem, saggio pubblicato nel 1993 dai sociologi Harry Collins e Trevor Pinch.

Il testo prende le distanze da una visione strettamente dicotomica dell’impresa scientifica che ne considera solo gli estremi (o tutta buona o tutta cattiva) e ne dà un giudizio etico.

Ma allora, addentrandoci nella trama e dei casi raccolti da Trevor e Pinch, viene da chiedersi: che cos’è la scienza?

Secondo gli autori essa è un golem, «un umanoide creato dall’uomo con acqua e argilla, con incantesimi e magie»[2]; esso ha una forza formidabile, ma è goffo e addirittura pericoloso: «se non è sottoposto a controllo, un golem può distruggere i suoi padri con la sua smisurata energia»[3]. Scopo di questo libro, allora, è di mostrare come la scienza sia a tutti gli effetti un golem, quindi non un’entità necessariamente malvagia ma una creatura che, nonostante la sua forza, si rivela impacciata e maldestra.

E se la scienza è incerta, quando la vediamo zoppicare? Quando mostra le sue fragilità?

Per esempio, quando in una ricerca ci sono talmente tante variabili da confondere gli scienziati stessi, oppure quando si discute sull’eventuale ripetibilità di un esperimento. Queste considerazioni (e molte altre) fanno riflettere sulle difficoltà della Scienza Golem, la quale non sempre si muove con passo sicuro, traballa, oscilla tra “tentativi ed errori”, crea controversie, anche se «alla fine, […], è la comunità scientifica […] che porta ordine in questo caos, trasformando le goffe capriole della Scienza Golem collettiva in un pulito e ordinato mito scientifico. Non c’è nulla di sbagliato in tutto questo: l’unico peccato è non riconoscere che è sempre così»[4].

In aggiunta, cosa dovremmo dire di chi lavora in ambiti scientifici? L’idea espressa da Collins e Pinch afferma che «gli scienziati non sono né dèi né ciarlatani; sono semplicemente specialisti […]. La loro conoscenza non è più perfetta di quella di economisti, ministri per la sanità, […], avvocati, […], agenti di viaggi, meccanici di automobili, o idraulici»[5].

Quindi, se la scienza – e le scienze – sono imprese umane perché umani sono coloro che ci lavorano, è indubbio che risentono anch’esse di influssi storici, culturali o sociali, oltre a variabili personali come le preferenze, le idiosincrasie o le idee dei singoli scienziati e scienziate. Pertanto, la Scienza Golem incespica, inciampa e cade perché noi la costruiamo e la mettiamo all’opera: «l’“errore” umano va diritto verso il cuore della scienza, perché il cuore è fatto dell’attività umana»[6]. I suoi errori sono dunque i nostri errori.

Come viene affermato ne Il Golem, «è impossibile separare la scienza dalla società, eppure rimanendo legati all’idea che esistono due distinte sfere di attività si contribuisce a creare quell’immagine autoritaria della scienza così familiare alla maggior parte di noi. Perché tali sfere appaiono distinte?»[7].

Forse perché abbiamo affidato alle scienze un compito troppo difficile: essere le divinità di tempi secolarizzati, essere le entità sacre di una postmoderna forma di politeismo; quando il mondo occidentale ha perso i propri capisaldi, le scienze hanno dovuto rappresentare la certezza.

Quanto peso è stato messo sulle loro spalle!

Abbiamo compiuto un enorme salto ontologico e, così facendo, abbiamo occultato il lato umano che c’è, c’è sempre stato e sempre ci sarà nell’impresa scientifica. Rendendola una divinità laica, l’abbiamo infatti sottratta a quel dominio che è il nostro dominio, ci siamo alienati, con le distorsioni e le illogicità che questa azione comporta. Quindi, non consideriamo le scienze come giganti ultraterreni ma come tessere di un insieme più ampio, che ci riguarda in modo diretto.

Dopo tutte queste considerazioni, dovremmo quindi sfiduciare la scienza? Assolutamente no!

Non dobbiamo scoraggiarla, ma contestualizzarla e capirla, comprendendo che le scienze sono costruzioni umane e, come tali, abitano in quello spazio fluido, di transizione, che è lo stesso delle nostre vite. Uno spazio effimero, contingente, sempre in movimento; può capitare infatti che le certezze di oggi non siano quelle di ieri e non saranno quelle di domani, tanto nelle nostre esistenze quanto nelle scienze. Ed è proprio questo che rende l’avventura scientifica così affascinante.

Scopo del blog Controversie è proprio quello di ripensare le scienze. Più nello specifico, ribaltare quell’idea scientista, di matrice neo-positivista, che le considera ingenuamente come depositarie di un sapere assoluto e come base di tutta la conoscenza.

Invece, è molto meglio (e più plausibile) considerare le scienze all’interno di un ambiente reale e concreto, facendole scendere dal piedistallo sul quale sono state poste affinché dialoghino con altre imprese umane come, per esempio, società, storia, arte o filosofia. È così che creeremo vera cultura: non isolando i saperi, ma mostrando che sono tutti immersi in una rete in cui comunicano, si confrontano e si influenzano, arricchendosi reciprocamente. Per imparare, si deve dialogare e, per dialogare, ci si deve incontrare. E non si incontrerà proprio nessuno, se si resta sul piedistallo.

Impareremo così ad amare la scienza, «ad amare il gigante maldestro per quello che è»[8].


NOTE

[1] Harry Collins, Trevor Pinch, Il Golem. Tutto quello che dovremmo sapere sulla scienza, trad. it, Bari, Edizioni Dedalo, 1995, p. 11.

[2] Ibidem.

[3] Ivi, p. 12.

[4] Ivi, p. 196.

[5] Ivi, p. 188.

[6] Ivi, p. 184.

[7] Ibidem.

[8] Ivi, p. 13.


Le tecnologie non sono neutrali. La lezione dimenticata del determinismo tecnologico

Il determinismo tecnologico (DT), nella sua forma più pura, è un approccio che vede le tecnologie e le innovazioni come indipendenti dalla più ampie dinamiche sociali.

L’idea è che la tecnologia sia il fattore determinate delle vicende umane e gli sviluppi tecnologici non siano guidati dall’attività umana, ma da una logica interna all’innovazione scientifica.

Un esempio è il concetto di blockchain e cryptovalute che, secondo chi li promuove, sono liberi dalla manipolazione del potere istituzionale e generano effetti sociali in modo autonomo; un secondo esempio è la IA che, secondo alcuni sostenitori  in grado aumentare le capacità umane e di rivoluzionare settori quali la finanza, sicurezza nazionale l’assistenza sanitaria ecc.

I principi del DT sono tre:

  • la tecnologia rappresenta una dimensione esterna rispetto alla società, in grado di agire al di fuori di essa;
  • ogni cambiamento tecnologico produce un cambiamento nelle forme di organizzazione e di interazione sociale;
  • la società si adatta alla tecnologia.

Il DT è stato molto criticato dagli Science and Technology Studies (STS), tra la fine degli anni ‘70 e l’inizio degli ’80, , ritenuto un approccio obsoleto, se non addirittura sbagliato, e “ridotto allo status di uno spaventapasseri” (Lynch 2008, 10).

Infatti, sociologicamente parlando, risulta difficile sostenere che le innovazioni tecnologiche riescano a plasmare in maniera univoca la nostra vita quotidiana.

Per cui è più interessante impostare delle analisi in cui, si tiene conto di una serie di dinamiche che le tecnologie innescano, senza però farsi affascinare troppo e senza pensare che queste siano le uniche possibili.

Dunque, è più corretto parlare di tre forme di DT:

  • forte: la tecnologia impatta sulla società e rappresenta il principale motore del cambiamento sociale;
  • media: la tecnologia determina lo sviluppo sociale e le possibilità d’azione dei soggetti;
  • leggera: la tecnologia influenza la società e orienta l’innovazione sociale.

Quindi, cosa possiamo salvare del determinismo tecnologico?

Ciò che di buono ha messo in luce il DT è che le tecnologie non sono neutre, ma producono degli effetti. Ovviamente poi possiamo discutere l’intensità di questi effetti. Ma un approccio sociale alle tecnologie deve partire dall’idea che la tecnologia non sia qualcosa di neutrale. Se così non fosse, le tecnologie sarebbero materia solamente per gli ingegneri o tecnologi. Invece, anche gli scienziati sociali possono dire la loro, partendo proprio dall’idea che la diffusione di una tecnologia è legata al proliferare delle dinamiche d’uso.

Quest’ultima idea è stata evidenziata da un altro approccio alle tecnologie: Social Construction of Technology (SCOT). Una delle lezioni fondamentali dello SCOT è che le tecnologie e i loro effetti, vanno misurate sempre in relazione ad altre cose, come l’infrastruttura esistente in un contesto o i gruppi sociali che entreranno in contatto con la tecnologia. Secondo lo SCOT non c’è niente di predeterminato nelle tecnologie; quindi, una nuova tecnologia all’inizio è caratterizzata da un certo tipo di “flessibilità interpretativa” ovvero un periodo in cui alcuni gruppi sociali si approcciano a una tecnologia e ci vedono alcune cose: per alcuni potrebbe essere utile per i propri fini, mentre per altri potrebbe essere pericolosa. Durante questo periodo entrano in gioco diversi “gruppi sociali pertinenti” che cercano di orientare l’artefatto nella loro direzione in base ai loro interessi.

In questo modo si raggiunge una stabilizzazione della tecnologia, incorniciandola, con uno specifico significato d’uso e una forma in grado di tenere insieme le diverse istanze poste dai vari gruppi.

Dunque, guardare alla tecnologia, come fa il DT, come una variabile indipendente che si origina dall’innovazione scientifica e si “impone” agli attori, determinandone le pratiche, le relazioni e le interazioni, risulta troppo radicale. Non è detto che se la tecnologia funziona in un determinato modo, allora le persone dovranno adattarsi e sforzarsi di far funzionare la tecnologia in quello stesso modo.

Risulta difficile pensare che la tecnologia offra determinati input alla società e che questa non possa far altro che adattarsi passivamente. Certo, le tecnologie non sono neutrali, ma diventano quello che sono nel momento in cui gruppi di utenti se ne appropriano, ad esempio un computer può essere utilizzato per lavoro, per lo studio, per giocare, guardare film ecc.

Il punto è che le tecnologie più diffuse sono quelle che vengono utilizzate nei modi più vari, ognuno le usa in base ai propri interessi, problemi, fini e attività quotidiane, permettono dunque una varietà di usi. Di conseguenza l’innovazione vincente non è tale soltanto perché contiene un elemento tecnico migliore o superiore ad altri, ma perché attraverso quell’elemento tecnico riesce a soddisfare una serie di istanze sociali.

Proviamo ora a fare un passo in avanti, attraverso un altro approccio alla tecnologia, l’Actor Network Theory (ANT), ovvero “un semplice metodo per imparare dagli attori senza imporre loro una definizione a priori circa la loro capacità di costruire il mondo” (Latour 1999, 20). Si tratta di un metodo che guarda alla realtà e agli attori senza partire dal presupposto che questi ultimi abbiano un qualche tipo di agency a priori. Attori umani e non-umani sono ugualmente capaci di dare forma ai processi che conducono all’emergere di un’idea, di una conoscenza o di una tecnologia.

Ma quindi in che modo possiamo descrivere il ruolo che hanno le tecnologie?

Una prima risposta è di guardare come gli oggetti intervengono all’interno delle azioni e delle pratiche e come le trasformano. Una nozione classica dell’ANT, è quella di script, ovvero ciò che è inscritto in un artefatto. L’idea è che nel processo di progettazione vengano inscritte, dai progettisti e designer, delle sceneggiature negli oggetti, dei copioni o delle istruzioni su come questi si devono utilizzare; e sono in grado di delineare ruoli, competenze e possibilità d'azione per chi interagisce con tale oggetto. In altre parole, inscrivono una certa idea di utilizzatore e per farlo introducono nell’oggetto alcune caratteristiche che riguardano le competenze dell’utilizzatore e delineano programmi d’azione e ruoli.

A questo punto potrebbe sembrare che lo script rappresenti solamente una serie prescrizioni e proscrizioni inscritte dal progettista e quindi una sorta di determinismo tecnologico, ma non è così. Il concetto di script è un concetto aperto, non ricade all’interno del determinismo tecnologico, è un partire dal presupposto che gli oggetti hanno una loro agency e contribuiscono in vari modi allo sviluppo di una azione, ma non la determinano mai.

Possiamo identificarne due aspetti. Il primo è l’inscrizione: progettisti e designer che tentano di inscrivere un qualche tipo di comportamento o azione nell’oggetto. In questa concezione l’oggetto un po' scompare. Il secondo è ciò che si ritrova inscritto nell’artefatto, ovvero il modo in cui le competenze, le possibili azioni, i ruoli degli utilizzatori sono effettivamente inscritti nell’artefatto. In questo senso l’oggetto assume una sua autonomia di cui dobbiamo tenere conto, il progetto dei designer non esaurisce le possibilità di un oggetto, ma ha una sua autonomia anche perché poi interagirà con altri oggetti e sarà sempre in trasformazione. In altre parole, si tratta di guardare le affordance (Gibson 1979), ovvero tutte quelle possibilità che gli utenti intravedono negli oggetti a partire dalle loro caratteristiche materiali e che non erano state previste dai progettisti. In questo modo gli utenti hanno l’occasione per fare qualcosa di diverso con l’oggetto che hanno di fronte.

In conclusione, la lezione del determinismo tecnologico è valida ancora oggi con alcune sfumature, ma il punto è che le tecnologie non sono neutrali. Gli STS sostengono la necessità di coltivare un approccio più “simmetrico” ai fenomenti sociali guardando alle tecnologie come pratiche sociali, ovvero si comprende l’utilità, la rilevanza, quando se ne osserva l’uso in contesti concreti. L’idea che sta dietro al concetto di affordance è che tutti quanti gli oggetti abbiamo un loro uso e ci pongono dei vincoli, però possiedono delle caratteristiche materiali che possono essere lette da chi li utilizza come inviti ad un uso diverso. La direzione non è quella di fermarsi a guardare la tecnologia-in-sé, ovvero come qualcosa che funziona ed è efficace indipendentemente dai suoi utilizzatori e contesti d’uso pratici. Piuttosto quello di focalizzarsi sulla tecnologia-in-uso (Orlikowski 1992; 2000; Gherardi 2008), ovvero come gli oggetti vengono ri-significati nella pratica, di conseguenza questi non nascono “efficaci” o “sicuri”, ma lo diventano nel momento in cui una comunità di utilizzatori, in specifici contesti d’uso, li costruisce come tali.

 


RIFERIMENTI

Gherardi S. (2008), La tecnologia come pratica sociale: un quadro interpretativo, in Gherardi S. (a cura di) Apprendimento tecnologico e tecnologie di apprendimento, Il Mulino, pp. 7-44.

Gibson J.G. (1979), Per un approccio ecologico alla percezione visiva, Angeli (ed. It. 1995)

Latour B. (1999), On recalling ANT, in “Actor Network Theory and After”, in J. Law, e J. Hassard  (a cura di), Oxford, Blackwell, pp. 15-25.

Lynch M. (2008), Ideas and perspectives, in E Hackett, O. Amsterdamska, M. Lynch e J. Wajcman (a cura di), The Handbook of Science and Technology Studies, Cambridge, MIT Press, pp. 9-12.

Orlikowski W.J. (1992), The duality of Technology: Rethinking the Concept of Technology in Organization, in “Organizational Science”, Vol. 3, n.3, pp. 398-427.

Orlikowski W.J. (2000), Using Technology and Constituting Structures: A Practice Lens for studying technology in organizations, in “Organization Science”, vol. 11, n.4, pp. 404-428.


Il complottismo degli anti-complottisti. Le trappole mentali dei debunkers

Da quasi un decennio i temi della post-verità, delle fake-news e delle teorie del complotto sono diventati un’ossessione non solo per i giornalisti, ma anche per gli accademici. Per alcuni sociologi, psicologi, filosofi ecc. sembra che tutti i mali del mondo vengano dai cospirazionisti, persone malate, irrazionali e anti-scientifiche, carbonari dei nostri giorni, che passano il loro tempo a fornicare sui social media, a costruire ad arte notizie false per poi diffonderle.

 

Un po’ di casi storici

Poi dopo qualche decennio si scopre, ad esempio, che il super testato dietilstilbestrolo (una specie di estrogeno prescritto tra il 1938-1971 per prevenire l'aborto spontaneo) causa centinaia di casi di adenocarcinoma (un tumore, solito insorgere mediamente intorno ai 17 anni) in donne nate (chiamate poi figlie DES) da madri che l’avevano assunto. Oppure che il super testato talidomìde, prescritto in particolar modo alle donne in gravidanza, provoca migliaia di nascituri con deformazioni (es. focomèlia); o, più recentemente (2004), che il super testato Vioxx, “un farmaco per l’artrite, largamente prescritto, fu scoperto aumentare il rischio di infarto e ictus, soltanto dopo esser stato sul mercato per cinque anni” (Conis, 2015: 233).

Per fare un altro esempio, ricordo che Albert Sabin, medico e virologo (inventore di uno dei due vaccini contro la polio), almeno sin dal 1980 (fino al 1993, anno della sua morte), manifestò più volte, mediante interviste stampa e TV, diverse perplessità su alcuni vaccini, sui vaccini antinfluenzali e sulle politiche vaccinali, anche italiane, come quella dell’obbligatorietà del vaccino antiepatite B, come ebbe a dire il 4 dicembre 1991 a RAI 3: «A mio giudizio si tratta di un errore grossolano e sono certo che il ministro della Sanità è stato molto mal consigliato. In realtà in Italia oltre l’80% di casi si verificano tra i tossicodipendenti che fanno uso di siringhe infette o che non cambiano siringhe (…) Affrontando questi aspetti del problema si otterrebbero risultati migliori di quelli garantiti dalla vaccinazione obbligatoria previsti dalla legge appena approvata...». Quel “mal consigliato” fu più chiaro vent’anni dopo, quando la magistratura accertò (con sentenza definitiva nel 2012) che l’allora ministro, il medico e liberale De Lorenzo, nel febbraio 1991 aveva ricevuto una tangente di 600 milioni di lire dalla Smith Kline Beechm (Glaxo), l’azienda produttrice proprio del vaccino Engerix B. Non risulta che De Lorenzo sia stato poi radiato dall’ordine dei medici.

Proprio quest’ultimo episodio ci insegna che i sociologi, psicologi, filosofi così ferventemente anti-complottismi dovrebbero avere un atteggiamento meno manicheo e più laico, aperto e tollerante.

Perché i complottismi di oggi potrebbero (ripeto cento volte ‘potrebbero’) essere le verità di domani.
In altre parole, un approccio cauto e “storico” non farebbe male. Come suggeriscono diversi autori (Di Piazza, Piazza e Serra 2018, Veltri e Di Caterino 2017, Cuono 2018, Lorusso 2018, Adinolfi 2019, Gerbaudo 2019, Ottonelli 2019) che hanno individuato diversi limiti epistemologici, descrittivi, normativi e strategici del concetto di post-verità.

Un caso per tutti è quello dell’amianto (ma si potrebbe parlare del tabacco, del DDT, dei coloranti per le bevande ecc.). Un minerale naturale conosciuto e usato sin dall'antichità e fino all'epoca moderna, per gli scopi più disparati: da magici e rituali fino a quelli industriali. In Italia il suo uso è proibito solo dal 1992. Ma “risale agli inizi del ’900 il primo processo in Italia (in Piemonte) nel quale venne condannato il titolare di un’azienda che lavorava amianto perché la pericolosità del minerale era stata ritenuta circostanza di conoscenza comune. La prima nazione al mondo a riconoscere la natura cancerogena dell'amianto, dimostrandone il rapporto diretto tra utilizzo e tumori e a prevedere un risarcimento per i lavoratori danneggiati, fu la Germania nazista nel 1943”[1]. Ma si sa: i nazisti facevano propaganda.

 

Patologizzare la critica sociale, comprimere il dissenso

Dal punto di vista scientifico, ‘complottismo’[2] è un termine che richiama un concetto con uno statuto epistemologico molto incerto e controverso. Tant’è che risulta essere un termine molto carico politicamente. Infatti secondo l’antropologo Didier Fassin (2021) esiste una tendenza crescente, nelle scienze umane, ad assimilare la critica sociale al pensiero cospirativo, utilizzando il secondo per delegittimare la prima. Per cui, mediante questo termine, abbiamo un inquinamento della sfera pubblica e un disincentivo alla partecipazione.

Allo stesso modo, il politologo greco Yannis Stavrakakis, parlando di ‘populismo’, argomentava che che è una categoria, più che descrittiva, normativa, e di conseguenza ‘performativa’, nel senso che è una costruzione di coloro che governano (gli anti-populisti) per imporre i loro “regimi di verità”, come li chiamava Michel Foucault (un autore che gli studiosi anti-complottisti sembrano aver dimenticato).

A tal fine, il filosofo della scienza Paul Feyerabend (1975), a cui il dibattito sul complottismo avrebbe probabilmente fatto ridere, diceva che “nella scienza occorre dar voce a tutti, anche ai punti di vista che in quel momento possono sembrare errati”. E continuava “è opportuno conservare tutte le teorie, anche quelle che nel corso del tempo sono state scartate, perché è sempre possibile che tornino attuali”, perché ogni teoria non è mai sviscerata in tutti i suoi aspetti: la deriva dei continenti, un tempo ritenuta una teoria pseudoscientifica, è oggi parte integrante del patrimonio scientifico, soprattutto dopo la scoperta delle prove paleomagnetiche che sostengono il concetto di tettonica a zolle. Anche l'evoluzione della specie o l'eliocentrismo furono inizialmente sottoposte a feroci critiche scientifiche.

E la filosofa femminista Sandra Harding sosteneva che “anche le scienze naturali (es. fisica e chimica), e non solo le scienze umane (es. sociologia e antropologia), sono influenzate anche dalle credenze e opinioni personali degli scienziati”.

 

Le trappole mentali dei debunkers e fact checkers

Sembrerebbe che solo i complottisti ragionino in modo surreale. Ed è compito dei debunkers e fact checkers, i Roland Freisler o gli Andrej Vyšinskij del XXI secolo, scoprire l’infondatezza di quelle che poi saranno definite fake news.

C’è però un particolare. Inquietante. I debunkers sono strabici: fanno il pelo sempre ai critici dello status quo, e quasi mai ai governanti o coloro che gestiscono il sistema dell’informazione. Per cui operano all’interno dei “regimi di verità” e dei “regimi di discorso”.

Altrimenti avrebbero indagato e scoperto l’infondatezza (per fare uno degli esempi più clamorosi) delle dichiarazione del Segretario di Stato americano, Colin Powell, che il 5 febbraio 2003 all’assemblea generale dell’ONU aveva mostrato le fotografie di laboratori mobili (si scoprì poi che erano dei modellini) di costruzione di armi biologiche (le famose armi di “distruzione di massa”) e avrebbero guardato cosa conteneva (talco anziché antrace) quella fialetta esibita teatralmente durante il suo discorso.

In altre parole, i debunkers e gli anti-complottisti soffrono delle stesse trappole mentali dei cosiddetti complottisti. Essi cadono nel fenomeno della “reazione all’oggetto” (Cacciola e Marradi 1988), fenomeno socio-cognitivo-emotivo, per cui nel dare un giudizio su una notizia si guarda alla fonte PRIMA che al contenuto. Per cui se la fonte è un’istituzione rispettata, allora le sue notizie non possono essere che vere (così successe per Colin Powell, mentre Saddam Hussein faceva propaganda). E’ viceversa.

Ma il contenuto della notizia non viene quasi mai esaminato senza preconcetti.

In conclusione, anti-complottisti “di terra, di mare e dell'aria”… datevi una calmata.

 


NOTE E BIBLIOGRAFIA

[1] https://www.inail.it/cs/internet/docs/dossier_storia_amianto-pdf.pdf

[2] Un tempo si chiamava “dietrologia” (vedi https://www.ilpost.it/2024/02/08/sgobba-quando-il-complottismo-si-chiamava-dietrologia/)

Adinolfi, M. (2019). Hanno tutti ragione? Post-verità, fake news, big data e democrazia. Roma: Salerno Editrice.

Cacciola Salvatore e Marradi Alberto (1988), Contributo al dibattito sulle scale Likert basato sull’analisi di interviste registrate, in Marradi (a cura di), Costruire il dato, Milano: Angeli, 63-105.

Conis, Elena (2015), Vaccine Nation. America’s Changing Relationship with Immunization, Chicago: University of Chicago Press.

Cuono, M. (2018). “Post-verità o post-ideologia: un problema politico,online e offline”. In Web e società democratica: un matrimonio difficile, a cura di E. Vitale and F. Cattaneo, 66–82. Torino: Accademia University Press.

Di Piazza, S., Piazza, F., and Serra, M. (2018). “Retorica e post-verità: una tesi controcorrente”. Siculorum Gymnasium 71 (4): 183–205.

Fassin, Didier (2021) Of Plots and Men. The Heuristics of Conspiracy theories,in Current Anthropology, 62(2), pp. 128-137.

Feyerabend, Paul K. (1975) Against Method, Londra: Verso Book. Trad. It. Contro il Metodo. Milano: Feltrinelli, 1979.

Gerbaudo, P. (2019). “Una falsità scomoda: fake news e crisi di autorità”. In Fake news, post-verità e politica, edited by G. Bistagnino and C. Fumagalli, 74–91. Milano: Fondazione Giangiacomo, Feltrinelli.

Harding, Sandra (1993). “Rethinking Standpoint Epistemology: What is Strong Objectivity” Feminist Epistemologies (a cura di) Alcoff L., Potter E., New York e Londra: Routledge.

Lorusso, A. M. (2018). Postverità: fra reality tv, social media e storytelling. Bari: Laterza.

Ottonelli, V. (2019). “Disinformazione e democrazia. Che cosa c’è di fake nelle fake news?”. In Fake news, post-verità e politica, a cura di G. Bistagnino and C. Fumagalli, 92–115. Milano: Fondazione Giangiacomo Feltrinelli.

Stavrakakis, Y. (2017). “How did ‘populism’ become a pejorative concept? And why is this important today? A genealogy of double hermeneutics”. POPULISMUS Working Papers 6.
http://www.populismus.gr/wp-content/uploads/2017/04/stavrakakis-populismus-wp-6-upload.pdf

Veltri, G. A., and Di Caterino, G. (2017). Fuori dalla bolla: politica e vita quotidiana nell’era della post-verità. Sesto San Giovanni: Mimesis.