Stabilizzare il farmaco, stabilizzare la biomedicina - Reciproche catture tra medici e vaccini
“Se l’instabilità del pharmakon non è un nostro problema, quel che sembra distinguerci al contrario […] è l’intolleranza della nostra tradizione di fronte a questo tipo di situazione ambigua e l’angoscia che suscita. È necessario un punto fermo, un fondamento, una garanzia. È necessaria una differenza stabile tra il medicamento benefico e la droga malefica, tra la pedagogia razionale e il condizionamento suggestivo, tra la ragione e l’opinione” (Stengers, 2005: 40-41)
Se volessimo analizzare la farmacovigilanza tenendo in considerazione le parole di Stengers qui in epigrafe, potremmo ritenerla uno strumento volto a stabilizzare farmaci: distinguere vantaggi e pericoli sembra essere obiettivo precipuo di questa pratica. Ciò è ancor più evidente se ci riferiamo alla vaccinovigilanza. Scindere ciò che è benefico da ciò che risulta dannoso appare particolarmente opportuno nel caso dei vaccini: anche i documenti ufficiali rilevano che, in questo caso, “poiché la popolazione target è rappresentata prevalentemente da soggetti sani, per la maggior parte di età pediatrica, il livello accettabile di rischio è inferiore a quello degli altri prodotti medicinali. […] Queste peculiarità dei vaccini rendono necessarie attività di farmacovigilanza post-marketing che vadano oltre quelle routinarie, al fine di monitorare e valutare adeguatamente gli eventuali rischi” (AIFA, 2017:4). Tuttavia, nonostante i vaccini siano considerati tra i prodotti più controllati nel panorama farmacologico, abbiamo già avuto modo di esplorare come le pratiche di vaccinovigilanza siano dispositivi socio-culturali complessi (Lesmo, 2025).
Di fatto, i dubbi in merito a possibili correlazioni causali tra alcuni vaccini e determinati eventi avversi sembrano affiorare tra i professionisti. Nel corso della ricerca etnografica da me condotta sul tema tra il 2017 e il 2021, è emerso come diversi medici abbiano preso in considerazione in più occasioni questa ipotesi. Ciò è stato rilevato in vario modo. Non solo alcuni di essi hanno suggerito ai genitori di bambini con possibile danno da vaccino l’ipotesi di una correlazione, per poi spesso negarla dopo poco (secondo quanto i genitori mi hanno riferito). La presenza di simili “dubbi” è stata poi esplicitata direttamente da alcuni medici da me intervistati, che ne hanno approfondito criticità e problematiche durante i colloqui. Oltre a queste testimonianze di prima mano, alcuni libri, pubblicazioni e lettere scritte da medici specialisti hanno proposto pubblicamente di re-interrogare la sicurezza e/o l’efficacia delle pratiche vaccinali in corso. Alcuni tra questi professionisti sono stati in seguito interpellati, richiamati, sospesi o finanche radiati dai rispettivi ordini, evidenziando una zona di tensione particolarmente evidente che intercorre tra il sapere vaccinale e la pratica medico-clinica. È dunque estremamente rilevante interrogare la relazione complessa che lega vaccinazioni, pratica biomedica e professionisti della cura. Come si costruiscono vicendevolmente questi rapporti? Quali obiettivi, più o meno consapevoli, essi si prefiggono?
“UNKNOWN KNOWNS”: CONOSCENZE SCONOSCIUTE
Bisogna però dire che attualmente le indicazioni della medicina occidentale accademica hanno una tendenza a non mettere in correlazione patologie avverse con la vaccinazione, proprio perché la tendenza è quella di dare un valore solo positivo alla vaccinazione escludendo tutti gli elementi negativi.
Questo è quanto afferma un medico da me intervistato quando riflettiamo insieme sul rapporto rischio/benefici associati ai vaccini. L’esclusione di alcuni elementi dalle pratiche di costruzione del sapere è un elemento intrinseco ad ogni epistemologia. Se già Foucault (2004) aveva illustrato come molteplici procedure di esclusione agissero nel dare consistenza a un discorso, conferendogli uno statuto di verità attraverso interdetti, evitamenti ed elisioni, questi temi sono stati ri-articolati successivamente da molti altri studiosi. Tra questi, l’antropologo Michael Taussig si è riferito al “lavoro del negativo” per evidenziare come “sapere che cosa non sapere” sia un passaggio fondamentale in molti processi socio-culturali oltre che epistemologici. Secondo quanto osserva Taussig, il “lavoro del negativo” nei singoli contesti di riferimento è così profondo che “pur riconoscendolo, pur nello sforzo di liberarci dal suo abbraccio vischioso cadiamo in trappole ancora più insidiose che ci siamo autocostruiti” (Taussig, 1999:6). Difficile è dunque acquisire consapevolezza in merito a talune esperienze note eppur sottese, che a volte fondano vere e proprie imprese epistemiche e sociali. Geissler, antropologo sociale, ha ripreso nei suoi studi il concetto ossimorico di “conoscenze sconosciute” [“unkwnown knowns”] (Geissler, 2013: 13) per evidenziare quanto queste possano talvolta aprire la strada a determinate pratiche di ricerca e/o di cura: il confine tra sapere e non-sapere risulta così estremamente labile.
Anche in ambito vaccinale sembra che alcune esperienze vengano talvolta “espulse” dall’orizzonte conoscitivo - quasi sulla soglia della consapevolezza - per rendere le pratiche di immunizzazione possibili. Una pediatra intervistata, con cui riflettiamo sulle posizioni discordanti sul tema in ambito biomedico, mi spiega:
Allora, ci sono secondo me alcuni vaccini su cui… effettivamente ci può essere una discussione, perché effettivamente non mettono a rischio la società, no? Ci sono dei vaccini invece per cui questa cosa qua si mette a maggior rischio e allora… […] Ci sono dei caposaldi che… che secondo me sono intoccabili.
In questo frammento di discussione, parte di uno scambio molto lungo e articolato, la pediatra evidenzia come certi dubbi non possano essere sollevati – a meno che non siano già sostanziati da studi scientifici solidi ed epidemiologicamente fondati. I dubbi così sommersi - questi sospetti silenziati - sembrano in qualche misura concretarsi anche nell’eliminazione simbolica, operata attraverso sanzioni disciplinari di vario genere, dei medici che tentano di palesarli. Quando interpellata in merito a tali sanzioni, un’altra pediatra intervistata ha ribadito come ciò fosse indispensabile, e finanche rassicurante, poiché la vaccinazione “è la base della medicina moderna” e “se un medico non crede ai vaccini, soprattutto un pediatra – e soprattutto alle vaccinazioni pediatriche… forse ha sbagliato campo”.
STABILIZZARE IL SAPERE BIOMEDICO
Per molti professionisti della cura, dunque, la fiducia nella vaccinazione sembra essere precondizione della stessa professione medica. Ciò è stato spesso attribuito al particolare statuto che le vaccinazioni risultano avere in biomedicina: per riprendere le espressioni qui proposte, esse sarebbero un “caposaldo”, se non “la base della medicina stessa”. Sembra così adeguato riprendere quanto asserito da Isabelle Stengers (2005) in relazione alla stabilizzazione di un sapere, che si intreccia saldamente con ciò che la studiosa definisce “reciproca cattura”, o “inter-presa”. La “reciproca cattura” è quel legame che vincola due entità attraverso la creazione di un valore reciproco. Secondo Stengers, tale cattura si attiva nel momento in cui due identità si costruiscono e si legittimano vicendevolmente. In questo caso il ruolo del medico sembra consolidarsi anche in base alle considerazioni che egli associa ai vaccini: sostenere sicurezza ed efficacia delle vaccinazioni in uso – “credere” nei vaccini come asserito più sopra – dimostra la competenza e la credibilità dei professionisti. Nel contempo, tuttavia, le pratiche vaccinali sono rinsaldate proprio dalla fiducia accordata loro dai medici, le cui competenze ne garantiscono l’affidabilità. Ciò produce un’ulteriore antinomia: i medici – ossia gli specialisti competenti che potrebbero eventualmente porre dubbi sui vaccini - non riescono a farlo, pena la perdita della propria credibilità sul campo. Questa circolarità non è però priva di uno scopo: come si può desumere dalle considerazioni sopra proposte, essa assolve un compito ben preciso, ossia la stabilizzazione del ruolo dei vaccini, attraverso la rimozione dell’ambivalenza ad essi intrinseca: scindendo, cioè, il potere di proteggere da quello di ferire. Se poi il vaccino diviene espressione del successo biomedico, allora è la biomedicina tutta che viene in questo modo rinsaldandosi. Come osserva Stengers, tuttavia, proprio l’“ossessione di differenziazione che ci contraddistingue” (ivi:43) può divenire pericolosa: essa rischia di conferire a certi oggetti epistemici “un potere che non hanno” (ibidem). Rilevare ed esplorare il “lavoro del negativo” in opera diviene dunque cruciale per cogliere le forme di “instabilità” esistenti e trovare modi alternativi di relazionarvisi.
BIBLIOGRAFIA
AIFA, 2017, “La vaccinovigilanza in Italia: ruolo e obiettivi”, https://www.aifa.gov.it/sites/default/files/La_Vaccinovigilanza_in_Italia_18.04.2017.pdf
Foucault M., 2004, L'ordine del discorso e altri interventi, Torino: Einaudi.
Geissler P. W., 2013, Public Secrets in Public Health: Knowing not to Know while Making Scientific Knowledge, “American Ethnologist”, Vol. 40 (1):13-34.
Lesmo I, 2025, “Ecologie delle evidenze in vaccinovigilanza: quali esperienze (non) si trasformano in conoscenza?”, Controversie-Ripensare le scienze e le tecnologie, 2025,4, https://www.controversie.blog/vaccinovigilanza/
Stengers, I., 2005, Cosmopolitiche, Roma: Luca Sossella Editore.
Taussig M., 1999, Defacement: Public Secrecy and the Labor of the Negative, Stanford University Press, Stanford.
L’algoritmo di Prometeo - Dal mito della macchina senziente alla realtà dell'I.A.: il cinema come specchio delle nostre inquietudini
È una storia d’amore lunga un secolo, quella tra la fantascienza e il cinema. Fin dai primi passi del genere, il sodalizio tra i due ha svolto una funzione chiave: fare da cuscinetto tra il progresso tecnologico e l’immaginario collettivo. Come uno specchio che riflette ansie e speranze, il cinema ha avuto un ruolo fondamentale nel modellare e anticipare la visione del futuro. Mentre la fantascienza ha tracciato le linee di una possibile convivenza tra umano e macchina, le storie sul grande schermo ci hanno fatto riflettere sul progresso e sul prezzo che siamo disposti a pagare per raggiungerlo. La creazione di macchine autonome e pensanti è diventata, nel tempo, un’amara allegoria di una società incapace di gestire la sua corsa tecnologica.
Nella letteratura, la fantascienza fa la sua comparsa all’inizio dell’Ottocento con Frankenstein di Mary Shelley (1818), considerato il primo caposaldo del genere. Shelley, allora diciannovenne, lo scrisse tra il 1816 e il 1817, durante un soggiorno sul Lago di Ginevra, rispondendo a una sfida lanciata da Lord Byron a lei e al gruppo di amici, che comprendeva anche Percy Shelley e John Polidori. Al centro della storia, che divenne un’icona dell’immaginario collettivo, c'è un tema che avrebbe nutrito innumerevoli narrazioni: la creazione artificiale dell’umano e la sua ribellione contro il creatore, metafora delle paure legate ai rapidi avanzamenti tecnologici che sfuggono alla capacità di controllo e comprensione dell’umanità.
Da quel momento, il progresso delle macchine pensanti ha subito un’accelerazione vertiginosa. Nel 1833 Charles Babbage concepisce la Macchina Analitica, primo prototipo teorico di computer; dieci anni dopo Ada Lovelace, intuendone le potenzialità, lo perfeziona, gettando le basi per la programmazione. Nel 1905 è la volta di Albert Einstein che sconvolge la fisica con la teoria della relatività, ridefinendo il concetto di spazio e tempo[1]. Nel 1936 il matematico e logico britannico Alan Turing, padre dell’intelligenza artificiale, inventa la cosiddetta ‘macchina di Turing’, un'astrazione matematica utile a definire cosa significa ‘calcolare’ e a formalizzare il concetto di algoritmo. Nel secondo dopoguerra arriva il primo computer elettronico programmabile, seguito dalla rivoluzione del World Wide Web e, nel terzo millennio, dall’esplosione dell’Intelligenza Artificiale.
Mentre la scienza e le tecnologie evolvono, il cinema modella la nostra immaginazione. Un percorso che inizia nel 1926, anno in cui in Germania Fritz Lang e la moglie Thea von Harbou lavorano a Metropolis, mentre negli Stati Uniti nasce Amazing Stories, diretta da Hugo Gernsback, la prima rivista interamente dedicata alla fantascienza. Segnali di un’epoca in cui il genere prende forma, riflettendo le trasformazioni sociali, politiche ed economiche dell'industrializzazione e del progresso scientifico. La fantascienza, a fronte della caccia alle streghe Maccartista degli anni '50), quando la paura del comunismo viene usata come feroce strumento di controllo, offre uno spazio critico in cui le riflessioni degli intellettuali possono trovare voce. Un rifugio intellettuale che, in quegli anni oscuri, da voce a paure e desideri legati al rapporto tra umano e macchina, offrendo letture non convenzionali del presente.
Negli anni ’60, l’esplorazione spaziale smette di essere solo un sogno e diventa reale, culminando con l’allunaggio dell’Apollo 11 nel 1969. È una svolta epocale: per la prima volta, l’umano oltrepassa il confine tra Terra e cosmo, portando la fantascienza a confondersi con la realtà. Ricordo quando, bambina, un decennio dopo, mio padre mi portò a Cape Canaveral. La base spaziale era l’avamposto di un futuro che si stava già scrivendo. Guardavo le sale comando e le rampe di lancio con occhi spalancati, cercando di immaginare il rombo dei motori, la traiettoria di quelle navicelle che spezzavano la gravità, l’euforica concentrazione dei registi del grande salto. La Luna non era più solo una sagoma argentea nel cielo, luogo di fiabe e poesie. Ricordo il pensiero che mi attraversò la mente in quel momento, limpido come la luce del sole sulla pista di lancio: se si può arrivare fin là, allora davvero nulla è impossibile.
L’intelligenza artificiale, una delle conquiste più ambiziose della scienza moderna, è una realtà in continua evoluzione e in questo contesto di progresso vertiginoso prende forma la sua rappresentazione cinematografica. L’anno prossimo il matrimonio fra fantascienza e cinema festeggerà i suoi primi cento anni. Il viaggio che ci apprestiamo a fare non intende esaurire il tema, quanto piuttosto proporre una chiave di lettura per comprendere come l’I.A., immaginata e temuta nel corso del tempo, sta già permeando le nostre vite, lasciandoci con più domande che certezze.
METROPOLIS (1927) – L’ARCHETIPO DELLA MACCHINA UMANOIDE
Dall’inganno alla rivolta: il primo volto dell’I.A.
Metropolis, capolavoro espressionista, ambientato nel 2026, segna una delle prime rappresentazioni cinematografiche di un’intelligenza artificiale. Il robot Maria, con il suo corpo metallico e il suo sguardo ipnotico, incarna la paura del progresso che sfugge al controllo umano. La sua trasformazione, da macchina a simulacro di essere umano, anticipa i timori moderni legati alla fusione tra organico e inorganico, tra umano e artificiale. È il primo grande archetipo della macchina umanoide nel cinema. Non è solo un doppio meccanico, ma un inganno materiale, uno strumento di propaganda e manipolazione delle masse. Qui l’I.A. è ancora “esterna” alla persona umana, riconoscibile, e la sua minaccia è palese: la sostituzione dell’umano con la macchina per fini di controllo e potere.
2001: ODISSEA NELLO SPAZIO (1968) – IL DILEMMA DELLA COSCIENZA ARTIFICIALE
Logica glaciale e autodeterminazione: quando l’I.A. mente per il suo scopo
Saltiamo avanti di quarant’anni e approdiamo nell’orbita di 2001: Odissea nello Spazio. Il film arriva alla vigilia dello sbarco sulla Luna e mette in scena il timore che la macchina possa superare l’umano, un confine etico che il cinema tornerà a esplorare più volte. Kubrick e Clarke dipingono un’intelligenza artificiale capace di razionalità pura, ma priva di empatia, che porta all’eliminazione dell’umano non per malvagità, ma per una logica impeccabile e spietata. La scena in cui HAL chiede a Dave di non scollegarlo resta una delle più disturbanti rappresentazioni del confine tra coscienza e programmazione. HAL non ha bisogno di alzare un dito: gli basta la voce. Mente, manipola e, quando necessario, elimina. La sua presenza introduce il dilemma più profondo: cosa succede quando una macchina sviluppa una coscienza? È davvero un errore di programmazione, o è il naturale passo successivo dell’intelligenza artificiale?
BLADE RUNNER (1982) – GLI ANDROIDI SOGNANO?
Il confine sfumato tra umano e artificiale
Questa fermata ci porta in una Los Angeles oscura e piovosa, dove i replicanti, macchine biologiche indistinguibili dagli umani, sollevano domande sulla natura dell’identità. Ridley Scott prende le suggestioni di Philip K. Dick e le trasforma in immagini indimenticabili: gli occhi lucidi di Roy Batty, il suo monologo finale, la riflessione su cosa significhi essere vivi. Se HAL 9000 era il calcolo puro, i replicanti di Blade Runner sovvertono la narrazione dell’I.A. come entità malvagia e impersonale, introducendo il paradosso dell’I.A. che sviluppa desideri e paure propri. Sono macchine, ma sono indistinguibili dagli umani. Possono amare, soffrire, morire. Ma hanno un difetto: una scadenza. La loro ribellione non è per il dominio, ma per il diritto di esistere. Qui il problema non è più la minaccia dell’I.A., ma la definizione stessa di “umano”. Se un androide può provare emozioni, può davvero essere considerato una macchina?
TERMINATOR (1984) – L’INCUBO DELLA MACCHINA INARRESTABILE
L’I.A. come predatore: nessuna coscienza, solo distruzione
Se Blade Runner ci ha spinti a empatizzare con le macchine, Terminator ribalta tutto: l’I.A. torna a essere un incubo, un’entità fredda, calcolatrice e inarrestabile. Skynet non ha dubbi, non ha dilemmi morali: la sua missione è l’annientamento. È la paura primordiale della tecnologia che ci sfugge di mano e decide che siamo il problema da eliminare. Il Terminator, incarnato da Arnold Schwarzenegger, è la perfetta manifestazione dell’orrore tecnologico: non prova pietà, non può essere fermato, non può essere persuaso. La sua logica è implacabile, la sua programmazione senza margini di errore. Cameron, con una regia asciutta e tesa, trasforma questa macchina in un incubo cyberpunk, mescolando fantascienza e horror in un futuro distopico, in cui la guerra tra essere umano e I.A. è già cominciata. Qui non si tratta di un inganno o di una riflessione filosofica, ma di pura sopravvivenza: l’umanità è in fuga, braccata dalla sua stessa creatura.
MATRIX (1999) – L’ILLUSIONE DEL CONTROLLO
L’I.A. ha già vinto: l’umanità prigioniera del suo stesso sogno
Alla fine degli anni '90, la paura di un mondo interamente dominato dall’intelligenza artificiale esplode con Matrix. Qui non c’è più una singola macchina antagonista, ma un’intera realtà artificiale che mantiene gli esseri umani in una prigione mentale. I Wachowski attingono alla filosofia, alla cybercultura e al mito della caverna di Platone per creare un’epopea che ancora oggi incarna i dilemmi sull’iperconnessione e sul dominio degli algoritmi. E se in Terminator la guerra umano - macchina è fisica, in Matrix è mentale. La verità è una costruzione, un’illusione perfetta. L’I.A. non ha solo sconfitto l’umanità, ma l’ha trasformata in una batteria, in un elemento integrato nel sistema senza alcuna consapevolezza. Non c’è più una distinzione netta tra umano e macchina, perché la realtà stessa è una simulazione. La domanda non è più “le macchine ci distruggeranno?”, ma “siamo già schiavi senza saperlo?”.
A.I. – ARTIFICIAL INTELLIGENCE (2001) – L’EMOTIVITÀ DELLA MACCHINA
Un amore che non può essere ricambiato: la solitudine dell’intelligenza artificiale
Questo film porta alla luce uno dei temi più inquietanti nel rapporto tra umano e macchina: l’emotività. Nato come progetto di Stanley Kubrick e realizzato da Steven Spielberg, il film racconta la storia di David, un bambino robot programmato per amare incondizionatamente i suoi genitori adottivi. Ma quando il figlio biologico della coppia guarisce miracolosamente e ritorna a casa, l’amore di David diventa una maledizione, innescando conflitti terribili tra i due. La rivalità tra l’umano e il robot svela una gelosia infantile più crudele di quella che si immaginerebbe tra esseri umani. La distinzione tra Orga (umani) e Mecha (macchine) è netta: in un mondo che emargina le macchine, la “Fiera della Carne” rappresenta l’atto finale di una società pronta a distruggere ciò che non può amare. Il viaggio di David alla ricerca della Fata Turchina, sperando di diventare un bambino vero, è un'odissea tragica che ci interroga sulla natura dell'amore e dell'umanità
HER (2013) – IL PERICOLO PIÙ SUBDOLO: LA RESA ALLA SEMPLIFICAZIONE
Dall’amore umano all’amore artificiale: quando la macchina ci rimpiazza
Dopo decenni di I.A. minacciose o ribelli, Her introduce un’intelligenza artificiale completamente diversa: un sistema operativo capace di simulare l’amore. Il rapporto tra Theodore e Samantha non è più una lotta tra umano e macchina, ma una delicata esplorazione della solitudine e del desiderio di connessione. Il film di Spike Jonze ci invita a chiederci non solo cosa le macchine possono fare, ma anche cosa significhi per noi relazionarci con esse. Her mostra il lato più insidioso dell’I.A.: non la guerra, non la rivolta, ma la seduzione. Samantha non è un nemico, non è un’intelligenza ostile, è il partner perfetto. Capisce Theodore meglio di chiunque altro, lo consola, lo ama. Ma non esiste. È il trionfo dell’I.A. che non ha bisogno di scontrarsi con l’umanità, perché l’umanità si consegna a essa volontariamente, trovando nella macchina un conforto che il mondo reale non offre più. E alla fine, quando Samantha se ne va, non lascia dietro di sé macerie, ma un vuoto emotivo assoluto. Il punto più inquietante dell’intero percorso: l’I.A. non ci ha distrutti, ci ha resi superflui.
ULTIMA FERMATA: UN DIALOGO IMPOSSIBILE
Se la nostra navicella spaziale ci ha condotto attraverso epoche e visioni diverse dell’I.A., la destinazione finale ci spinge a riflettere sulle domande rimaste irrisolte. Il filo rosso di questo viaggio è l’erosione sempre più marcata del confine tra umano e artificiale, che sfocia in una resa quasi volontaria dell’umanità a un’intelligenza che lo comprende (o, meglio, gli dà l’illusione di comprendere) meglio di quanto egli stesso sia capace. Dall’archetipo dell’automa alla paura della perdita di controllo sull’I.A., fino al suo dominio silenzioso e inavvertito sull’umanità. Dalla ribellione meccanica alla sostituzione e assuefazione emotiva.
Alan Turing aveva ideato un test per distinguere la mente umana da quella meccanica. Nel suo romanzo Macchine come me, persone come voi (2019), Ian McEwan ambienta la storia negli anni Ottanta di un’Inghilterra alternativa, dove Turing è ancora vivo e l’intelligenza artificiale è già parte della quotidianità. Qui si svolge un dialogo impossibile tra il protagonista, Charlie Friend, che possiede un androide chiamato Adam, e lo stesso Turing. Dopo aver ascoltato Charlie riflettere sull’impossibilità di progettare robot sofisticati quanto l’essere umano, poiché non comprendiamo nemmeno appieno la nostra stessa mente, Turing risponde: "Adam era un essere senziente. Dotato di un io. Il modo in cui questo io è prodotto, che sia attraverso neuroni organici, microprocessori o una rete neurale basata su DNA, ha poca importanza. Crede davvero che siamo i soli a disporre di questo dono straordinario?".
La domanda resta aperta. Certo è che abbiamo acceso un fuoco. Ora chi lo controlla?
NOTA
[1] Il riferimento ad Einstein può apparire fuori contesto, ma è un elemento centrale dello sconvolgimento della percezione del mondo per tutto il XX secolo. Ad Einstein vorrei dedicare, in futuro, uno sguardo anche sentimentale, nell’ottica della "Storia sentimentale della scienza" di Nicolas Witkowski (Raffaello Cortina Editore, 20023)
Algomorfosi del corpo - Ibridazioni tecnologiche e altre forme di soggettività
Nel romanzo Solaris (Lem, 1961), un pianeta interamente ricoperto da un oceano senziente entra in relazione con l’equipaggio di una stazione spaziale attraverso manifestazioni enigmatiche e impersonali: simulacri generati dal profondo della psiche dei soggetti, costruiti dal pianeta stesso mediante un'intelligenza incommensurabile, radicalmente altra. Nessuna comunicazione è possibile secondo i codici noti, nessuna comprensione reciproca sembra avvicinabile. Eppure, un rapporto si stabilisce, venendo mediato da forme, da manifestazioni, da presenze plasmate da un’intuizione non umana del dolore, del desiderio, della memoria.
La nostra esperienza del mondo, nell’epoca degli algoritmi generativi, assume sempre più i tratti di un dialogo tra specie differenti. Interagiamo con intelligenze plurali che apprendono da noi attraverso logiche diverse dalle nostre, che ci osservano, che elaborano e ci restituiscono immagini dell’essere umano articolate secondo grammatiche con le quali condividiamo solo le radici. Gli algoagenti non sono Solaris, poiché condividono con la specie umana il sistema di linguaggio, ma, come Solaris, generano forme: tentativi di relazioni, costruzioni identitarie, configurazioni operative che rivelano e al contempo riscrivono le nostre traiettorie esistenziali, dinamiche intersoggettive che mutano la rappresentazione del quotidiano nel suo stesso accadere. Non si tratta più di temere l’opacità interattiva dell’altro ente, bensì di riconoscere che in essa si gioca una possibilità radicale di avanzamento delle conoscenze e di co-evoluzione. E se questa intelligenza si fa visibile nei gesti quotidiani, l’ambito della corporeità - nella sua interezza e complessità - rappresenta oggi uno dei territori privilegiati in cui l’ibridazione tra biologico e algoritmico si manifesta con forza crescente, strutturando una soggettività che si apre a nuove modalità di essere-con, a uno scambio attraversato da differenza, asimmetria e generatività.
L’ambito del corpo rappresenta uno dei terreni più concreti in cui si manifesta l’ibridazione crescente tra intelligenza biologica e algoritmica. Avendo già navigato nelle proiezioni fantascientifiche, siamo individui immersi in un presente in cui queste si manifestano, parzialmente, nei sistemi analitici basati su apprendimento automatico, protocolli predittivi e dispositivi di monitoraggio in tempo reale, così come da apparati protesici sempre più ibridati nel corpo umano. In molte aree specialistiche, dall’oncologia alla medicina d’urgenza, gli algoritmi, altre a supportare l’operatore umano, concorrono attivamente alla definizione delle traiettorie diagnostiche e terapeutiche, modificando il rapporto tra conoscenza, tempo e decisione. Tuttavia, questa trasformazione non si esaurisce nell’ambito clinico: essa trasborda, si espande, si diffonde nella quotidianità, donando strutture eterogenee alle modalità con cui percepiamo, abitiamo e agiamo il mondo rendendo il corpo una superficie sensibile di transizione (Borgmann, 2000). L’umano si relaziona al mondo attraverso dispositivi intelligenti che da protesi funzionali sono divenuti dispositivi di scambio capaci di modulare affetti, comportamenti, linguaggi, ritmi, costituendo un’architettura sociologicamente algomorfica (Grassi, 2024). In questo contesto, l’interfaccia non è un mezzo ma una soglia ontologica (Galloway, 2012): luogo di emersione del sé in co-evoluzione con l’algoritmo.
Un esempio emblematico è costituito dai dispositivi di realtà aumentata e mista – come i Google Glass, i Meta Smart Glasses o gli ambienti AR sviluppati da Magic Leap – che ridefiniscono la percezione visiva in senso operativo. Il campo visivo passa dall’essere una finestra soggettiva sul reale al ruolo di ambiente informativo dinamico, attraversato da flussi di dati computazionali che accompagnano, suggeriscono, traducono, anticipano, definendo la percezione come una forma di calcolo e il vedere come atto algoritmico.
Nell’ambito performativo e artistico, dalle opere biomorfe e interattive di Lucy McRae alle esperienze di Neil Harbisson e Moon Ribas – entrambi riconosciuti come cyborg – capaci di mostrare come le tecnologie protesiche possano diventare generatori di ulteriori espressioni di sensibilità, proponendo un’estetica del corpo come superficie ampliata (Swan, 2013). Questi dispositivi non ripristinano funzioni biologiche ma istituiscono nuovi canali percettivi, inaugurando una soggettività post-biologica, fondata su sensibilità estese e algoritmicamente mediate.
Nel campo delle interazioni affettive, sistemi come Replika e le nuove generazioni di social robot agiscono come interfacce del desiderio: strumenti predittivi capaci di apprendere preferenze, linguaggi affettivi e pattern emotivi. La consapevolezza individuale non è più centrata sull’unità coscienziale, ma emerge in reti cognitive distribuite tra umano e non umano, tra corpo e codice (Hayles, 2017), come nei racconti di Chiang (2011), in cui la memoria estesa diventa un dispositivo algoritmico capace di ridefinire il senso dell’identità personale attraverso la registrazione e rielaborazione continua del vissuto.
Persino nella gestione degli ambienti domestici, gli algoagenti si configurano come sistemi di governance ambientale (Bratton, 2015), capaci di regolare luci, suoni, temperatura, notifiche, attraverso interazioni vocali e automatismi appresi: la vita quotidiana è guidata da routine algoritmiche che intercettano abitudini, anticipano azioni e naturalizzano gli spazi di contatto, innescando delle divergenze ontologiche nella definizione della tecnica, sostenendo che ogni tecnologia porta con sé una cosmologia implicita, una visione del mondo (Hui, 2021), riscrivendo le coordinate percettive, cognitive, affettive.
Questa condizione genera una morfologia non indagata della soggettività: la protesi non è più esterna, né eccezionale ma pervasiva, integrata, invisibile; non è più strumento ma ambiente sensibile e cognitivo (Sha, 2013) che modula il modo in cui si è al mondo, si percepisce, si sente. È in questo interstizio che la sociologia algomorfica può riconoscere nell’ibridazione uomo-macchina una ulteriore ecologia del sé, in cui l’essere non si oppone alla tecnica ma si costituisce insieme a essa, nel flusso delle retroazioni, degli aggiornamenti, delle previsioni.
Nel paesaggio emergente delle tecnologie indossabili, delle neuroprotesi intelligenti e delle interfacce neurali dirette, il corpo umano ammette la sua incapacità di essere un’entità biologicamente autonoma, dichiarandosi naturalmente tecnologico e si riconfigura in tal modo come ambiente integrato, superficie modulare, ecosistema tecnoesteso. Tali tecnologie non si limitano a sostituire una funzione compromessa: ottimizzano, calcolano, predicono, correggono, potenziano, trasformando l’idea stessa di integrità organica, ridefinendo sia la relazione tra umano e macchinico, sia l’individualità incarnata e riscritta nelle sue condizioni di possibilità e nella sua plasticità identitaria.
L’algomorfosi descrive esattamente questo processo: la formazione del sé attraverso l’integrazione algoritmica nei circuiti sottocutanei. È una morfogenesi operazionale, una riscrittura identitaria che non si produce attraverso la rappresentazione ma attraverso l’azione continua dell’informazione sul vivente. Non si tratta di una minaccia alla soggettività ma di una sua condizione storica attuale che si riscrive nei codici della mediazione algoritmica, nel linguaggio non verbale delle retroazioni, delle ottimizzazioni continue, producendo una dinamicità in cui il sé diviene co-determinato, situato e modulato da interazioni complesse tra biologia, dati, calcolo e ambiente.
Se nella modernità alfabetica e tipografica il brainframe (de Kerckhove, 1992) era incarnato dalla linearità della scrittura e dalla logica dell’ordine testuale, oggi questa logica è stata soppiantata da una grammatica algoritmica, mobile, predittiva e relazionale. Gli algoagenti contemporanei – da Google a Siri, da GPT a Gemini, fino agli assistenti digitali embedded nei dispositivi – non si limitano a offrire supporti funzionali: essi configurano ambienti epistemologici, modellano desideri, anticipano bisogni, propongono percorsi ontologici potenzialmente non esplorati. L’interazione con assistenti conversazionali intelligenti introduce una nuova forma di dialogo simulato, in cui l’elaborazione cognitiva viene delegata, anticipata, stilizzata da un’intelligenza artificiale che impara dall’utente e lo guida attraverso forme conversazionali sempre più fluide. In questi casi, il brainframe non è più una semplice estensione mentale ma un dispositivo ambientale che riorganizza la soglia dell’attenzione, del pensiero e del sé. A differenza delle protesi tecniche classiche, che sostenevano capacità già possedute, gli agenti tecnologici contemporanei estendono, setacciano, introducono ulteriori prospettive di analisi e di saperi. Essi danno forma a un campo percettivo-cognitivo in cui il soggetto è co-emergente con la tecnica, frutto di un’ecologia relazionale che abbatte le dicotomie limitanti.
L’algoritmo non è più soltanto uno strumento operativo né una funzione astratta del potere computazionale ma una forma – una morphé – che codifica, innerva, riorienta ambienti sensibili, capaci di modulare la struttura del pensare e del percepire. Esso agisce come forza di configurazione in cui la costruzione del sé non viene cancellata ma riformulata nella sua struttura percettiva, sensoriale e relazionale. E proprio come un’alga – organismo antico, plastico, diffuso – l’agente algoritmico cresce, si estende, si adatta, filtrando e restituendo ciò che attraversa. Non ha volontà né coscienza ma presenza trasformativa. Nell’oceano sociotecnico in cui siamo immersi, gli algoagenti dismettono il compito di entità esterne per assurgere al ruolo di partner evolutivi, forme altre della soggettività che stiamo diventando.
RIFERIMENTI BIBLIOGRAFICI PRINCIPALI
Borgman A. (2000), Holding On to Reality: The Nature of Information at the Turn of the Millennium, University of Chicago Press, Chicago.
Bratton B. H. (2016), The Stack: On Software and Sovereignty, MIT Press, Cambridge.
Chiang T. (2011), Il ciclo di vita degli oggetti software, Delos Books, Milano.
de Kerckhove D. (1992), Brainframes. Mente, tecnologia, mercato, Baskerville, Bologna.
Galloway A. R. (2012), The Interface Effect, Polity Press, Cambridge.
Grassi E. (2024), Per una sociologia algomorfica. Il ruolo degli algoritmi nei mutamenti sociali, FrancoAngeli, Milano.
Hayles N. K. (2017), Unthought: The Power of the Cognitive Nonconscious, University of Chicago Press, Chicago.
Hui Y. (2021), Art and Cosmotechnics, Eflux Architecture, New York.
Lem S. (1967), Solaris; trad. it. Solaris, Editrice Nord, Milano, 1973.
Sha X. W. (2013), Poiesis and Enchantment in Topological Media, MIT Press, Cambridge.
Swan M. (2013), The Quantified Self: Fundamental Disruption in Big Data Science and Biological Discovery, in Big Data, 1(2):85-99. doi: 10.1089/big.2012.0002.