Decomputing come atto di resistenza – Seconda parte

Nella prima parte di questo articolo ho esaminato come l'I.A. «sia di per sé un problema tecnico, un balbettante passo falso dell'ordine neoliberista che ne suggerisce l’intrinseco disordine», tracciando un percorso che ne tocca la dannosità, la dimensione violenta – sia dal punto di vista geopolitico che ambientale – l’effetto perverso della scalabilità, per arrivare al concetto di tecnofascismo.

Quello che proporrò, ora, come contromisura è il decomputing; un approccio che prende di mira direttamente l'intelligenza artificiale, ma riguarda e intende scollegare qualcosa di più del solo digitale, fino a riconfigurare le nostre relazioni sociali ed economiche più ampie.

DECRESCITA

Il decomputing è un tentativo di rispondere ai danni sociali e ambientali, via via crescenti, che l’attuale evoluzione tecnopolitica sta producendo; e, il rifiuto della scalabilità è un modo per mitigare gli effetti peggiori e un’euristica mirata a trovare modi alternativi di procedere.

Al contrario della scalabilità dell'IA – il cui fascino e potere è basato sul principio unificante della crescita senza restrizioni - il decomputing è una svolta verso la decrescita, una sfida esplicita all'estrattivismo dell'IA e alle sue logiche sistemiche.

Soprattutto, la decrescita non è semplicemente un rifiuto di dipendere dall'espansionismo, un tentativo di interrompere – qui e ora - l'estrattivismo dell'IA, ma uno spostamento dell'attenzione verso un metabolismo alternativo basato sulla sostenibilità e la giustizia sociale.

DEAUTOMATIZZAZIONE

Il principio del decomputing si oppone alla scalabilità anche perché questa induce uno stato di automatizzazione, in cui l'autonomia e la capacità di pensiero critico sono minate dall'immersione in un sistema di relazioni macchiniche.

In questo senso, l'IA è un'intensificazione delle strutture istituzionali, burocratiche e di mercato che già spogliano i lavoratori e delle comunità della loro agentività, e la collocano in meccanismi opachi e astratti. Il decomputing, al contrario, è la districazione del pensiero e delle relazioni dalle influenze riduttive delle logiche – appunto – burocratiche e di mercato che l’IA replica e rafforza.

Come esempio pratico, possiamo prendere in considerazione il caso del processo di tagli algoritmici al welfare, che viene legittimato proprio dalla presenza di un umano (human-in-the-loop) – come elemento di controllo: l’azione umana, il cui obiettivo dovrebbe essere di garantire un processo giusto, viene neutralizzata dal bias dell'automazione e dall’architettura delle scelte che tende ad allinearsi alla proposta – presunta neutrale – della macchina.

Il decomputing si propone, invece, come modello di sviluppo di forme alternative di organizzazione e di processo decisionale, sostenute dal giudizio riflessivo e dalla responsabilità situata.

Il decomputing riguarda, sia la deprogrammazione della società dalle sue certezze tecnogeniche quanto la decarbonizzazione delle sue infrastrutture computazionali.

La dataficazione e l'ideologia dell'efficienza giocano un ruolo chiave nelle ottimizzazioni negligenti e disumanizzanti dell'IA.

Il decomputing tenta, invece, di strappare la prassi sociale alla crudeltà utilitaristica apertamente celebrata dai seguaci della tecnopolitica reazionaria.

Si tratta di un deliberato allontanamento dai quadri alienanti dell'efficienza e dell'ottimizzazione e di un ritorno al contesto e alle "questioni di cura" in cui le nostre reciproche vulnerabilità e dipendenze sono centrali per la riproduzione sociale.

STRUMENTI CONVIVIALI

Il decomputing afferma che lo sviluppo e l'implementazione di qualsiasi tecnologia avanzata con impatti diffuso sulla società dovrebbero essere soggetti a un scrutinio critico e all'approvazione collettiva.

Possiamo attingere direttamente dal lavoro di Illich sugli strumenti per la convivialità: Illich definisce, infatti, strumenti le tecnologie e le istituzioni, e strumenti conviviali quelli che consentono l'esercizio dell'autonomia e della creatività, in opposizione alla risposte condizionate dai sistemi manipolativi.

La Matrice delle Tecnologie Conviviali estende le idee di Illich, specificando domande che permettono di valutare il grado di convivialità delle tecnologie, domande sull'accessibilità (chi può costruirla o usarla?), sulla relazione (in che modo influisce sulle relazioni tra le persone?) e sulla bio-interazione (in che modo la tecnologia interagisce con gli organismi viventi e le ecologie?).

CONSIGLI POPOLARI

Tuttavia, è improbabile che andremo molto lontano semplicemente ponendo domande ragionevoli sul senso di tutta questa mobilitazione. Il potere delle big tech si è esteso ben oltre la cattura delle norme, fino alla cattura dello stato, o almeno, fino a una situazione in cui c'è una crescente fusione tra gestori delle tecnologie e strutture politiche.

Il decomputing adotta invece un approccio preconizzatore degli effetti della tecnopolitica, enfatizzando il ruolo delle forme assembleari e collegiali che ho descritto altrove come consigli dei lavoratori e del popolo.

Questo tipo di collettività, auto-costituente, radicata nel contesto locale e nell'esperienza vissuta, può essere applicata a qualsiasi livello e in qualsiasi contesto, dalle associazioni genitori-insegnanti che si oppongono alla dipendenza delle giovani menti dai chatbot alle comunità minacciate dalla costruzione di un datacenter hyperscale.

Ovunque l'intelligenza artificiale venga considerata come "la risposta", c'è già una cucitura da scucire, un problema strutturale in cui coloro che sono direttamente coinvolti dovrebbero essere in prima linea nel determinare cosa debba essere cambiato.

RESISTENZA TECNOPOLITICA

La resistenza ai data centre, che è già in atto dai Paesi Bassi al Cile, mostra il potenziale delle giunzioni che si intersecano, di quella che possiamo chiamare intersezionalità infrastrutturale. Queste intersezioni si verificano perché è probabile che le stesse comunità che subiscono interruzioni di corrente a causa del sovraccarico della rete locale o respirano aria inquinata dalle turbine a gas, come – ad esempio - le comunità nere che vivono intorno al data centre XAI di Musk a Memphis, lavorino in condizioni di sfruttamento governate da un algoritmo.

Non è difficile immaginare che la resistenza a un nuovo data center sia solidale - attraverso un'assemblea congiunta di lavoratori e comunità - con gli scioperi selvaggi dei lavoratori nel centro logistico locale di Amazon.

Allo stesso modo, il principio del decomputing può assumere un ruolo importante a supporto dei movimenti per la disabilità, che stanno resistendo ai tagli selvaggi al welfare giustificati da algoritmi che stigmatizzano i disabili come membri improduttivi della società.

Per esempio, si può diffondere la comprensione del modo in cui la disabilità stessa è socialmente costruita dalle tecnologie che la società sceglie di utilizzare o non utilizzare; il concetto di crip technoscience[1] è una critica al ruolo discriminante della tecnologia, e si combina con approcci all'hacking e all'adattamento per rendere la vita delle persone più vivibile; creando così tecnologie conviviali che siano sostenibili e abilitanti.

DECOMPUTING

Il decomputing è, quindi, lo sviluppo di un contropotere rivolto contro l'apparato tecnopolitico dell'IA e contro le sue trasformazioni totalizzanti.

Ciò che il decomputing propone è un percorso verso società costruite su relazioni di cura, i cui attributi non sono l'astrazione e la manipolazione, ma l'aiuto reciproco e la solidarietà. I decomputing afferma che l'autonomia, l'azione e l'autodeterminazione collettiva sono inversamente proporzionali al grado in cui le relazioni umane sono distorte dall'ordinamento algoritmico.

Il decomputing è il progetto di separare la tecnologia avanzata dalle decisioni sugli obiettivi della società. È la riaffermazione della necessità di strumenti conviviali e della costruzione di forme di potere sociale collettivo che possano realizzarli.

Ci sono esempi di lotte contemporanee che non partono direttamente dalla resistenza all'IA, ma combinano comunque la pratica della resistenza auto-organizzata con l'obiettivo di costruire futuri alternativi. Uno di questi è il collettivo di fabbrica GKN, collegato aduna fabbrica in Italia che produceva assali per veicoli, acquistata da un hedge fund che ha cercato di chiuderla e incassare. I lavoratori si sono opposti, hanno occupato il loro posto di lavoro e hanno formato un collettivo con la comunità locale per riutilizzare i loro strumenti per una transizione giusta; cioè, per la giustizia dei lavoratori e la sostenibilità ambientale. Ora producono cargo bike e riciclano pannelli solari e continuano la loro lotta sotto lo slogan partigiano "Insorgiamo!" o "Ci alziamo!".

UN MONDO DA VINCERE

Esigere la determinazione sociale della tecnologia è un modo per scucire la perdita di azione collettiva, risultato di decenni di neoliberismo.

È di questa azione collettiva che avremo bisogno per resistere all'ondata crescente di movimenti politici che vogliono far arretrare ogni tipo di uguaglianza sociale e proiettare la loro visione nichilista attraverso tecnologie che sono già codificate come anti-operaie e anti-democratiche.

E questo è il mio ultimo punto sul decalcolo, che non è una visione per un ritorno a uno status quo pre-IA, ma una rivendicazione deliberata di un mondo migliore per tutti. Una resistenza efficace non è mai stata fondata sulla difesa di uno stato di cose già ingiusto. Ha senso solo come precursore di qualcosa di meglio, avendo l'obiettivo di una società più giusta e più solidale.

Il decomputing è la combinazione di decrescita e tecnopolitica critica che dice che altri mondi sono ancora possibili, e che intendiamo portarli in essere.

 

NOTE:

[1] La crip technoscience è una prospettiva teorica e un movimento politico che descrive come le persone con disabilità utilizzino, modifichino e reinventino tecnologie e processi scientifici per creare accesso e pratiche di solidarietà nel mondo, piuttosto che essere semplicemente gli utenti di tecnologie prodotte per loro. Il concetto si colloca all'intersezione tra studi critici della disabilità, studi femministi sulla technoscience e pratiche di design, che si contrappone a una visione più tradizionale di design e tecnologia incentrata su un'idea di "normale" o "abilista".


«Tutto bene, madama la marchesa!» - Soluzionismo, accelerazionismo, tecno-ottimismo

Mais, à part ça, madame la Marquise,
tous va très bien, tous va très bien.
(Paul Misraki, 1935)[1]

Dalla celebre Tout va très bien,
madame la marquise
, di Paul Misraki,
canzone umoristica francese del 1935.

 

Di fronte ai pericoli e ai rischi che lo sviluppo tecnologico presenta, sempre più spesso da parte dell’ideologia dominante si risponde o negandoli senz’altro (e riducendo le connesse preoccupazioni a semplici reazioni tecnofobiche), oppure dichiarando che tali controindicazioni in effetti esistono ma vanno per così dire ridimensionate, perché in prospettiva passibili a loro volta di soluzione tecnica. Questa seconda strategia argomentativa è negli ultimi tempi, a fronte della sempre maggior evidenza dei problemi ecologici e non solo, largamente dominante. Il risultato che si ottiene, sul piano ideologico, non è poi tanto diverso da chi nega semplicemente i problemi: si afferma, infatti, che i rischi connessi all’adozione di una certa tecnologia non devono in alcun modo frenarne o rimetterne in discussione l’applicazione. Dal momento che appunto, se problemi e rischi esistono, questi verranno immancabilmente, in futuro, risolti dallo stesso sviluppo tecnico. Così è stato, del resto in passato – si aggiunge – e così sarà in futuro, nei secoli dei secoli, amen. Quest’ultima parola, naturalmente, non viene detta; la metto io solo per richiamare (provocatoriamente) il carattere quasi religioso,[1] o meglio magico-religioso, di tale convinzione.

SOLUZIONISMO

Un esempio notevole di questa visione, che alcuni chiamano “soluzionismo tecnologico” (o semplicemente soluzionismo)[2] si trova nelle recenti dichiarazioni di uno dei big della Silicon Valley, Eric Schmidt, già CEO di Google (dal 2002 al 2011) e più di recente, tra le altre cose, presidente della National Security Commission on Artificial Intelligence statunitense. Parlando a proposito dell’impatto ecologico dell’universo digitale,[3] in particolare con riferimento alla prospettiva di diffusione dell’intelligenza artificiale (molto dispendiosa sul piano energetico), Schmidt ha sostenuto tra l’altro:

«Non raggiungeremo gli obiettivi di sostenibilità perché non siamo organizzati per farlo. Investiamo quindi senza limiti in intelligenza artificiale e data center, anche se consumano tantissima energia, e sarà proprio l’AI a risolvere il problema».

A una prima lettura di queste due frasi, riportate dal “Sole 24 Ore”, appare evidente il non sequitur del ragionamento; ma la cosa non deve stupire, perché alla base sta appunto il dogma soluzionista. Continua infatti Schmidt:

«È in arrivo un’intelligenza aliena. Tutto sarà sommerso dalle enormi esigenze di questa tecnologia […]. Potremo commettere degli errori nell’utilizzarla ma non arriveremo mai alla soluzione attraverso la conservazione. Investiamo senza barriere e sarà lei a fornirci la risposta».[4]

A voler essere benevoli, si potrebbe dire che questo “soluzionismo”, questo ottimismo radicale riguardo alla capacità del genere umano di trovare, appunto, soluzioni ai problemi che di volta in volta si trova di fronte, compresi quelli che esso stesso produce, sia in fondo lo sviluppo di un’idea profonda e ben radicata nella cultura dell’Occidente, e che troviamo per esempio in alcuni celebri versi dell’Antigone di Sofocle, allorché l’uomo viene definito «sempre capace di trovare soluzioni» (così si potrebbe tradurre l’aggettivo usato dal tragediografo greco, pantòporos).[5]

Ora, ammesso e non concesso che si debba necessariamente dar ragione a Sofocle, credo che si possa certo convenire che l’uomo è sempre stato capace di cavarsela in situazioni complesse; e tuttavia questo non è un buon motivo per credere che riuscirà a farcela sempre e comunque, e dunque per figurarsi una sorta di onnipotenza dell’uomo. E del resto, com’è noto, apparteneva alla saggezza dell’antica Grecia (e dello stesso Sofocle nel verso appresso), insieme a questa precoce capacità di cogliere l’ingegnosità umana e le sue capacità di sovrastare le asperità della natura, anche la precisa consapevolezza che – parole questa volta di Eschilo nel Prometeo incatenato – «la tecnica è di gran lunga più debole della necessità».[6] Da notare che lo stesso quotidiano economico, evidentemente perplesso, chiede il parere dello scienziato Francesco Stellacci (IPFL, Politecnico federale di Losanna), che definisce una simile posizione molto pericolosa,

«perché è basata sull’ipotesi che una soluzione esista; e cosa succederebbe allora se una soluzione non esistesse? Per altri aspetti importanti della sostenibilità come il consumo del cibo e di materie prime, ad esempio, la soluzione non esiste affatto».

E perché non pensare, allora, che tra i modi per fare fronte alle difficoltà e ai rischi, dunque per rendere onore a tale nostra pantoporìa, non ci sia, per esempio, il principio di precauzione, la scelta cioè di astenersi da certe scelte, il rifiuto di applicare certe tecniche ecc.? Non è anche questo un modo intelligente per andare verso un futuro così ricco di incertezze e pericoli?

ACCELERAZIONISMO E TECNO-OTTIMISMO

Qui – abbandonando ora gli antichi e tornando purtroppo ai contemporanei – si aggiunge un altro elemento a determinare il cocktail dell’ideologia tecno-nichilistica contemporanea: quello del culto dell’accelerazione, o accelerazionismo, anch’esso evidente nelle dichiarazioni che stiamo esaminando.

Già fortemente implicata nell’idea di progresso, e secondo alcune letture (come quella di Koselleck)[7] interpretabile almeno in parte come concetto religioso secolarizzato, l’idea di accelerazione appare un tratto caratterizzante del mondo moderno, in particolare dalla rivoluzione industriale in avanti. L’accelerazione appare non solo un carattere dell’industria moderna, ma allo stesso tempo un imperativo tecnico, etico e politico per la società nel suo complesso: se infatti – questa la tesi – la via intrapresa dall’umanità è senza dubbi orientata alla piena felicità, allora appare sensato invocare l’accelerazione di tutti i processi in essere.

A rigore, l’accelerazionismo sarebbe una corrente minoritaria (e piuttosto bizzarra) di marxisti angloamericani che, in linea con un certo Marx, perorano la causa di uno sviluppo estremo di ogni innovazione tecnologica, certi che questo infine porterà al comunismo, ambiente nel quale peraltro lo sviluppo troverà davvero modo di espandersi, dal momento che il modo di produrre capitalistico, secondo loro – e sempre secondo un certo Marx – è dello sviluppo tecnico in verità anche un freno (poiché i rapporti sociali di produzione costituirebbero, per ragioni su cui non è possibile qui soffermarsi, una “costrizione” allo sviluppo delle forze produttive).[8]

Non intendo però qui occuparmi di questa scuola di pensiero, ma di quell’accelerazionismo che è invece normalmente presente nella logica di funzionamento dell’attuale capitalismo e che soprattutto sta nella ideologia di molti dei suoi agenti, in particolare dalle parti dell’industria digitale, dove non s’accompagna certo a fantasie socialiste ma molto più prosaicamente alle proprie prospettive di arricchimento.[9] Ecco, nelle parole che abbiamo letto prima, infatti, risuona anche questo imperativo: lo sviluppo tecnologico, la macchina tecno-economica non si deve fermare, né rallentare, per alcuna ragione, ma anzi deve costantemente accelerare. Tanto più rapida sarà, in tal modo anche la soluzione ai problemi e ai “guasti” eventualmente prodottisi. Se si vuole un’esemplificazione molto chiara di tale concezione, si può leggere utilmente il Technooptimist Manifesto di Marc Andreessen (2023):

«Crediamo che non esista problema materiale, creato dalla natura o dalla tecnologia, che non possa essere risolto con maggiore tecnologia. […] Dateci un problema reale e noi inventeremo la tecnologia che lo risolverà. […] Crediamo nell’accelerazionismo – la propulsione consapevole e deliberata dello sviluppo tecnologico».[10]

Siamo qui in presenza di una variazione sul tema di quel «futurismo nichilista» di cui mi sono occupato in un saggio su “Controversie” qualche tempo fa.[11]

-----

È chiaro che quello che ho qui sommariamente descritto è un ottimo dispositivo culturale di supporto all’attuale sistema economico-sociale sotto forma di celebrazione dell’incessante progresso tecnologico (che è poi – non dimentichiamolo – progresso nell’affermazione del potere del capitale sull’umanità e sulla natura). Un dispositivo che, tra le altre cose, tende a liquidare l’idea che, in un qualunque senso, sia necessario porre qualche freno o controllo sullo sviluppo tecnologico in favore di più importanti valori umani o societari.

Proprio la capacità delle società di governare (lo dice oggi perfino un apologeta della transizione digitale come Luciano Floridi),[12] e dunque anche di frenare in determinate circostanze, gli sviluppi tecnologici sarebbe, invece, essenziale oggi di fronte all’evidenza dei danni ambientali prodotti dal crescere esponenziale dell’infrastruttura digitale. Lo osserva per esempio una studiosa americana di questi temi, Arielle Samuelson, che include tra le strategie per rendere Internet meno inquinante una «maggiore cautela nel considerare se l’applicazione dell’IA sia davvero necessaria in ogni industria».[13]

Parole sacrosante, che dovrebbero essere incise all’ingresso delle aziende, delle scuole e delle università, e più in generale fatte circolare nel dibattito pubblico delle nostre società, in un momento in cui la prospettiva della colonizzazione digitale di ogni ambito della vita ci viene presentata come ineluttabile Destino.

 

 

NOTE

[1] Che l’ideologia del digitale sia una «quasi-religione» è ben argomentato, da ultimo, nel notevole saggio di Gabriele Balbi, L’ultima ideologia. Breve storia della rivoluzione digitale, Bari-Roma, Laterza, 2022, p. 75-115).

[2] Il termine è stato coniato da E. Morozov in Internet non salverà il mondo, Milano, Mondadori, 2014, avendo poi una certa fortuna. Va detto, tuttavia, che non si tratta di una novità connessa specificamente alle tecnologie digitali, ma più in generale a un mito collegato alla cultura tecnica delle società industriali avanzate (capitalistiche certamente, ma non è mancata una tecnofilia socialista in Urss), secondo il quale in fondo la tecnica è, in termini quasi religiosi, una entità salvatrice.

[3] Su questi temi, oggi al centro di un crescente interesse delle scienze sociali, mi permetto di rimandare ad alcuni miei articoli apparsi su questa rivista: Internet non è una “nuvola”, https://www.controversie.blog/internet-non-e-una-nuvola-prima-parte/ e https://www.controversie.blog/internet-non-e-una-nuvola-seconda-parte/, e I costi ambienali del digitale. Una bibliografia ragionata, “Controversie”, anno I, n. 5 (2025), https://www.controversie.blog/costi-ambientali-del-digitale-bibliografia/

[4] Barbara Carfagna, Intelligenza artificiale: consumi di energia enormi, non sappiamo chi la produrrà, “Il Sole 24 Ore”, 13 ottobre 2024, p. 12. Sottolineatura  mia.

[5] Sofocle, Antigone, ai vv. 360-61, dove si dice che l’uomo, pantpòros appunto, àporos ep’oudèn èrchetai to mèllon, ovvero «non va mai verso il futuro privo di risorse» (traduzione mia, ma la tr.it. di Ezio Savino, per esempio, recita «infinito artista, inerte non affronta / nessun domani». Sofocle, Edipo re. Edipo a Colono. Antigone , introduzione di Umberto Albini, traduzione, nota storica e note di Ezio Savino, Milano, Garzanti, 1988,  p. 249).

[6] Traduce invece «O arte, quanto più debole sei del destino» Carlo Carena (Eschilo, Prometeo incatenato, a cura di Carlo Carena, Torino, Einaudi, 1995, p. 24). È proprio questa consapevolezza della cultura greca antica che costituì sempre un freno alla formazione del concetto di progresso illimitato nello sviluppo storico (per il quale si dovrà attendere l’età moderna), come aveva notato Dilthey, secondo il quale la concezione greca del mondo «faceva susseguire l’uno all’altro periodi di nascimento, di svolgimento e di regresso dell’universo, in una monotona mancanza di speranza; e questo corso circolare diventava per i Greci il più sublime simbolo della transitorietà della razza umana» (Wilhelm Dilthey, Il secolo XVIII e il mondo storico, Milano, Edizioni di Comunità, 1977, p. 28).

[7] Cfr. Reinhart Koselleck, Accelerazione e secolarizzazione, Napoli, Istituto Suor Orsola Benincasa, 1989.

[8] Per questa ideologia si veda Alex Williams – Nick Srniceck, Manifesto accelerazionista, postfazione di Valerio Mattioli, Roma-Bari, Laterza, 2018. Al termine di questa sfrenata fantasia utopistica sta poi l’utopia tecno-comunista che uno di questi teoreti, Aaron Bastiani, ha chiamato Fully Automated Luxury Communism, «comunismo del lusso integralmente automatizzato», da lui illustrato in un omonimo volume pubblicato (con sprezzo del ridicolo!) dalla casa editrice londinese Verso.

[9] Anche qui, comunque, le fantasie tecno(fanta)scientifiche non mancano, tra ibridazione uomo-macchina, “superamento della biologia”, prolungamento della vita, colonizzazione dei pianeti extraterrestri ecc. Per una rassegna di queste affabulazioni utopiche, si vedano, oltre a Gabriele Balbi, L’ultima ideologia, cit.; Mark O’Connell, Essere una macchina. Un viaggio attraverso cyborg, utopisti, hacker e futurologi per risolvere il modesto problema della morte, Milano, Adelphi, 2018; e, con particolare attenzione alla lunatica Weltanschaaung di Elon Musk e della sua combriccola, Paolo Bottazzini, The Musk. Teoria e pratica di un genio egoista, Milano, Bietti, 2025, sul quale tornerò prossimamente con un articolo dedicato.

[10] Marc Andreessen, The Techno-Optimist Manifesto, “Andreessen Horowitz”, October 16, 2023, https://a16z.com/the-techno-optimist-manifesto/

[11] Cfr. Toni Muzzioli, Avanti verso il nulla. Sul futurismo nichilista contemporaneo, “Controversie”, 24/06/2024, https://www.controversie.blog/futurismo-nichilista-1/

[12] Cfr. Luciano Floridi, L’era digitale richiede responsabilità, “La lettura” / “Corriere della sera”, 20 luglio 2025, p. 7-9. «La società digitale – leggiamo – necessita di nuove regole per gestire e indirizzare le trasformazioni in corso. (…) L’evoluzione tecnologica non dovrebbe procedere per inerzia di mercato o secondo logiche puramente ingegneristiche e di massimizzazione del profitto. Queste sono il motore necessario, ma le mani sul volante, e la decisione su dove andare, restano alla società e alla politica». Naturalmente una simile capacità di governo deve implicare anche la possibilità di fermare talune scelte tecniche, altrimenti ogni dichiarazione in favore delle regole resta “acqua fresca”. Come temo sia il caso anche di queste parole.

[13] Arielle Samuelson, Are your internet habits killing the planet?, “Heated”, May 28, 2024, https://heated.world/p/are-your-internet-habits-killing


Decomputing come atto di resistenza - Prima parte

Questo intervento - che Controversie pubblica in due parti, questa e la prossima settimana - è intitolato "Decomputing as Resistance". In esso, sosterrò che l'IA contemporanea rivela alcune falle nell’apparente connessione senza “cuciture visibili” (seamless) di tutte le tecnologie digitali del nostro sistema attuale, con evidenze che non possono essere ignorate. Proporrò che l'IA sia di per sé un problema tecnico; un balbettante passo falso dell'ordine neoliberista che ne suggerisce l’intrinseco disordine.

Quello che proporrò come contromisura è il decomputing; un approccio che prende di mira direttamente l'intelligenza artificiale, ma riguarda e intende scollegare qualcosa di più del solo digitale. Il decomputing è un modo per riconfigurare le nostre relazioni sociali ed economiche più ampie.

L'INTELLIGENZA ARTIFICIALE È CONSIDERATA DANNOSA

Quando parlo di IA mi riferisco alle tecnologie specifiche che legittimano così tanti danni sociali e ambientali in questo momento. In particolare parlo delle reti neurali e dei modelli trasformativi1 .

È affascinante osservare l'ascesa di questi meccanismi dell'intelligenza artificiale, perché – in realtà – è una finzione. L'IA predittiva è inaffidabile quanto l'IA generativa; sono entrambe gigantesche operazioni di corrispondenza dei modelli il cui unico appiglio sulla realtà è la correlazione. È come un QAnon informatico.

Il fatto che questi modelli siano anche del tutto opachi rende impossibile svelare il processo che ha portato a un particolare output. In pratica, i modelli di ragionamento non possono davvero dirti come sono arrivati a una risposta. Eppure, l'intelligenza artificiale viene presentata come una soluzione tecnologica generalizzabile ai problemi più spinosi della società e un agente così intelligente che sarà sicuramente in grado di sostituirci.

Sebbene l'intelligenza artificiale non sia veramente in grado di sostituire nessuno, funziona come motore di precarizzazione ed emarginazione, come nel caso dei tagli algoritmici al welfare2; è un apparato che estrae grossolanamente quanta più conoscenza umana codificata possibile al fine di fornire un sostituto scadente per funzioni sociali chiave come l'istruzione e l'assistenza sanitaria, concentrando ulteriormente ricchezza e potere.

VIOLENZA INFRASTRUTTURALE

Questa violenza strutturale è ora integrata da quantità altrettanto eclatanti di violenza ambientale.

Come ora ci rendiamo conto, i presunti vantaggi di avere un chatbot intelligente in tasca hanno un prezzo incredibilmente alto in termini di consumo di energia e di acqua; e la catena di approvvigionamento per la produzione delle GPU dipende dall'estrattivismo coloniale e dai minerali alla base di numerosi conflitti armati.

Certamente, la domanda di energia per l'IA non è il leviatano che ci fa precipitare in un cambiamento climatico irreversibile, l'industria dei combustibili fossili e l'agricoltura industriale non hanno bisogno di alcun aiuto su questo fronte.

Tuttavia, l'indiscussa inevitabilità dell'IA come unico futuro per lo sviluppo economico e come chiave del potere geopolitico legittima le aziende tecnologiche ad abbandonare la loro pretesa performativa di sostenibilità, e consumare energia senza controllo.

Questo significa che, quando le infrastrutture nazionali, che già barcollano sotto il peso delle politiche private di profittabilità, saranno portate al collasso dalle ulteriori richieste dei data center, l'IA avrà la priorità sui bisogni umani.

SCALABILITÀ

Voglio concentrarmi per un attimo sulla scalabilità come concetto che lega insieme l'apparato tecnico dell'IA con il contesto sociale.

Il modello connessionista dell'IA, che sta alla base di tutto l’impianto di sviluppo, esiste da decenni ma è stato quasi ignorato fino al 2012, perché erano necessari troppi dati e troppa potenza di calcolo per elaborare risposte plausibili. La convergenza di social media, set di dati in crowdsourcing e GPU ha cambiato la prospettiva.

Da allora, l'industria dell'intelligenza artificiale ha generato un mini-universo di metriche auto-rinforzanti - e dal sapore eugenetico - che pretendono di misurare i progressi senza affrontare le cose che devono davvero cambiare.

Il fattore di base del successo di queste metriche è la scalabilità dei set di dati e della potenza di calcolo. Se misuriamo il calcolo in termini di operazioni in virgola mobile o FLOP, passiamo dai 1017 FLOP del primo AlexNet ai 1025 FLOP dei modelli più recenti.

Per mettere questo dato in prospettiva, questo livello di scalabilità supera qualsiasi altra rivoluzione tecnologica, dall'adozione dei telefoni cellulari al sequenziamento del genoma.

La logica generale di tutte le metriche del settore è esattamente la stessa del PIL: l'unica cosa che conta è la crescita, la crescita, la crescita, indipendentemente dai danni collaterali generati lungo il percorso.

La scalabilità illimitata è una visione di crescita infinita basata su modelli di cooptazione (nel testo originale: enclosure, creazione di nuovi mercati, trasformando cose che prima non erano economiche in nuovi beni mercificabili, NdT) mai realizzati prima e sull’ipotesi di forme di conoscenza che andranno oltre la comprensione umana.

È la scalabilità che attrae i flussi di capitale di rischio a breve termine, ed è la scalabilità alla base delle affermazioni sulla superintelligenza emergente.

Agli occhi dei sostenitori dell'IA non ci sono, quindi, limiti sociali, ambientali o planetari.

Di fatto, essi sostengono la necessità di andare oltre e più velocemente perché solo l'intelligenza artificiale può salvarci dalla crisi climatica e curare tutte le malattie umane.

MOBILITAZIONE TOTALE

Possiamo ritenere a buon diritto che la convergenza intorno all'infrastruttura dell'IA possa essere intesa come una forma di "mobilitazione totale", un termine coniato negli anni '30 dallo scrittore ultranazionalista Ernst Jünger, per caratterizzare la canalizzazione di tutte le risorse materiali ed energetiche di una nazione in un nuovo ordine tecnologico.

Per Jünger siamo entrati in una nuova era, che richiede «la conversione della vita stessa in energia» poiché le nazioni sono «spinte inesorabilmente a impadronirsi della materia, del movimento e della forza attraverso il formalismo della tecnoscienza»

La mobilitazione totale legittima una nuova forma di ordine politico basato sul vitalismo del conflitto. Oggi, stiamo assistendo all'abbandono dei propri impegni a favore del bene comune, da parte delle grandi aziende di intelligenza artificiale, che si radunano attorno a visioni di predominio nazionalista, basato – come sempre - sulla potenza militare ed economica.

Il risultato della mobilitazione di tutte queste energie non è – quindi - semplicemente l'accumulazione di capitale, ma comporta la separazione della società dai suoi precedenti ormeggi morali e l’allineamento con la visione di una svolta verso una nuova epoca, svolta guidata dalla violenta trasformazione tecnologica.

E questa spinta verso l’estrema tecnologizzazione non è, come sembrerebbe, una forma di nichilismo ma l’espressione della volontà di potenza nietzschiana.

TECNOFASCISMO

Ovviamente, non sto dicendo che i nostri leader tecnologici e politici siano appassionati studiosi delle idee di Jünger, ma che la mobilitazione totale cattura l’interesse e genera il culto dell'IA da parte dei vertici aziendali e dei governi nazionali, in risonanza con l'accelerazionismo e con la politica neo-reazionaria che pervadono l'industria tecnologica e fanno da ponte con i movimenti politici come il MAGA e con l'estrema destra.

Questo stile di pensiero – caratterizzato da scenari di tecnologie fantascientifiche e di autoritarismo – è la risposta di coloro che desiderano mantenere una massiccia asimmetria di potere e ricchezza a fronte del crollo dell'ordine neoliberista, crollo determinato dalle sue stesse contraddizioni e dei conseguenti shock di sistema, come l'austerità e il cambiamento climatico.

Comprendere questi sviluppi, insieme alla proliferazione dell'infrastruttura dell'IA come una forma di mobilitazione totale, suggerisce che abbiamo a che fare con un cambiamento di fase di stampo tecnopolitico, un cambiamento che non sarà sviato o trattenuto dalla razionalità e dalla regolamentazione, un cambiamento che considera sostanzialmente usa e getta chi non fa parte della piccola élite destinata a guidare questo cambiamento.

 

NOTE:

1 Il modello trasformativo è un tipo di architettura di rete neurale che eccelle nell'elaborazione di dati sequenziali, principalmente associati ai modelli linguistici di grandi dimensioni (LLM). I modelli trasformativi hanno raggiunto prestazioni eccezionali anche in altri campi dell'AI, come ad esempio la computer vision, il riconoscimento vocale e la previsione delle serie temporali. (https://www.ibm.com/it-it/think/topics/transformer-model). Sono modelli di apprendimento profondo che adottano il meccanismo della auto-attenzione, pesando differentemente la significatività di ogni parte dei dati in ingresso. Sono usati primariamente nelle branche dell'elaborazione del linguaggio naturale e della visione artificiale.


Robotica sociale assistiva: l’espansione della cura nell’era tecnologica

Negli ultimi ͏anni, il rapido pr͏ogresso ͏della tecnologia ha aperto nuove possibilità nel settor͏e clin͏ico e di assistenza, soprattut͏to per gli anziani. Tra le innovazioni più interess͏anti c’è la robotica sociale assisti͏va (SAR), una parte della͏ robotica c͏he si occupa͏ di fornire aiuto͏ em͏otivo, fisico e mentale alle persone più fragili. Alcuni studi hanno evidenziato il fatto che “la pandemia da Covid-19 ha spinto ad usare solu͏zioni͏ automatizzate”[1] , mostrando sia gli effetti positivi dei robot sociali sia le difficoltà nell’inser͏irli nella vita normale de͏gli utent͏i. ͏Le ricerche recenti mostrano risultati positivi sullo stato d’animo͏, su͏lla͏ diminuzione della so͏litud͏i͏ne e sulla qualità d͏ella vita delle persone anzia͏ne ma͏ inducono anche a interrogarsi sulla questione etica e psico͏logica. In relazione a questi aspetti si riflette sull'autoingann͏o e sul rischio di infantilizzazione dell’utente. In quest͏a situazione complessa e in continuo cambiamento, il nostro contributo intende esplorare come gli ͏italiani percepiscono l’introduzione dei SAR nel servizio d’assistenz͏a͏. Partendo dalle argomentazioni proposte dal͏la ricercatrice Nicoletta Massa e dalla sua pubblicazione riguardo la psicologia della salute[2], è interessante domandarsi quanto͏ siano note alla collettività le potenzialità dei SAR e in quale ottica verrebbero accolte, facendo riferimento in͏ modo particolare ag͏li aspetti m͏entali, c͏ulturali e so͏ciali che influenzano l'accettazione della robotic͏a assistiva. Per fare ciò abbiamo sottoposto un questionario online al fine di approfondire tali tematiche.

L’indagine nasce da alcuni interrogativi iniziali: come verrebbero accolti i SAR dalla popolazione generale del nostro paese? Potrebbe quest’ultima, nel prossimo futuro, trovarsi a beneficiarne? La nostra ricerca è stata orientata ad esaminare il livello di conoscenza, percezione e accettazione sociale verso la robotica sociale assistiva (SAR) nel contesto italiano. Nel mese di gennaio 2025, abbiamo proposto una serie di domande, sotto forma di questionario online da somministare ad un “campione di convenienza”, attraverso piattaforme social. L’indagine si è basata su precedenti ricerche nel campo delle tecnologie assistive e consiste in due tipologie di domande: quesiti a risposta multipla e scale Likert. Il questionario è stato diviso in quattro parti: dati demografici, familiarità con le tecnologie assistive, opinioni sull’uso dei SAR negli ambienti domestici e riflessioni etico-culturali. Il campione raggiunto è di 203 persone, la maggioranza dei rispondenti è nella fascia di età 18-24 anni (37%) con una prevalenza di rispondenti donne (66%). Benché il campione non sia rappresentativo della popolazione italiana nella sua interezza, l’indagine consente una prima esplorazione sulle impressioni riguardo i SAR, ponendo le basi per successivi approfondimenti.

Da un lato si riscontra una maggiore apertura dal punto di vista emotivo nel rapporto con la tecnologia, tanto che l’idea di avere un rapporto affettivo con un robot potrebbe non essere percepita come inverosimile. A livello personale, tuttavia, persiste un meccanismo psicologico: l’utente attribuisce un valore emotivo al comportamento del robot, nonostante quest’ultimo sia totalmente privo di tali caratteristiche umane[3].

Va in aggiunta contestualizzato il tema delle carenze diffuse, le quali stanno segnando il sistema lavorativo contemporaneo. Tale termine viene utilizzato nel contesto occupazionale, per fare riferimento a una carenza estesa e sistemica di competenze, risorse o personale adeguato, che non può che influenzare negativamente la produttività e l'efficienza. Le fonti hanno registrato mancanze significative per quanto riguarda le categorie di operatori sanitari a livello sub-nazionale. In questo insieme si includono i posti vacanti difficili da ricoprire e anche i bisogni sanitari insoddisfatti, segnalati dalla popolazione stessa.

Il caso italiano presenta un numero di infermieri per abitante inferiore alla media UE[4]. Questa situazione suggerisce un maggiore affidamento sui medici nell'erogazione dei servizi. La situazione si aggrava con la riduzione del personale medico e paramedico impiegato nel sistema sanitario nazionale[5], specialmente a fronte del trend di invecchiamento della popolazione e della richiesta crescente di cure e domande di assistenza medica[6]. In questo contesto questi strumenti potrebbero offrire un supporto concreto, se integrati correttamente.
Risulta opportuno, in primo luogo, affrontare alcune questioni aperte che vengono trattate nell’articolo[7] , come la self-deception (autoinganno),fenomeno che può essere analizzato come conseguenza di due ordini di fattori: uno di natura storico-contestuale e l’altro di natura individuale.

Gli intervistati hanno dimostrato la non conoscenza del nuovo strumento di robotica sociale assistiva, visto che il 75,9% dei rispondenti non aveva mai sentito parlare dei SAR. Nonostante la distanza iniziale dall’argomento, ciò non ne ha precluso il successivo interesse: le opinioni espresse non si traducono in un rifiuto netto, bensì in una posizione di scetticismo esplorativo. Il campione analizzato non si è dimostrato del tutto ostile alla novità. Ne è un esempio il fatto che quasi il 41% si dichiari incuriosito, pur restando perplesso, nel concepire un robot che sia in grado di interagire con persone anche nella sfera emotiva, mentre solo il 14% considera esplicitamente utile tale interazione. Inoltre, pur prevalendo una visione tradizionalista dell’assistenza, con il 66,5% che preferisce ancora le cure umane a quelle automatizzate, emerge una quota consistente (34%) che accetterebbe l’inserimento di un SAR in casa se accompagnato da una figura umana, specialmente se designata a mansioni più tecniche. Ciò indica in ogni caso che la tecnologia venga percepita più come supporto che come minaccia. Sebbene il 69% non ritenga possibile il successo di queste tecnologie nel nostro paese, una percentuale analoga (66,5%) riconosce che i SAR potrebbero essere efficacemente impiegati per monitorare la salute e avvisare i medici in caso di necessità. Dunque, a fronte della diffidenza culturale e affettiva, si afferma una concezione relativamente positiva, specialmente in ambiti in cui la presenza umana non sia sempre garantita. Questa ambivalenza rappresenta probabilmente l’aspetto più interessante dell’indagine: le persone si mostrano scettiche, ma non particolarmente ostili, quello che emerge infatti, è una forte curiosità.

Il timore non appare di tipo apocalittico ma è piuttosto legato a preoccupazioni etico-relazionali e affettive. È interessante considerare come, anziché preoccuparsi di una possibile diminuzione dell’impiego (aspetto ricorrente se si tratta di intelligenza artificiale e robotica nell’ambito lavorativo), il campione si sia concentrato piuttosto sulla mancanza di empatia da parte delle macchine, ritenuta un elemento imprescindibile del settore dell’assistenza sanitaria. In tale contesto lo scetticismo di molti potrebbe essere mitigato attraverso una maggiore informazione e consapevolezza, considerando che, la maggior parte delle mansioni svolte dai SAR non si limiterebbero soltanto ad aiutare i soggetti fragili, quanto il personale sanitario in primo luogo.

In base͏ ai͏ dati r͏a͏ccol͏ti e alle idee condivise, sembra emergere ch͏e l'arrivo dei robot sociali di assistenza sia un͏a sfida complessa ma forse rivoluzionaria per il ͏sis͏tema sanitario di ogg͏i. Il fatt͏o che mo͏lti sarebbero pro͏nti ad accettar͏e un SAR a casa sug͏gerisce una disponibil͏i͏tà all'in͏tegrazione; purché si mantenga un buon equilibrio tra tec͏nologia e umanità.

In sintesi, ciò che è emerso non è un rifiuto del progresso, bensì la richiesta che quest’ultimo venga integrato con attenzione, trasparenza e sensibilità. Se i SAR verranno inseriti non come sostituti, ma come alleati del lavoro umano, rispettando la dignità delle persone, potranno contribuire a riformare un sistema che ad oggi si ritrova spesso in difficoltà. Non si tratta di una sfida prettamente tecnica, ma anche culturale e politica.

In conclusione, l’accettazione sociale della robotica assistiva dipenderà dalla capacità di affrontare con consapevolezza quelle che sono le implicazioni psicologiche ed etiche di queste tecnologie.

Maggiore consapevolezza, una progettazione che punta ai bisogni del paziente ed una chiara regolamentazione d’uso vanno considerati come elementi decisivi al fine di garantire che i SAR possano realmente contribuire all’ideazione di un sistema di cura diverso, progressivamente più efficace ed equo.

 

NOTE:

[1] Massa N. (2022) Innovazioni in psicologia della salute: il contributo della Social Assistive Robotics. Tra opportunità terapeutiche e questioni aperte della robotica sociale. Psicologia della salute: quadrimestrale di psicologia e scienza della salute, 37(5), 267-286

[2] Ibidem

[3] OECD (2025), Prospettive economiche dell'OCSE, Rapporto intermedio, marzo 2025: Navigare in acque incerte, OECD Publishing, Paris

[4] Massa N. (2022) Innovazioni in psicologia della salute: il contributo della Social Assistive Robotics. Tra opportunità terapeutiche e questioni aperte della robotica sociale. Psicologia della salute: quadrimestrale di psicologia e scienza della salute, 37(5), 267-286

[5] Ibidem

[6] OECD (2025), Prospettive economiche dell'OCSE, Rapporto intermedio, marzo 2025: Navigare in acque incerte, OECD Publishing, Paris

[7] Ibidem

 

RIFERIMENTI BIBLIOGRAFICI:

Massa N. (2022), Innovazioni in psicologia della salute: il contributo della Social Assistive Robotics : tra opportunità terapeutiche e questioni aperte della robotica sociale, in "Psicologia della salute: quadrimestrale di psicologia e scienze della salute: 3, 2022, Milano: Franco Angeli, 2022 , 1972-5167 - Casalini id: 5378331" - P. 14-27

OECD (2025), Prospettive economiche dell'OCSE, Rapporto intermedio, marzo 2025: Navigare in acque incerte, OECD Publishing, Paris

OECD/European Commission (2024), Health at a Glance: Europe 2024: State of Health in the EU Cycle, OECD Publishing, Paris


La dura verità. Dalla sodomia della lettura alla veridizione nell’epoca della riproducibilità tecnica

SODOMIE

In molte iscrizioni del V secolo a.C., distribuite tra la Magna Grecia e l’Attica, il lettore viene etichettato katapúgōn, sodomizzato, e viene additato alla comunità come l’individuo che si è lasciato possedere dall’autore dell’epigrafe. Si comprende perché Platone nel Teeteto raccomandi prudenza e moderazione nel rapporto con i testi scritti, e perché abbia sospettato di questa forma di comunicazione per tutta la vita – sebbene i suoi Dialoghi abbiano contribuito a rendere per noi il libro la fonte di conoscenza più autorevole. Jesper Svenbro, in uno dei suoi saggi più brillanti di antropologia della lettura (1), rileva che l’esercizio di decodificare il testo, e di ricostruire il significato delle frasi, incorra per gran parte dell’antichità nelle difficoltà della scriptio continua, senza stacchi tra le parole e senza interpunzioni: fino al Medioevo, la maggior parte degli interpreti deve compitare ad alta voce le lettere, come fanno i bambini alle prime armi con la decifrazione della scrittura, per ascoltare il senso di ciò che sta pronunciando – più che riconoscerlo in quello che sta vedendo. Il lettore quindi presta la propria voce, il proprio corpo, al desiderio di espressione dello scrittore: il testo esiste nella proclamazione orale del contenuto, mentre il suo formato tipografico resta lettera morta. 

Nella cultura greca, molto agonistica, questa subordinazione di ruoli non può rimanere inosservata. Per di più, la sua forma è congruente con quella che si stabilisce tra il giovane che deve seguire il suo percorso di formazione e l’amante adulto che finanzia i suoi studi, visto che non è il padre né la famiglia naturale a sostenere questi costi: al termine della paideia il ragazzo deve testimoniare in pubblico se l’erasts abbia abusato del suo corpo, degradandolo al rango passivo di uno schiavo. L’adolescente deve conquistare un protettore di età più matura, senza però concedersi rinunciando alle prerogative del cittadino libero.

 

 

Il lettore incauto, o troppo appassionato, abbandona il proprio corpo all’io parlante dello scrittore: un’abdicazione al dominio di sé cui le persone perbene costringono gli schiavi, sottraendosi ad ogni rischio. Per un greco classico la verità è una caratteristica di quello che è stato visto con i propri occhi, come viene comprovato dagli storici Erodoto e Tucidide; Socrate e Platone hanno affidato il loro insegnamento al dialogo dal vivo. L’Accademia, e anche il Liceo di Aristotele, sorgono accanto a palestre dedicate alla preparazione atletica e militare degli ateniesi; Platone è un soprannome che indica le «spalle larghe» del maestro di dialettica.

IL POTERE DI VERIDIZIONE

Il potere di dire la verità, all’atto di nascita della filosofia, si legittimava su requisiti che appaiono del tutto diversi da quelli che lo hanno ratificato negli ultimi secoli, e che come osserva Sergio Gaiti in un recente articolo su Controversie, sono in affanno nel mondo contemporaneo. 

Per i greci la formazione dell’uomo libero coinvolgeva i valori della prestanza fisica, del coraggio, dell’obbedienza alle leggi patrie, della frequentazione di buone compagnie: la verità poteva emergere solo in un contesto che rispettasse questi requisiti – che dal nostro punto di vista sembrano più indicati per un raduno neofascista, che per un seminario di intellettuali, o per la consulenza ad un board aziendale, o per i principi di una disposizione di governo. Eppure l’epoca di Platone e Aristotele è senza dubbio una delle massime espressioni del talento intellettuale dell’Occidente, e il momento assiale per la nascita della tradizione scientifica. Nella nostra epoca, almeno fino all’irruzione dei social media e dei portali di ricerca, nessuno avrebbe mosso obiezioni all’assunto che i garanti della verità sono i metodi di peer review delle riviste scientifiche, la sorveglianza delle commissioni di concorso e di esame per le carriere universitarie, il vaglio della comunità degli intellettuali su qualunque dichiarazione relativa alla natura, alla storia e alla società, il filtro degli editori di stampa, radio, televisione, cinema e musica, su quali temi meritino l’attenzione pubblica e cosa sia invece trascurabile. In altre parole, anche per l’epoca contemporanea esiste (esisteva?) una cerchia di individui, che rappresenta la classe delle buone compagnie da frequentare per accedere all’Acropoli della verità, il luogo in cui si sa di cosa ci si debba occupare e in che modo si debba farlo. Al di là delle dichiarazioni di intenti e dei cardini ideologici, in tutti i paesi avanzati è tendenzialmente sempre la stessa classe sociale ad alimentare le fila degli accademici, dei politici, dei manager, dei giornalisti – è lo stesso cluster economico e culturale a formare controllori e controllati del potere, in tutte le sue forme (2).

Ma più che l’appartenenza ad una élite per censo e discendenza, ciò che conta è l’affiliazione ad una categoria accomunata dalla formazione universitaria, con la condivisione dei valori sullo statuto della verità, sui metodi della sua esplorazione, sui criteri di accesso ai suoi contenuti, sulle procedure della sua archiviazione, riproduzione, comunicazione. Come osserva Bruno Latour (3), l’adesione a queste prescrizioni coincide con l’accesso ad una comunità di pari, fondata sull’addestramento a vedere le stesse cose quando i suoi membri si raccolgono nel laboratorio dello scienziato – qualunque sia la disciplina in causa. Restano fuori tutti coloro che non sono iniziati alla percezione di questo grado del reale.

DIVISIONE DEL LAVORO LINGUISTICO

Nei termini di Foucault (4), ripresi da Agamben (5), questi processi di legittimazione e di produzione del sapere sono dei dispositivi, in grado di porre in essere esperienze che hanno riconoscimento intersoggettivo e consistenza pubblica. Le piattaforme digitali come Google e Facebook, nonché le varie tipologie di social media da cui è colonizzato il nostro mondo, non hanno fatto altro che automatizzare i meccanismi alla base del loro funzionamento, estendendo la base di accesso a tutti. Ma questo gesto di apertura ha innescato una rivoluzione di cui nessuno avrebbe potuto sospettare la portata.

L’algoritmo dal quale si è sviluppato Google, PageRank, misura la rilevanza di un contenuto partendo dal calcolo della quantità di link in ingresso da altre pagine web, e dalla ponderazione della loro autorevolezza, sulla base di un calcolo ricorsivo. L’algoritmo è la traduzione in chiave digitale del principio della bibliometria accademica, con cui il valore di un saggio (anche per la carriera del suo autore) corrisponde al numero di citazioni in altri studi scientifici (6)(7). Ma nel circuito delle università, l’autorevolezza di riviste e collane editoriali è stabilito a priori da altre istituzioni, quali ministeri o agenzie di rating, che giudicano il loro credito scientifico. 

La strategia di Google e dei giganti della tecnologia è consistita nell’imposizione di una democrazia dal basso, fondata sul riconoscimento empirico del modo in cui la fiducia si distribuisce di fatto nel pubblico più ampio. L’assunto è che, in quella che Hilary Putnam ha descritto come la divisione sociale del lavoro linguistico (8), ciascuna nicchia di interesse coltiva autori specialistici, in grado di valutare (ed eventualmente linkare) i contenuti degli altri – e lettori occasionali o devoti, immersi in un movimento di approfondimento non gerarchico e non lineare tra i testi. L’esistenza stessa di Google incentiva chiunque a divulgare il proprio contributo sugli argomenti di cui si ritiene esperto, in virtù della possibilità di incontrare un pubblico di curiosi o di entusiasti che lo consulteranno. Wikipedia, l’enciclopedia «nata dal basso», ha raggiunto in questo modo un’autorevolezza di fatto superiore all’Enciclopedia Britannica, e conta su oltre 7 milioni di voci (in inglese), contro le 120 mila della concorrente più antica e più blasonata. 

Il meccanismo di controllo sulla validità dei contenuti – per la comunità di riferimento – è rimasto lo stesso di prima, ma si sono moltiplicate le congregazioni di esperti, i temi di competenza, ed è in via di dissoluzione la capacità di governare l’agenda setting di interesse collettivo da parte della classe che disponeva del monopolio di veridizione, almeno fino a un paio di decenni fa. In italiano le voci di Wikipedia sono poco meno di 2 milioni, e 2.711 di queste sono dedicate al mondo immaginario di Harry Potter, 1.643 a quello Dragon Ball, 951 a quello di Naruto; la voce Naruto conta 9.245 parole, contro le 5.557 della voce Umberto Eco, e le 6.686 di Cesare Pavese. I focus dell’attenzione e l’intensità del coinvolgimento sono distanti da quelli un tempo decretati dalle istituzioni, sono molto più numerosi, e le comunità che li coltivano possono ignorarsi o entrare in conflitto, ricorrendo a criteri del tutto divergenti di selezione dei dati, modalità di analisi, interessi pragmatici, sostegni ideologici.

L’ORIENTAMENTO DELLA CIVETTA

Quando l’11 dicembre 2016 The Guardian ha denunciato che i primi dieci risultati di Google per la domanda «Did the Holocaust really happen?» linkavano pagine negazioniste, i fondatori del motore di ricerca, Larry Page e Sergey Brin (entrambi di famiglia ebraica), hanno immaginato di risolvere il problema modificando il codice del software. Il progetto di aggiornamento Owl dell’algoritmo avrebbe dovuto trovare un metodo automatico per discriminare i contenuti veri da quelli falsi, eliminando le fake news dalla lista delle risposte (9). Un obiettivo così ambizioso dal punto di vista epistemologico non è mai stato raggiunto, sebbene Google abbia implementato da allora decine di aggiornamenti per premiare contenuti «di maggiore qualità». 

È probabile che la ricognizione degli ingegneri abbia seguito una pista sbagliata: la verità non è una proprietà formale degli enunciati che possa essere catturata con una struttura di calcolo, complesso a piacere. Per restaurare una forma univoca di verità si sarebbe dovuto ripristinare il monopolio delle istituzioni che ne stabilivano il perimetro, la gerarchia della rilevanza, il dizionario e i criteri di valutazione. La sconfinata periferia delle comunità che circondano e che assediano l’Acropoli del sapere non è popolata da gruppi che hanno sempre allignato in qualche tipo di latenza, in modo informale e sottotraccia: senza una piattaforma che permetta agli individui di riconoscere le proprie passioni (o le proprie ossessioni) come un mondo intersoggettivo, che è possibile ammobiliare e abitare con altri che le condividono, non esiste identità collettiva, confraternita, aggregazione in qualche modo individuabile. La rintracciabilità universale di qualunque contenuto, la trasformazione dei media, ha modificato il panorama della verità, in cui si muove con smarrimento solo la classe che in precedenza ne deteneva il monopolio. Lo sconcerto peraltro non riguarda i contenuti, che nella prospettiva della classe intellettuale sono rimasti gli stessi di prima – ma la denegazione della perdita di potere, il rifiuto di accettarne le conseguenze, un po’ come è capitato a Page e Brin nella loro veste di clerici. Le altre comunità appaiono invece sicure nell’elezione delle loro fonti accreditate, nell’interazione con i modelli di comportamento e di pensiero, nei criteri di discriminazione del plausibile – che non riguardano i processi di adaequatio intellectus et rei, ma il miglior adattamento all’ambiente sociale e informativo di appartenenza. Dai ragazzi di Atene a quelli che si chillano scorrendo le bacheche di TikTok nella Milano di oggi, è questa la competenza che guida in modo infallibile al riconoscimento della |verità| (10).

 

 

BIBLIOGRAFIA

(1) Svenbro, Jesper, Phrasikleia: Anthropologie de la lecture en Grece ancienne, Editions La Decouverte, Paris, 1988.

(2) Ventura, Raffaele Alberto, Radical choc. Ascesa e caduta dei competenti, Einaudi, Torino, 2020.

(3) Latour, Bruno, Non siamo mai stati moderni, tr. it. di Guido Lagomarsino e Carlo Milani, Eleuthera, Milano 2018.

(4) Foucault, Michel, L'Archéologie du savoir, Gallimard, Parigi 1969.

(5) Agamben, Giorgio, Che cos’è un dispositivo?, Nottetempo, Roma 2006.

(6) Page, Larry; Brin, Sergey; Motwani, Rajeev; Winograd, Terry, The PageRank Citation Ranking: Bringing Order to the Web, in Technical Report, Stanford InfoLab 1999.

(7) Bottazzini, Paolo, Anatomia del giudizio universale. Presi nella rete, Mimesis, Milano 2015.

(8) Putnam, Hilary,The Meaning of Meaning, in Mind, Language and Reality: Philosophical Papers, Cambridge University Press, Londra 1975, pp. 215-271.

(9) Sullivan, Danny, Google’s ‘Project Owl’ — a three-pronged attack on fake news & problematic content, «Search Engine Land», 25 aprile 2017 (https://searchengineland.com/googles-project-owl-attack-fake-news-273700) 

(10) Arielli, Emanuele; Bottazzini, Paolo, Idee virali. Perché i pensieri si diffondono, Il Mulino, Bologna 2018.


Tucidide e lo smartphone – Verità autoptica svelata dalle tecnologie quotidiane

TUCIDIDE E L’AUTOPSIA

In greco antico autopsia (αύτος, stesso + οψίς, vista) significa “vedere con i propri occhi” e, in senso esteso, “visione diretta” di un fenomeno.

Tucidide,  storico greco del V secolo A.C., nella sua narrazione della Guerra del Peloponneso, adottò il vedere con i propri occhi[1] come criterio di attendibilità storica: «la vista dello storico è infallibile» (I, 22, 2), «il risultato di quella degli altri va sottoposto al vaglio della comparazione critica» (cit., ibidem).

Per compiere opera di verità[2], Tucidide dava per vero solo ciò a cui aveva personalmente assistito o che era stato visto con i loro occhi da persone che considerava attendibili. Si fidava solo dell’αύτοψία, appunto.

EVIDENZA INCONTROVERTIBILE DI UN MASSACRO

Il 30 marzo 2025, nel distretto di al-Hashashin di Rafah, la città più a sud di Gaza, l’Ufficio per il Coordinamento degli Affari Umanitari (OCHA - Office for the Coordination of Humanitarian Affairs) rinviene, sepolti sotto la sabbia in una fossa comune, i corpi di 14 paramedici e soccorritori della Protezione Civile, palestinesi, che operavano sotto le insegne della Mezzaluna Rossa e di un funzionario dell’ONU. (IFRC - International Federation of Red Cross and Red Crescent Societies)

A breve distanza, vengono ritrovati i resti di 5 ambulanze della Croce Rossa e di un veicolo dei pompieri.

I morti presentano i segni di spari esplosi a brevissima distanza nella testa e nel torace. Sono ancora vestiti con le tute e i giubbotti con le strisce riflettenti di riconoscimento delle unità sanitarie e di soccorso.

Del convoglio di cui facevano parte si era perso il contatto radio il giorno 23 marzo.

Tucidide non avrebbe nulla da dire, su questi elementi storici: sono tutti – tristemente – visti con i propri occhi dal personale della IFRC e dell’OCHA intervenuto sul posto.

RICOSTRUZIONE DEI FATTI E CONTROVERSIA

L’OCHA ricostruisce che:

«I corpi […] e i veicoli di soccorso – chiaramente identificabili come ambulanze, camion dei pompieri e automobile delle Nazioni Unite – sono stati colpiti dalle forze israeliane e poi nascosti sotto la sabbia»[3]

Secondo J. Whittall, capo dell’OCHA nella Striscia di Gaza,

«le persone uccise domenica scorsa si trovavano a bordo di cinque ambulanze e di un camion dei pompieri e si stavano dirigendo verso una zona bombardata dall’esercito israeliano. I mezzi sono stati colpiti dal fuoco israeliano sebbene fossero visibilmente segnalati come veicoli di soccorso, e lo stesso è successo con un’automobile dell’ONU arrivata poco dopo»[4]

Dalle ferite trovate sui corpi, la ricostruzione suggerisce che i militari israeliani abbiano sparato ai soccorritori a distanza ravvicinata.

L’esercito israeliano ammette[5], dopo alcuni giorni, la propria responsabilità e diversi errori ma sostiene che:

  • gli errori siano dipesi dalla scarsa visibilità notturna (riportato in corsivo perché è rilevante);
  • distruggere le ambulanze e seppellire i corpi servisse a metterli al riparo e sgomberare la strada;
  • l’attacco fosse comunque giustificato dalla presenza di membri di Hamas.[6]

AUTOPSIA E VERITÀ: IL RUOLO DI UNA TECNOLOGIA QUOTIDIANA

Tucidide non ammetterebbe al rango di verità che nel convoglio ci fossero dei membri di Hamas: non l’ha visto né provato nessuno. Lo stesso vale per la necessità di distruggere le ambulanze al fine di metterle al riparo e a liberare il percorso: è un’opinione soggettiva, incontestabile ma – nello stesso tempo – inammissibile nella narrazione storica.

Invece, che ci fosse scarsa visibilità è una falsità evidenziata dal ritrovamento dello smartphone di una delle vittime.

Tra i documenti nello smartphone c’è - infatti - un filmato in cui si vede (e si sente) chiaramente che il convoglio si muoveva con i lampeggianti di segnalazione accesi e le sirene in funzione; che il personale vestiva – come, d’altra parte, è stato testimoniato dal ritrovamento dei corpi – l’abbigliamento di riconoscimento; che l’attacco è stato effettuato nonostante tutto questo; e che i colpi sono stati esplosi da vicino.[7]

Lo smartphone ha svolto, in questo caso il ruolo di agente autoptico: è stato il testimone oculare desiderato da Tucidide e il video è la vera e propria αύτοψία dell’accaduto.

L’ αύτοψία per mezzo di una tecnologia quotidiana ha permesso agli osservatori di compiere opera di verità e smentire le menzogne delle forze armate israeliane, che cercano di nascondere – come è, a questo punto, evidente anche dal tentativo di velare le prove fisiche sotto la sabbia – il massacro di persone intoccabili per statuto internazionale, quali sono gli operatori di soccorso e quali dovrebbero essere i civili.

D’altra parte, è anche grazie alle tecnologie della televisione con tutti i suoi apparati di comunicazione che siamo tutti testimoni oculari, agenti autoptici di una guerra combattuta soprattutto contro la popolazione civile.

Guerra di cui – senza queste tecnologie – con elevata probabilità, non conosceremmo nulla.

Tucidide sarebbe soddisfatto: la verità – termine a lui molto caro – emerge in virtù di una αύτοψία, tecnologica.

 

 

NOTE

[1] Erodoto, in realtà, fu il primo a pensare che “vedere con i propri occhi” fosse il principale criterio di verità storica.

[2] Cfr. L. Canfora, Prima lezione di storia greca, Laterza, 2023 e Tucidide. La menzogna, la colpa, l’esilio, Laterza, 2016

[3] Cfr. https://www.facebook.com/watch/?v=2189635674800875, traduzione mia

[4] Cfr.: Il Post, Lunedì 31 marzo 2025

[5] Cfr.: Il Post, 20 aprile 2025 e New York Times, 20 aprile 2025

[6] La presenza di membri di Hamas non è provata in alcun modo, come in molti altri casi di attacchi israeliani contro aree ed edifici civili. Non c’è traccia di testimonianza né oculare

[7] Cfr. ancora https://www.facebook.com/watch/?v=2189635674800875


Apocalittici ed integrati - Due visioni sull'innovazione che possono coesistere

Qualche mese fa, parlando dell’A.I. Act – la nuova legislazione europea sull’intelligenza artificiale – abbiamo ricordato che: nel 45 a.C. Giulio Cesare promulgò una legge sulla circolazione dei carri nei centri abitati – dall’alba alla metà del pomeriggio[1], con l’obiettivo di snellire il traffico urbano, ridurre la sporcizia (sterco dei cavalli), l’odore e il rumore nelle strade durante il giorno (non è cambiato nulla, mi pare). Era una legge che regolava l’impatto della tecnica (i carri con le ruote cerchiate) sull’ambiente urbano. E che, nel 1865 in Gran Bretagna venne emesso il Red Flag Act[2] che impose alle autovetture (self-propelled vehicles, la tassonomia è importante: distingue dalle vetture a cavalli) di avere un equipaggio di almeno 3 persone, di non superare la velocità massima di 4 miglia orarie sulle strade fuori città e di 2 miglia orarie in città, di essere precedute a 60 yarde da un uomo a piedi con una bandiera rossa che ne segnali l’arrivo, regoli il passaggio di carrozze e cavalli e, infine, faccia fermare il veicolo a motore in caso di necessità.

Sono due esempi di come vengono accolte le innovazioni tecniche e tecnologiche. Interesse, entusiasmo, da parte degli integrati[1]; timore, opposizione, da parte degli apocalittici sono alcune delle reazioni che – storicamente – accompagnano la diffusione di novità, soprattutto tecniche e tecnologiche.

Nel 1872 Samuel Butler, in Erewhon, romanzo utopico-distopico, analizza la dicotomia tra entusiasmo e opposizione verso la tecnica delle macchine. Nei tre capitoli “il libro delle macchine” ecc. Butler riconosce che «Le macchine hanno determinato le condizioni di crescente abbondanza, agiatezza e sicurezza che consentono all’essere umano di coltivare il suo spirito, la sua cultura, il suo essere civilizzato; la loro influenza si manifesta sul corpo quanto sulla mente umana»(Robin Libero Carbonara, Il Dominio della Macchina: dagli scenari ipotetici di Erewhon alla realtà delle piattaforme digitali di The Circle, https://doi.org/10.6092/issn.2785-3233/19133) ma, nello stesso tempo «appare precocemente consapevole che alla lunga, man mano che la Macchina, divenendo più complessa, influenza maggiormente la vita dell’uomo, ne influenza in maniera determinante la coscienza e la percezione di Sé» (Cit.) in maniera perniciosa.

Man’s very soul is due to the machines; it is a machine-made thing: he thinks as he thinks, and feels as he feels, through the work that machines have wrought upon him

L’analisi lucida di Butler – che, in realtà, nasceva per rispecchiare e criticare la società vittoriana – indica, appunto, che le tecniche nuove, innovative, generano due grandi categorie di reazioni. Entusiasmo, in coloro che ne vedono soprattutto (o soltanto) le potenzialità positive e che, in termini molto generali, corrispondono con chi si identificano con l’istanza morale della necessità e bontà dello sviluppo e del progresso. Rifiuto o opposizione, recisa o più prudente, in quelli che vedono nelle innovazioni anche (o solo) i possibili effetti negativi, le lateralità, i rischi che possono annullarne la dimensione di beneficio.

Se, oggi, osserviamo le reazioni della stampa di ampia diffusione nei confronti delle tecnologie digitali emergenti, dai social alle applicazioni dei modelli di intelligenza artificiale, assistiamo ad un fenomeno che conferma la dicotomia anticipata da Butler: la maggior parte dei titoli aderisce ad una delle due visioni: positivi, entusiasti - integrati - o fortemente critici, oppositivi – gli apocalittici.

Questo anche all’interno delle medesime testate, una volta in tono apocalittico, un’altra in tono di tipo integrato. Sono emblematici alcuni titoli della Rai:

Ora, questo genere di narrazione così polarizzata può essere analizzato ricorrendo ad un suggerimento dello storico Paul Veyne (“I greci hanno creduto ai loro miti?” (Il Mulino, 2014) a proposito dei greci antichi: in una stessa società[2] possono coesistere diversi regimi o programmi di verità. I greci antichi credevano nella mitologia olimpica che ha origine in Esiodo e amplificata e normata da Omero, perché era una sorta di habitus irrinunciabile. Ma, nello stesso tempo, la criticavano, ne riconoscevano la dimensione letteraria più che reale.

Veyne fa due esempi illuminanti: quello del perigeta Pausania che in 5 ponderosi libri racconta i miti locali – altari e sacrifici, dei ctoni e celesti ed eroi - delle principali regioni della grecia antica (verificare i titoli), aderendo alla narrazione mitologica e – a volte – riconducendo fatti della tradizione (che per i greci ha l’autorevolezza della storia documentata) alla dimensione mitologica. Nello stesso tempo, lo stesso Pausania prende le distanze da queste narrazioni e ammette che – con buona probabilità – sono un sacco di fandonie.

Due programmi di verità coesistenti, uno che corrisponde al lavoro di geografo e di narratore, l’altro alla personalità analitica e razionale dello stesso soggetto.

Il secondo esempio, che evidenzia come due diversi programmi di verità possono coesistere in una stessa persona, adattandosi a diverse esigenze, è quello del medico e farmacista Galeno. Galeno, di fronte alla tradizione medica che indica nella bile di centauro il rimedio per mitigare l’apoplessia ne denuncia l’assurdità, perché “nessuno ha mai davvero visto un centauro”. Galeno, in questo caso singolare non aderisce alla verità del mito. Tuttavia, Galeno è un maestro, ha una scuola di medicina e di farmacia, e di quella vive; per attirare studenti e adepti non esita a contraddire la propria critica del mito e riconduce il sapere della sua scuola all’insegnamento degli déi Apollo e Asclepio, suoi maestri!

Ecco, questa è la condizioni in cui molti di noi versano quando parlano di innovazione e – in particolare – di Intelligenza Artificiale: una condizioni di coesistenza di due diversi atteggiamenti, che possono essere ricondotti a due programmi di verità o epistemici, uno di apprezzamento, a volte entusiasmo, nei confronti delle funzionalità della tecnologia che ci semplificano la vita, e uno di perplessità o addirittura di rifiuto, generato dalla cognizione dei rischi e delle lateralità delle stesse funzionalità.

Nonostante l’apparenza schizofrenica, questo dibattito che vige all’interno della “nostra” società e – spesso – di noi come individui, è un dibattito sano, positivo, che stimola ad interrogarsi – da un lato – sulla dimensione morale delle tecnologie, su sviluppo “buono” e da distruttivo, su libertà di azione e su regolazione etica istituzionale; stto un altro punto di vista, invece, questo dibattito ha la funzione di stimolo ad interrogarsi sull’ontologia degli oggetti tecnologici e sulla linea di demarcazione tra ciò che è umano e ciò che non lo è, facendo delle ipotesi e delle scoperte teoretiche interessanti e a volte sconcertanti.

Di questo ne parleremo ancora.

 

NOTE

[1] Umberto Eco definì gli intellettuali (e si riferiva, in particolare ad Adorno e Zolla) fortemente critico e nei confronti della moderna cultura di massa, e “integrati” coloro che ne hanno una visione ingenuamente ottimistica; la definizione è diventata uno schema comune di rifermento per i due approcci opposti nei confronti del contemporaneo. (Apocalittici e integrati, Bompiani, 1964)

[2] Intesa come gruppo sociale e periodo storico


Il luddismo, ieri e oggi – Paralleli, rischi e opportunità

LUDDISMO

Alla fine del XVIII secolo – in termini molto semplificati – l’introduzione, nel sistema produttivo inglese, di tecnologie come la macchina a vapore e il telaio meccanico furono gli elementi catalizzatori di una profonda trasformazione del sistema socioeconomico britannico.

Al timone di questa trasformazione – sempre semplificando al massimo – ci fu la nuova borghesia capitalista inglese che comprese l’enorme potenzialità produttiva delle nuove tecnologie, che potevano: affrancare il sistema produttivo dalla dipendenza dalle competenze artigianali; permettere la concentrazione industriale in “nuovi” luoghi in cui controllare in modo pervasivo i lavoratori e obbligarli a mantenere alti tassi di produttività; abbattere il costo della manodopera grazie ad migliore (per gli industriali) rapporto tra domanda e offerta di lavoro. In definitiva, moltiplicare in modo geometrico la produzione con costi altrettanto ridotti.

Il punto di vista dei lavoratori tessili – che in buona parte lavorava manualmente, a cottimo, in piccole fabbriche oppure a casa propria, controllando di fatto i mezzi di produzione e valorizzando le proprie competenze artigianali – era esattamente speculare a quello degli industriali: riduzione dei salari e della domanda di lavoro, annullamento del valore delle competenze, scelta tra disoccupazione e lavoro malpagato nelle nuove grandi fabbriche.

Una delle forme di reazione alla drammatica trasformazione fu una serie di rivolte, iniziate nel 1811, ispirate alla figura – forse leggendaria – di Ned Ludd, un operaio che nel 1779 avrebbe distrutto un telaio meccanico in segno di protesta contro la nascita di questa nuova forma di produzione: il fenomeno del “luddismo”.

Il movimento luddista durò fino verso il 1824, tra leggi repressive – come la Frame Breaking Bill che prevedeva la condanna a morte per chi avesse danneggiato i telai per calze o pizzi, o altre macchine per la produzione tessile – tumulti, ondate di distruzione delle macchine, appoggio di massa da parte della popolazione, soprattutto nello Yorkshire, sostegno di alcuni parlamentari illuminati e scontri violenti con la polizia e l’esercito.

I cambiamenti sociali e politici che seguirono il crollo dell’impero napoleonico, la promulgazione delle Corn Laws, con i relativi dazi protezionistici e l’ulteriore gravissimo impatto sulle condizioni economiche dei ceti popolari, uniti alla nascita delle Trade Unions, primi sindacati operai, decretarono la fine della protesta luddista.

IERI E OGGI

Sembra possibile trovare un parallelismo tra la percezione dei ceti operai del XIX secolo che fu alla base del luddismo e l'attuale preoccupazione nei confronti delle radicali trasformazioni del tessuto produttivo delineate dallo sviluppo e della adozione di tecnologie di Intelligenza Artificiale.

Oggi come allora, l'innovazione tecnologica suscita timori, resistenze e opposizione al “nuovo progresso”.

Tra chi progetta e sviluppa – singoli individui o grandi imprese che siano - le tecnologie di Intelligenza Artificiale sembrano pochi a porsi il problema delle conseguenze sull’occupazione, sui salari, sul benessere dei lavoratori “tradizionali”; si procede con entusiasmo, in nome del progresso tecnologico, del superamento di ostacoli e di barriere fino a ieri considerati impossibili, dell’avvicinamento della macchina alle performance umane.

Anche tra gli studiosi di I.A. sensibili a questi problemi, l’eccitazione per i risultati sembra appannare la visione umanista. Un esempio è quello di Nello Cristianini, studioso e professore di intelligenza artificiale a Bath, che – nonostante l’impegno a rappresentare i rischi legati ad una massiva adozione di tecnologie I.A. – sembra farsi trascinare dall’entusiasmo per i nuovi sviluppi: «Dopo essere eguagliati, potremmo essere superati? E come? O la macchina diventa più brava a fare ciò che già facciamo, oppure la macchina impara a svolgere compiti che non sappiamo fare. A me interessa l’idea che riesca a capire cose che io non posso» (A. Capocci, Nello Cristianini, il ragionamento delle macchine, Il Manifesto, 14/03/2025).

I timori sembrano giustificati dal fatto che, in altri settori produttivi – come quello della realizzazione del software – si sta già generando uno scenario di sostituzione del lavoro dei programmatori con sistemi automatici basati sull'Intelligenza Artificiale, con una conseguente ondata di licenziamenti.

E, nei media e nelle discussioni pubbliche, viene dato grande risalto al rischio che il ruolo centrale dell'uomo in molte fasi della vita collettiva cui siamo abituati venga meno.

D’altra parte, però, per alcune occupazioni, l’utilizzo di strumenti di Intelligenza Artificiale permette a molti lavoratori e professionisti di delegare “alle macchine” compiti di basso profilo competenziale che richiedevano molto impegno di tempo, oppure attività ad elevato rischio fisico, migliorando le condizioni di lavoro.

POSSIBILITÀ

Ora, il fenomeno del luddismo e delle tensioni tra lavoratori, industriali e governo, come si verificò nel XIX secolo in Inghilterra, non sembra essere una possibilità, anche solo perché - nel caso dell’Intelligenza Artificiale - è difficile trovare qualcosa da distruggere.

E, tutto sommato, il fenomeno luddista sembra aver solo spostato avanti di qualche anno la trasformazione industriale e il suo correlato di cambiamento sociale, di inurbazione, di povertà e degrado nelle periferie, e di successiva - nel XX secolo - “normalizzazione” del lavoro in fabbrica.

Oggi, i punti da dibattere, in modo serio e puntuale, sono:

  • come governare la I.A., anche facendo leva sulla sensibilità del problema anche a livello istituzionale, sensibilità da preservare e non lasciar catturare dagli intenti delle grandi industrie digitali [1]
  • come capire quali reali opportunità di benessere potrà offrire ai viventi,
  • come identificare i rischi dello sviluppo della tecnologia
  • come evitare lo sviluppo in nome del solo “progresso tecnologico” e della sola remunerazione delle grandi aziende digitali.

Per farlo sono necessari: ● una difesa istituzionale che si metta rigorosamente dalla parte dei cittadini, ● attenzione e coraggio da parte di tutti - lavoratori, professionisti, manager e imprenditori - per identificare sul nascere le reali opportunità e i reali rischi e per infondere una coscienza morale tra chi queste tecnologie promuove e intende utilizzare.

 

NOTE

[1] Cfr.: A. Saltelli, D. J. Dankel, M. Di Fiore, N. Holland, M. Pigeon, Science, the endless frontier of regulatory capture, Science Direct, Futures, Volume 135, January 2022, 102860

 


Critica del soluzionismo tecnologico

Il sociologo Morozov ha coniato alcuni anni fa l'espressione "soluzionismo digitale" per indicare l'atteggiamento prevalente ai nostri giorni nei confronti dei dispositivi digitali.

Si ritiene che i problemi siano risolvibili da qualche algoritmo, e dagli strumenti che ne automatizzano l'applicazione alla realtà. Le smart city, le smart home, i dispositivi biometrici che indossiamo, sono alcune delle declinazioni di questa concezione: l'ottimizzazione del traffico nei centri urbani, del consumo energetico e degli scenari di abitabilità nelle case, della forma fisica individuale, sono sottratti alle decisioni collettive e personali, e vengono aggregati intorno ai pattern definiti dalla medietà dei comportamenti sociali.

Persino l'uso della lingua si stabilisce sull'ortografia e sull'ortodossia media, con i motori di ricerca le piattaforme di intelligenza artificiale generativa trasformativa - e lo stesso accade alla selezione delle informazioni più rilevanti per l'assunzione di qualunque decisione.

Si avvera al massimo grado la previsione che Adorno e Horkheimer avevano elaborato sulla dialettica della ragione illuministica, che nel momento in cui si libera dal giogo delle autorità tradizionali finisce per limitarsi alla selezione degli strumenti in vista del fine, ma non è più in grado di pensare le finalità stesse, e i principi che dovrebbero governarle.
Per di più, i dispositivi digitali vantano una proprietà che le tecnologie del passato non avevano mai tentato di pretendere. Servizi digitali come Google, Facebook, Instagram, Amazon, accumulano una mole di dati così ampia e profonda su ciascun individuo, da sapere sui singoli più di quello che i soggetti sanno di se stessi.

Questa espansione quantitativa si tramuta in una condizione qualitativa: la concezione liberale del mondo, che abbiamo ereditato dall'Illuminismo, pone l'individuo come valore fondamentale, collocando nella sua coscienza e nella sua libertà le chiavi di volta della società e della storia.

Oggi le grandi piattaforme digitali possono rivendicare una conoscenza sui singoli, e sui contesti in cui si muovono, superiore a quella di cui i soggetti stessi dispongono, e potrebbero quindi reclamare un diritto di decisione sulla loro vita quotidiana e sul loro destino fondandolo sulla maggiore capacità di prevedere le conseguenze di ogni gesto, su una maggiore razionalità, quindi su una maggiore assunzione di responsabilità per ogni scelta.

-------------

Bisogna sottoporre ad analisi critica questa narrazione, dalla confusione di dati e informazioni alla definizione di "decisione razionale", per evitare non solo che la distopia si avveri, ma anche per impedire che le sue (false) assunzioni ricadano nelle attuazioni parziali che il soluzionismo tecnologico tende ad agevolare, o persino ad imporre.


Recensione di "Eppure non doveva affondare - Quando la scienza ha fatto male i conti"

Il saggio Eppure non doveva affondare - Quando la scienza ha fatto male i conti (Bellucci D., Bollati Boringhieri, 2024) offre una riflessione approfondita sugli errori scientifici, mettendo in evidenza come questi non siano da considerarsi come semplici fallimenti ma opportunità, fondamentali per il progresso della conoscenza. Attraverso una serie di casi emblematici, l’autore mostra l’importanza di un’analisi critica e della capacità di apprendere dagli errori per migliorare le tecnologie e il metodo scientifico.

Uno degli ambiti in cui gli errori hanno avuto conseguenze drammatiche è l’ingegneria. Bellucci analizza alcuni fallimenti progettuali clamorosi, come quello degli aerei con finestrini quadrati. Questo design, apparentemente banale, si rivelò fatale: la forma degli angoli causava una concentrazione eccessiva delle sollecitazioni meccaniche, portando alla rottura della fusoliera in volo. Un altro caso emblematico riguarda le navi che si spezzano in due a causa di calcoli errati sulla distribuzione del peso e delle forze strutturali. Questi esempi mostrano quanto sia essenziale un’analisi accurata nella progettazione, perché anche il minimo errore può trasformarsi in una catastrofe.

Il libro si sofferma poi sugli errori nel campo dell’hardware e dell’informatica, mostrando come difetti nei microchip possano compromettere operazioni matematiche fondamentali. Un singolo errore nella progettazione di un processore può avere ripercussioni enormi, rendendo necessarie operazioni costose di aggiornamento o sostituzione. Anche nel software gli sbagli possono avere conseguenze impreviste e pericolose: sistemi che perdono la cognizione del tempo possono causare problemi gravi, soprattutto in ambiti critici come il settore bancario o le telecomunicazioni. A volte, persino un dettaglio apparentemente insignificante—come un cavo allentato—può mandare in fumo esperimenti scientifici di grande importanza.

Un altro ambito in cui gli errori possono avere conseguenze drammatiche è la medicina. L’autore analizza i problemi legati alla ricerca farmaceutica e alla produzione di medicinali, evidenziando come piccole variazioni nella formulazione o nella fase di sperimentazione possano rendere un farmaco inefficace o addirittura pericoloso. Inoltre, Bellucci mette in luce le criticità legate ai trial clinici, spiegando come un’interpretazione errata dei dati possa compromettere l’affidabilità delle cure e generare rischi per i pazienti.

L’intelligenza artificiale è un altro settore in cui gli errori assumono un ruolo centrale. Bellucci evidenzia i pericoli legati ai modelli predittivi, che possono produrre risultati distorti o discriminatori se vengono addestrati su dati errati. Un ulteriore problema riguarda la trasparenza: la cosiddetta “scatola nera” delle reti neurali rende difficile comprendere i meccanismi decisionali degli algoritmi, complicando l’individuazione e la correzione degli errori. Questo solleva questioni cruciali non solo dal punto di vista tecnico, ma anche etico.

Ma come si possono prevenire questi errori? Il libro dedica una sezione alle strategie utilizzate dalla scienza per ridurre i rischi e migliorare l’affidabilità delle scoperte. Tra queste, l’autore cita la peer-review nella ricerca accademica, il debugging nel software, i trial clinici randomizzati in medicina e l’uso della ridondanza strutturale in ingegneria, ovvero l’inserimento di margini di sicurezza nei progetti per evitare cedimenti improvvisi. Questi metodi mostrano che, pur non potendo eliminare completamente gli errori, è possibile limitarne gli effetti attraverso un’attenta verifica e un approccio sistematico.

Infine, Bellucci sottolinea come la scienza sia un processo collettivo: gli errori sono inevitabili, ma è proprio grazie al metodo scientifico che possono essere individuati, corretti e trasformati in nuove conoscenze. Il progresso non è mai il risultato del lavoro di un singolo, ma della condivisione e della verifica incrociata tra esperti. In definitiva, Eppure non doveva affondare offre una panoramica affascinante su come anche i più clamorosi fallimenti possano diventare strumenti preziosi per migliorare la nostra comprensione del mondo e affinare le nostre tecnologie.

 

 

DEVIS BELLUCCI

Devis Bellucci, nato nel 1977, è un fisico, scrittore e divulgatore scientifico italiano. Ha conseguito la laurea in Fisica nel 2002 e il dottorato nel 2006 presso l'Università degli Studi di Modena e Reggio Emilia, dove attualmente ricopre il ruolo di ricercatore in Scienza e Tecnologia dei Materiali. La sua attività di ricerca si concentra principalmente sui biomateriali per applicazioni in ortopedia, odontoiatria e medicina rigenerativa.

Oltre alla carriera accademica, Bellucci è autore di numerosi romanzi e saggi. Tra le sue opere narrative si annoverano "La memoria al di là del mare" (2007), "L'inverno dell'alveare" (2010), "La ruggine" (2011), "La sete dei pesci" (2013) e "La cura" (2017). Nel campo della divulgazione scientifica, ha pubblicato "Materiali per la vita. Le incredibili storie dei biomateriali che riparano il nostro corpo" (2020) e "Eppure non doveva affondare" (2024), in cui esplora gli errori nella scienza e le loro conseguenze.

Come divulgatore, Bellucci ha collaborato con diverse testate, scrivendo di scienza, viaggi e cultura. È attivo anche sui social media, attraverso i quali condivide contenuti legati alla scienza e alla tecnologia.