Cloud di guerra - Militarizzazione dell’intelligenza artificiale e implicazioni etiche

Lo scorso 10-11 febbraio 2025, al Grand Palais di Parigi, si è svolta la terza edizione dell'Artificial Intelligence Action Summit, che ha riunito capi di Stato, leader di organizzazioni internazionali, CEO di aziende, accademici e rappresentanti della società civile per discutere delle sfide e opportunità legate all'intelligenza artificiale. Tuttavia, dietro il clamore di questa ‘tempesta di cervelli’, emerge il ritratto frammentato di un mondo sospeso tra promesse di innovazione e ombre inquietanti. I temi centrali? Il declino economico dell'Occidente, la crescente competizione con il modello cinese e la corsa dell'Europa a recuperare terreno.

Le iniziative proposte sono ambiziose, ma, a un’analisi più approfondita, si rivelano spesso incomplete o rischiano di sostenere progetti che, se non adeguatamente controllati, potrebbero alimentare il controllo centralizzato e accentuare la disuguaglianza globale. Con un fondo di 2,5 miliardi di euro destinato ad accelerare la crescita dell’IA open-source nei paesi in via di sviluppo e il lancio di 35 sfide globali legate agli obiettivi di sviluppo sostenibile, il summit ha fatto appello alla cooperazione internazionale. Tuttavia, dietro queste dichiarazioni, si nasconde il rischio di un vuoto di responsabilità, che la crisi economica che sta colpendo l’Europa amplifica, mettendo in dubbio l’effettivo impegno di Bruxelles. Nel frattempo, Donald Trump, con il suo progetto Stargate da 500 miliardi di dollari, si propone come un attore già consapevole di come l’IA possa essere utilizzata per il dominio economico e militare.

La realtà dell’intelligenza artificiale, tuttavia, non coincide con la visione futuristica di progresso che viene presentata, ma con le sue applicazioni concrete. Già adesso, l’IA non si limita più a gestire dati: li manipola. È questo il paradosso: quella che viene definita “Intelligenza Artificiale” è, in realtà, un inganno semantico che maschera la nostra ignoranza sull’intelligenza naturale, la nostra. Eppure, questa ‘non-intelligenza’ sta già scrivendo la storia di intere generazioni presenti e future.

I GIGANTI DEL TEC

Un’assenza allarmante ha contraddistinto il Summit: nessun accenno al vero volto dell'IA, quello che alimenta la macchina da guerra. Due inchieste del Washington Post (https://www.washingtonpost.com/technology/2025/01/21/google-ai-israel-war-hamas-attack-gaza/) e di The Guardian (https://www.theguardian.com/world/2025/jan/23/israeli-military-gaza-war-microsoft), hanno rivelato il coinvolgimento diretto di giganti tecnologici come Google, Amazon e Microsoft nella fornitura di tecnologie IA all’esercito israeliano durante l'offensiva a Gaza. Non si tratta più di semplici contratti commerciali, ma di un sostegno diretto alla macchina da guerra, che ha contribuito alla morte di migliaia di civili. L'accordo sul Progetto Nimbus, da 1,2 miliardi di dollari, firmato nel 2021, nasconde un collasso etico: Microsoft, pur avendo inizialmente perso la gara, si è successivamente integrata nel progetto, rafforzando la rete di sorveglianza e targeting.

Le inchieste raccontano come i prodotti di Google e Microsoft siano stati impiegati a partire dal 7 ottobre 2023 e come il loro utilizzo sia stato direttamente coinvolto nello sterminio dei palestinesi e nei crimini di guerra commessi nella Striscia di Gaza. Lanciato da Israele nel 2019 come un innocuo cloud computing destinato a modernizzare le infrastrutture digitali del paese, il Progetto Nimbus ha invece fornito all’esercito israeliano capacità avanzate di intelligenza artificiale. "Ampliare lo schema israeliano di sorveglianza, profilazione razziale e altre forme di violazione dei diritti umani assistite dalla tecnologia", così lo descriveva Ariel Koren, ex marketing manager di Google, nel 2022, che ha preferito dimettersi piuttosto che accettare la deriva immorale dell’azienda.

Google sostiene che "non è rivolto a carichi di lavoro altamente sensibili, classificati o militari rilevanti per armi o servizi segreti". Le inchieste dimostrano il contrario: Google e Amazon hanno accettato di personalizzare i loro strumenti su richiesta delle forze armate israeliane, potenziando la loro capacità di sorveglianza e identificazione degli obiettivi. Durante l’offensiva di Gaza dell'ottobre 2023, la piattaforma di intelligenza artificiale Vertex di Google è stata utilizzata per elaborare enormi set di dati per "previsioni", in cui gli algoritmi analizzano modelli comportamentali e metadati per identificare potenziali minacce.

A sostegno delle inchieste si aggiungono le dichiarazioni di Gaby Portnoy, capo della Direzione informatica nazionale israeliana fino al 19 febbraio 2025. Secondo lui, Nimbus è destinato a rinsaldare il profondo legame tra Amazon, Google e l’apparato di sicurezza nazionale israeliano. In una conferenza del 29 febbraio 2024, Portnoy ha dichiarato che “Le aziende sono state partner per lo sviluppo di un nuovo progetto che crea un framework per la difesa nazionale”, con strumenti di sicurezza basati sul cloud che hanno “favorito la rappresaglia militare del paese contro Hamas”. A lui si deve anche l'istituzione di nuove infrastrutture di difesa avanzate, note come Cyber Dome, evoluzione dell’Iron Dome.

LAVENDER, IL LATO OSCURO DELLA GUERRA A GAZA

Un tempo la guerra era fatta da uomini. Oggi, ai tempi dei cloud, non più. Un'inchiesta di +972 Magazine e Local Call, pubblicata il 3 aprile 2024, ha svelato un altro lato oscuro della guerra a Gaza: quello dei software progettati per uccidere. È stata la prima a rivelare l’esistenza di "Lavender", un sistema utilizzato dall’esercito israeliano per identificare e colpire obiettivi palestinesi, con supervisione umana limitata. “Un programma di omicidi di massa senza precedenti che combina il targeting algoritmico con un'elevata tolleranza per la morte e il ferimento dei civili circostanti”. E che tiene traccia di quasi tutti gli abitanti di Gaza, raccogliendo input di intelligence da videoclip, messaggi provenienti da social network e analisi delle reti di comunicazione.

Sulla base dei dati raccolti, l’algoritmo è in grado di determinare se una persona è un combattente di Hamas o appartiene ad altri gruppi armati palestinesi. Dopo aver identificato gli obiettivi, con un margine di errore del 10%, i nominativi vengono inviati a una squadra operativa di analisti, i quali verificano l’identità “in un tempo massimo di 20 secondi, che di solito serve a determinare se il nome è maschile o femminile, presupponendo che le donne non siano combattenti". Nella maggior parte dei casi, a quanto pare, “quegli analisti consigliano un attacco aereo”, ritenendo il margine di errore “accettabile, date le circostanze”. Durante le prime settimane di guerra, il sistema ha segnalato oltre 37.000 individui come potenziali obiettivi.

WHERE’S DADDY?

Un altro sistema, “Where’s daddy?”, è in grado di determinare se le persone prese di mira sono a casa o fuori grazie ai loro smartphone, consentendo attacchi aerei che spesso colpiscono intere famiglie. Secondo Local Call, l’esercito israeliano preferisce colpire le persone nelle loro case, perché raggiungerle è più facile rispetto a identificarle durante l’attacco. Le famiglie degli obiettivi e i loro vicini, considerati potenziali membri di Hamas, sono visti come danni collaterali di scarsa importanza.

Un ufficiale dell’intelligence israeliana ha descritto la maggior parte delle persone prese di mira come "individui non importanti", membri di basso rango di Hamas, ma comunque considerati “obiettivi legittimi” poiché classificati come combattenti, “anche se non di grande rilievo”. Eppure, come possiamo definire “legittimi” gli oltre 18.000 bambini trucidati durante questi mesi, la maggior parte di età inferiore ai 10 anni, e le decine di migliaia di donne rimaste uccise negli attacchi? Erano anche loro membri di basso rango di Hamas?

HABSORA: L’ALGORITMO CHE DECIDE CHI VIVE E CHI MUORE

L’intelligenza artificiale sta determinando chi vive e chi muore. Un sistema AI interno, usato dall’esercito israeliano, decide chi deve essere bombardato, con margini d’errore inquietanti e una logica che trasforma i civili in numeri. Si chiama “Habsora” e ha un funzionamento semplice e spietato: il sistema monitora i volti dei palestinesi per decidere chi è “buono” e chi “cattivo”, si basa su un insieme di modelli predittivi basati sull’analisi di immagini e metadati. Risultato? Migliaia di obiettivi individuati in tempi rapidissimi, bombardamenti mirati che spesso si trasformano in carneficine. Fonti interne allo stesso esercito israeliano, intervistate da +972, hanno ammesso che il sistema non è infallibile e che il tasso di errore è alto. L’algoritmo, così, assume il ruolo di decidere chi vive e chi muore. La guerra del futuro è già iniziata.

LA CATENA DI MORTE ACCELERATA

Un’indagine di Middle East Eye ha rivelato un ulteriore aspetto inquietante: l’automazione della guerra ha abbassato le soglie di tolleranza per le vittime civili. Secondo il Washington Post, l’IDF è passato da attacchi mirati a una logica di saturazione: eliminare cento obiettivi con un solo colpo è preferibile a rischiare di perdere anche uno solo. Questi strumenti mostrano come l'intelligenza artificiale venga usata come arma contro i civili, sollevando dubbi sul rispetto del diritto umanitario internazionale. Dopo il 7 ottobre, l’esercito israeliano ha adottato strumenti innovativi per selezionare obiettivi, distogliendosi dai leader armati. Una scelta che “rappresenta un pericoloso nuovo orizzonte nell’interazione uomo-macchina nei conflitti”

La militarizzazione dell’IA non è confinata ai conflitti: molte delle tecnologie impiegate a Gaza, come i sistemi di identificazione biometrica, sono stati inizialmente sviluppati in Occidente, e continuano a essere impiegati globalmente per "scopi di sicurezza". Mentre colossi come Google, Amazon e Microsoft rafforzano il loro legame con il settore militare, esistono realtà come Palantir – fondata da Peter Thiel – che già da anni operano nell’ombra con contratti miliardari nel settore della sorveglianza e dell’intelligence predittiva. Israele ha creato un gigantesco database su ogni palestinese sotto occupazione, raccogliendo informazioni su movimenti, contatti sociali, e attività online, limitando la libertà di espressione e movimento. Un “Grande fratello” al quale nulla sfugge.

LA PALESTINA COME LABORATORIO PER L’AI

Antony Loewenstein, giornalista investigativo australiano di origini ebraiche, autore di The Palestine Laboratory: How Israel Exports the Technology of Occupation Around the World, ha definito l’uso dell’AI da parte di Israele a Gaza “un modello terrificante”. Dal 7 ottobre 2023, “Tel Aviv usa la guerra e l'occupazione per testare le ultime forme di uccisione e sorveglianza di massa, mentre le forze di estrema destra in tutto il mondo osservano e imparano”. E aggiunge: “Israele non potrebbe combattere le sue guerre di conquista senza una schiera di attori stranieri che lo sostengono, armano e finanziano”.

Durante le ricerche per il suo libro, Loewenstein ha scoperto che il complesso militare-industriale di Israele considera l'occupazione dei Territori Palestinesi come un banco di prova fondamentale per le nuove tecnologie di morte e sorveglianza. I palestinesi “sono cavie in un esperimento di portata globale”, che non si ferma ai confini della Palestina. La Silicon Valley ha preso nota, e la nuova era Trump sta sancendo un'alleanza sempre più stretta tra le grandi aziende tecnologiche, Israele e il settore della difesa.

LA GUERRA NELL’ERA DELL’AI

La guerra non è mai stata pulita, ma oggi è diventata un gioco senza responsabilità, sempre più simile a un videogame. Tuttavia, la Cloud War non è virtuale: è letale, impersonale, automatizzata. Il software decide, l’uomo approva con un clic, il drone esegue. Il massacro diventa un output, i civili puntini su una mappa digitale. Un algoritmo calcola quante vite sacrificare per raggiungere l’obiettivo.

Questa non è fantascienza. È realtà. La tecnologia corre più veloce di noi, e Israele ha mostrato come devastare una popolazione senza conseguenze (per ora). Presto, l’intelligenza artificiale di Google, Microsoft e Amazon potrebbe essere usata ovunque. Pensate a quanti stati ambirebbero a raccogliere informazioni così complete su ogni cittadino, rendendo più facile colpire critici, dissidenti e oppositori.

Come in Terminator, la macchina non fa prigionieri. È solo questione di tempo prima che l'IA prenda il sopravvento, riducendo l'umanità a una variabile da ottimizzare. La nostra sopravvivenza non è questione di tecnologia, ma di coscienza. E la vera domanda non è se possiamo fermarla, ma se siamo davvero pronti per il giorno in cui non saremo più noi a decidere.


Il luddismo, ieri e oggi – Paralleli, rischi e opportunità

LUDDISMO

Alla fine del XVIII secolo – in termini molto semplificati – l’introduzione, nel sistema produttivo inglese, di tecnologie come la macchina a vapore e il telaio meccanico furono gli elementi catalizzatori di una profonda trasformazione del sistema socioeconomico britannico.

Al timone di questa trasformazione – sempre semplificando al massimo – ci fu la nuova borghesia capitalista inglese che comprese l’enorme potenzialità produttiva delle nuove tecnologie, che potevano: affrancare il sistema produttivo dalla dipendenza dalle competenze artigianali; permettere la concentrazione industriale in “nuovi” luoghi in cui controllare in modo pervasivo i lavoratori e obbligarli a mantenere alti tassi di produttività; abbattere il costo della manodopera grazie ad migliore (per gli industriali) rapporto tra domanda e offerta di lavoro. In definitiva, moltiplicare in modo geometrico la produzione con costi altrettanto ridotti.

Il punto di vista dei lavoratori tessili – che in buona parte lavorava manualmente, a cottimo, in piccole fabbriche oppure a casa propria, controllando di fatto i mezzi di produzione e valorizzando le proprie competenze artigianali – era esattamente speculare a quello degli industriali: riduzione dei salari e della domanda di lavoro, annullamento del valore delle competenze, scelta tra disoccupazione e lavoro malpagato nelle nuove grandi fabbriche.

Una delle forme di reazione alla drammatica trasformazione fu una serie di rivolte, iniziate nel 1811, ispirate alla figura – forse leggendaria – di Ned Ludd, un operaio che nel 1779 avrebbe distrutto un telaio meccanico in segno di protesta contro la nascita di questa nuova forma di produzione: il fenomeno del “luddismo”.

Il movimento luddista durò fino verso il 1824, tra leggi repressive – come la Frame Breaking Bill che prevedeva la condanna a morte per chi avesse danneggiato i telai per calze o pizzi, o altre macchine per la produzione tessile – tumulti, ondate di distruzione delle macchine, appoggio di massa da parte della popolazione, soprattutto nello Yorkshire, sostegno di alcuni parlamentari illuminati e scontri violenti con la polizia e l’esercito.

I cambiamenti sociali e politici che seguirono il crollo dell’impero napoleonico, la promulgazione delle Corn Laws, con i relativi dazi protezionistici e l’ulteriore gravissimo impatto sulle condizioni economiche dei ceti popolari, uniti alla nascita delle Trade Unions, primi sindacati operai, decretarono la fine della protesta luddista.

IERI E OGGI

Sembra possibile trovare un parallelismo tra la percezione dei ceti operai del XIX secolo che fu alla base del luddismo e l'attuale preoccupazione nei confronti delle radicali trasformazioni del tessuto produttivo delineate dallo sviluppo e della adozione di tecnologie di Intelligenza Artificiale.

Oggi come allora, l'innovazione tecnologica suscita timori, resistenze e opposizione al “nuovo progresso”.

Tra chi progetta e sviluppa – singoli individui o grandi imprese che siano - le tecnologie di Intelligenza Artificiale sembrano pochi a porsi il problema delle conseguenze sull’occupazione, sui salari, sul benessere dei lavoratori “tradizionali”; si procede con entusiasmo, in nome del progresso tecnologico, del superamento di ostacoli e di barriere fino a ieri considerati impossibili, dell’avvicinamento della macchina alle performance umane.

Anche tra gli studiosi di I.A. sensibili a questi problemi, l’eccitazione per i risultati sembra appannare la visione umanista. Un esempio è quello di Nello Cristianini, studioso e professore di intelligenza artificiale a Bath, che – nonostante l’impegno a rappresentare i rischi legati ad una massiva adozione di tecnologie I.A. – sembra farsi trascinare dall’entusiasmo per i nuovi sviluppi: «Dopo essere eguagliati, potremmo essere superati? E come? O la macchina diventa più brava a fare ciò che già facciamo, oppure la macchina impara a svolgere compiti che non sappiamo fare. A me interessa l’idea che riesca a capire cose che io non posso» (A. Capocci, Nello Cristianini, il ragionamento delle macchine, Il Manifesto, 14/03/2025).

I timori sembrano giustificati dal fatto che, in altri settori produttivi – come quello della realizzazione del software – si sta già generando uno scenario di sostituzione del lavoro dei programmatori con sistemi automatici basati sull'Intelligenza Artificiale, con una conseguente ondata di licenziamenti.

E, nei media e nelle discussioni pubbliche, viene dato grande risalto al rischio che il ruolo centrale dell'uomo in molte fasi della vita collettiva cui siamo abituati venga meno.

D’altra parte, però, per alcune occupazioni, l’utilizzo di strumenti di Intelligenza Artificiale permette a molti lavoratori e professionisti di delegare “alle macchine” compiti di basso profilo competenziale che richiedevano molto impegno di tempo, oppure attività ad elevato rischio fisico, migliorando le condizioni di lavoro.

POSSIBILITÀ

Ora, il fenomeno del luddismo e delle tensioni tra lavoratori, industriali e governo, come si verificò nel XIX secolo in Inghilterra, non sembra essere una possibilità, anche solo perché - nel caso dell’Intelligenza Artificiale - è difficile trovare qualcosa da distruggere.

E, tutto sommato, il fenomeno luddista sembra aver solo spostato avanti di qualche anno la trasformazione industriale e il suo correlato di cambiamento sociale, di inurbazione, di povertà e degrado nelle periferie, e di successiva - nel XX secolo - “normalizzazione” del lavoro in fabbrica.

Oggi, i punti da dibattere, in modo serio e puntuale, sono:

  • come governare la I.A., anche facendo leva sulla sensibilità del problema anche a livello istituzionale, sensibilità da preservare e non lasciar catturare dagli intenti delle grandi industrie digitali [1]
  • come capire quali reali opportunità di benessere potrà offrire ai viventi,
  • come identificare i rischi dello sviluppo della tecnologia
  • come evitare lo sviluppo in nome del solo “progresso tecnologico” e della sola remunerazione delle grandi aziende digitali.

Per farlo sono necessari: ● una difesa istituzionale che si metta rigorosamente dalla parte dei cittadini, ● attenzione e coraggio da parte di tutti - lavoratori, professionisti, manager e imprenditori - per identificare sul nascere le reali opportunità e i reali rischi e per infondere una coscienza morale tra chi queste tecnologie promuove e intende utilizzare.

 

NOTE

[1] Cfr.: A. Saltelli, D. J. Dankel, M. Di Fiore, N. Holland, M. Pigeon, Science, the endless frontier of regulatory capture, Science Direct, Futures, Volume 135, January 2022, 102860

 


I costi ambientali del digitale - Una bibliografia ragionata

Che il grande baraccone digitale planetario, che oggi si manifesta in particolare sub specie intellegentiae artificialis, nasconda, dietro le luminarie della facciata, un lato oscuro di pesantissimi costi ambientali è testimoniato da una mole di dati sempre maggiore. Così come cresce per fortuna l’informazione in merito, filtrando addirittura sugli organi d’informazione mainstream, dove in genere s’accompagna tuttavia alla rassicurante prospettiva di soluzioni tecnologiche a portata di mano. È comunque bene che la consapevolezza della dimensione industriale e materiale del web, con le relative conseguenze in termini di “impronta ecologica”, si faccia strada nella coscienza collettiva. Come contributo in questo senso, dopo avere discusso in due precedenti articoli su questa rivista [qui e qui] il libro di Giovanna Sissa, Le emissioni segrete, Bologna, Il Mulino, 2024, proponiamo di seguito una piccola bibliografia ragionata sull’argomento.

- Guillaume Pitron, Inferno digitale. Perché Internet, smartphone e social network stanno distruggendo il nostro pianeta, Roma, LUISS University Press, 2022. Fa girar la testa il viaggio vertiginoso tra dati, numeri, luoghi e situazioni in cui Pitron ci accompagna per mostrarci che la crescita illimitata del capitalismo digitale non è meno energivora e inquinante delle “vecchie industrie” (ma appunto questa distinzione è buona… per i gonzi). Il libro, infatti, sfata nel modo più drastico la mitologia diffusa del carattere ecocompatibile dell’universo digitale. Alternando analisi e reportage giornalistico, Pitron riesce a dare un quadro documentato e insieme davvero drammatico degli effetti dannosi che l’industria digitale scarica sull’ambiente (da segnalare l’impressionante capitolo dedicato all’inquinamento registrato nelle città di Taiwan, dove si concentra una parte molto significativa della filiera). Un libro, infine, ben lontano da ogni compassata «avalutatività» delle scienze sociali, con buona pace di Max Weber.

- Kate Crawford, Né intelligente né artificiale. Il lato oscuro dell’IA, Bologna, Il Mulino, 2021. Questo libro, opera di una delle più intelligenti studiose di questi argomenti, non è specificamente dedicato al tema dei costi ambientali del digitale, ma piuttosto a una complessiva visione critica dell’Intelligenza Artificiale (come recita il titolo originale, un Atlas of AI. Power, Politics, and the Planetary Costs of Artificial Intelligence), di cui vengono enfatizzate le implicazioni politiche, sociali, antropologiche ecc. In tale quadro è dato molto spazio al tema della “materialità” del mondo digitale, perché – scrive la Crawford –  «l’intelligenza artificiale può sembrare una forza spettrale, come un calcolo disincarnato, ma questi sistemi sono tutt’altro che astratti. Sono infrastrutture fisiche che stanno rimodellando la Terra, modificando contemporaneamente il modo in cui vediamo e comprendiamo il mondo».

- Juan Carlos De Martin, Contro lo smartphone. Per una tecnologia più democratica, Torino, Add, 2023. Particolarmente incentrato sul ruolo di vera e propria protesi del corpo umano, nonché di oggetto-feticcio che lo smartphone («la macchina per eccellenza del XXI secolo») tende ad assumere, questo libro contiene molti dati e osservazioni utili sul tema della sua materialità e appunto del suo impatto ambientale.

- Andrew Blum, Viaggio al centro di internet, a cura di Fabio Guarnaccia e Luca Barra, Roma, Minimum fax, 2021 (ed. or. 2012). Uscito originariamente nel 2012 e giunto in traduzione italiana dieci anni dopo, il Viaggio di Blum ha appunto la forma di un singolare reportage nella geografia, nei luoghi fisici (per esempio i tanti anonimi capannoni in cui si trovano i data-center) in cui si materializza il web: «per fare visita a Internet – scrive l’autore – ho cercato di liberarmi dell’esperienza personale che ne avevo già, del modo in cui si palesa su uno schermo, per portare a galla la sua massa nascosta». E può essere utile sapere che l’idea della ricerca venne al giornalista statunitense quando, una sera, si trovò con la connessione fuori uso nella sua casa in campagna a causa di… uno scoiattolo che gli aveva rosicchiato i cavi!

- Siate materialisti! è l’appello che campeggia sulla copertina dell’appassionato e stimolante pamphlet di Ingrid Paoletti (Torino, Einaudi, 2021), docente di Tecnologia dell’architettura al Politecnico di Milano. Niente a che fare con una dichiarazione di fede filosofica di stile settecentesco, però: qui il «materialismo» che si invoca è piuttosto una rinnovata attenzione alla dimensione materiale della nostra vita, ai manufatti che la popolano e che tuttavia noi ormai diamo per scontati e in certo modo naturali. Una disattenzione, questa verso la “materia”, dagli evidenti risvolti ecologici (piace qui ricordare la bella figura di Giorgio Nebbia, che riteneva proprio per questo la merceologia una scienza altamente civile), e che tocca in particolare il mondo del digitale: il web e i suoi servizi continuano, in effetti, ad apparire ai nostri occhi un campo di interazioni puramente cognitive e sociali, slegata da ogni implicazione materiale.

- È un libro a più voci (davvero tante) Ecologia digitale. Per una tecnologia al servizio di persone, società e ambiente, Milano, AltrEconomia, 2022, una guida completa ai diversi “lati oscuri” (non solo quello ambientale) della digitalizzazione. Con una particolare attenzione alle soluzioni pratiche proposte dagli studiosi e dai tecno-attivisti che cercano di pensare – e progettare – un digitale (davvero) sostenibile, che significa anche, tra l’altro, contenerlo e ridimensionarlo.

- Propone una visione a tinte (giustamente) fosche Terra bruciata (Milano, Meltemi, 2023) di Jonathan Crary, un bravo saggista americano che si era segnalato alcuni anni fa per un atto d’accusa molto ben documentato contro “l’assalto capitalistico al sonno” (24/7, Einaudi, 2015). Crary parla in questo libro del degrado ambientale prodotto dalla industria del digitale non come di un fenomeno isolato, ma come parte integrante di un capitalismo ormai completamente insostenibile. In questo senso, il luccicante mondo digitale è solo la quinta teatrale (l’ultima allestita dal discorso autocelebrativo dominante) che cerca di spacciare un mondo ormai marcescente in un paradiso transumano.

- Paolo Cacciari, Ombre verdi. L’imbroglio del capitalismo green, Milano, AltrEconomia, 2020. Ricco di considerazioni (e di dati) sul tema dell'impatto ecologico delle tecnologie digitali, il libro di Paolo Cacciari è principalmente dedicato alla decostruzione critica del “nuovo imbroglio ecologico” (come lo si potrebbe chiamare con il titolo del celebre saggio di Dario Paccino del 1972) rappresentato dalla cosiddetta green economy. Anche perché «la riconversione dal fossile al green – definita la terza o quarta rivoluzione industriale – è gestita dalle stesse centrali del grande capitale finanziario». Centrali che non brillano, di norma, per attenzioni filantropiche, né appunto ambientali.

Parola-chiave: decoupling, ovvero l’asserito «disaccoppiamento» tra crescita economica e impatto ambientale reso possibile dalle tecnologie dell’informazione della comunicazione (ICT), un mito qui debitamente sbugiardato.

- La critica della favoletta “eco-capitalistica” del decoupling, nonché il riferimento alla insostenibilità ambientale del «consumismo cognitivo che si poggia sulle ICT» trova spazio anche in Il capitale nell’Antropocene, Torino, Einaudi, 2024 (ed.or. 2020) di Saito Kohei, il popolare saggista che ha fatto scoprire ai giapponesi i temi dell’eco-marxismo, ricevendo peraltro un successo inusuale per le opere di saggistica politico-sociale (il suo Ecosocialismo di Karl Marx ha venduto in patria mezzo milione di copie!), e che oggi, sull’onda di questo successo, viene accolto come una star anche in Italia. Insomma, anche le mode talvolta fanno cose buone…

- È un manuale rivolto ai corsi di media e comunicazione Gabriele Balbi e Paolo Magaudda, Media digitali. La storia, i contesti sociali, le narrazioni, Bari-Roma, Laterza, 2021: un volume che intende fornire una visione interdisciplinare del fenomeno digitale, con particolare attenzione a un approccio storico e sociologico (insomma: la Rete non cade dal cielo e non è socialmente neutrale), e ben consapevole della «dimensione infrastrutturale e materiale della rete internet».

- Chi, infine, volesse andare alle fonti, può consultare il periodico rapporto sull’economia digitale preparato annualmente dall’UNCTAD, l’agenzia ONU sui temi del commercio e dello sviluppo e disponibile in rete. Sul Digital Economy Report 2024, https://unctad.org/publication/digital-economy-report-2024 , si possono trovare tutti i dati più aggiornati sul tema (uno tra i  mille: la vendita di smartphone ha raggiunto il miliardo e duecento milioni di unità nel 2023, il doppio del 2010) e documentazione nei più diversi formati: tabelle, infografiche molto accattivanti, il documento scaricabile in PDF in sei lingue, video di accompagnamento, podcast ecc.

A riprova che, in questo campo come in molti altri, le informazioni ci sono in abbondanza e ormai a disposizione di chiunque. Siamo noi, abitatori del tempo presente, che siamo sempre meno capaci di farne uso e di trarne conseguenze razionali, anche perché costantemente distratti dagli apparati del potere mediale stesso.