I costi ambientali del digitale - Una bibliografia ragionata
Che il grande baraccone digitale planetario, che oggi si manifesta in particolare sub specie intellegentiae artificialis, nasconda, dietro le luminarie della facciata, un lato oscuro di pesantissimi costi ambientali è testimoniato da una mole di dati sempre maggiore. Così come cresce per fortuna l’informazione in merito, filtrando addirittura sugli organi d’informazione mainstream, dove in genere s’accompagna tuttavia alla rassicurante prospettiva di soluzioni tecnologiche a portata di mano. È comunque bene che la consapevolezza della dimensione industriale e materiale del web, con le relative conseguenze in termini di “impronta ecologica”, si faccia strada nella coscienza collettiva. Come contributo in questo senso, dopo avere discusso in due precedenti articoli su questa rivista [qui e qui] il libro di Giovanna Sissa, Le emissioni segrete, Bologna, Il Mulino, 2024, proponiamo di seguito una piccola bibliografia ragionata sull’argomento.
- Guillaume Pitron, Inferno digitale. Perché Internet, smartphone e social network stanno distruggendo il nostro pianeta, Roma, LUISS University Press, 2022. Fa girar la testa il viaggio vertiginoso tra dati, numeri, luoghi e situazioni in cui Pitron ci accompagna per mostrarci che la crescita illimitata del capitalismo digitale non è meno energivora e inquinante delle “vecchie industrie” (ma appunto questa distinzione è buona… per i gonzi). Il libro, infatti, sfata nel modo più drastico la mitologia diffusa del carattere ecocompatibile dell’universo digitale. Alternando analisi e reportage giornalistico, Pitron riesce a dare un quadro documentato e insieme davvero drammatico degli effetti dannosi che l’industria digitale scarica sull’ambiente (da segnalare l’impressionante capitolo dedicato all’inquinamento registrato nelle città di Taiwan, dove si concentra una parte molto significativa della filiera). Un libro, infine, ben lontano da ogni compassata «avalutatività» delle scienze sociali, con buona pace di Max Weber.
- Kate Crawford, Né intelligente né artificiale. Il lato oscuro dell’IA, Bologna, Il Mulino, 2021. Questo libro, opera di una delle più intelligenti studiose di questi argomenti, non è specificamente dedicato al tema dei costi ambientali del digitale, ma piuttosto a una complessiva visione critica dell’Intelligenza Artificiale (come recita il titolo originale, un Atlas of AI. Power, Politics, and the Planetary Costs of Artificial Intelligence), di cui vengono enfatizzate le implicazioni politiche, sociali, antropologiche ecc. In tale quadro è dato molto spazio al tema della “materialità” del mondo digitale, perché – scrive la Crawford – «l’intelligenza artificiale può sembrare una forza spettrale, come un calcolo disincarnato, ma questi sistemi sono tutt’altro che astratti. Sono infrastrutture fisiche che stanno rimodellando la Terra, modificando contemporaneamente il modo in cui vediamo e comprendiamo il mondo».
- Juan Carlos De Martin, Contro lo smartphone. Per una tecnologia più democratica, Torino, Add, 2023. Particolarmente incentrato sul ruolo di vera e propria protesi del corpo umano, nonché di oggetto-feticcio che lo smartphone («la macchina per eccellenza del XXI secolo») tende ad assumere, questo libro contiene molti dati e osservazioni utili sul tema della sua materialità e appunto del suo impatto ambientale.
- Andrew Blum, Viaggio al centro di internet, a cura di Fabio Guarnaccia e Luca Barra, Roma, Minimum fax, 2021 (ed. or. 2012). Uscito originariamente nel 2012 e giunto in traduzione italiana dieci anni dopo, il Viaggio di Blum ha appunto la forma di un singolare reportage nella geografia, nei luoghi fisici (per esempio i tanti anonimi capannoni in cui si trovano i data-center) in cui si materializza il web: «per fare visita a Internet – scrive l’autore – ho cercato di liberarmi dell’esperienza personale che ne avevo già, del modo in cui si palesa su uno schermo, per portare a galla la sua massa nascosta». E può essere utile sapere che l’idea della ricerca venne al giornalista statunitense quando, una sera, si trovò con la connessione fuori uso nella sua casa in campagna a causa di… uno scoiattolo che gli aveva rosicchiato i cavi!
- Siate materialisti! è l’appello che campeggia sulla copertina dell’appassionato e stimolante pamphlet di Ingrid Paoletti (Torino, Einaudi, 2021), docente di Tecnologia dell’architettura al Politecnico di Milano. Niente a che fare con una dichiarazione di fede filosofica di stile settecentesco, però: qui il «materialismo» che si invoca è piuttosto una rinnovata attenzione alla dimensione materiale della nostra vita, ai manufatti che la popolano e che tuttavia noi ormai diamo per scontati e in certo modo naturali. Una disattenzione, questa verso la “materia”, dagli evidenti risvolti ecologici (piace qui ricordare la bella figura di Giorgio Nebbia, che riteneva proprio per questo la merceologia una scienza altamente civile), e che tocca in particolare il mondo del digitale: il web e i suoi servizi continuano, in effetti, ad apparire ai nostri occhi un campo di interazioni puramente cognitive e sociali, slegata da ogni implicazione materiale.
- È un libro a più voci (davvero tante) Ecologia digitale. Per una tecnologia al servizio di persone, società e ambiente, Milano, AltrEconomia, 2022, una guida completa ai diversi “lati oscuri” (non solo quello ambientale) della digitalizzazione. Con una particolare attenzione alle soluzioni pratiche proposte dagli studiosi e dai tecno-attivisti che cercano di pensare – e progettare – un digitale (davvero) sostenibile, che significa anche, tra l’altro, contenerlo e ridimensionarlo.
- Propone una visione a tinte (giustamente) fosche Terra bruciata (Milano, Meltemi, 2023) di Jonathan Crary, un bravo saggista americano che si era segnalato alcuni anni fa per un atto d’accusa molto ben documentato contro “l’assalto capitalistico al sonno” (24/7, Einaudi, 2015). Crary parla in questo libro del degrado ambientale prodotto dalla industria del digitale non come di un fenomeno isolato, ma come parte integrante di un capitalismo ormai completamente insostenibile. In questo senso, il luccicante mondo digitale è solo la quinta teatrale (l’ultima allestita dal discorso autocelebrativo dominante) che cerca di spacciare un mondo ormai marcescente in un paradiso transumano.
- Paolo Cacciari, Ombre verdi. L’imbroglio del capitalismo green, Milano, AltrEconomia, 2020. Ricco di considerazioni (e di dati) sul tema dell'impatto ecologico delle tecnologie digitali, il libro di Paolo Cacciari è principalmente dedicato alla decostruzione critica del “nuovo imbroglio ecologico” (come lo si potrebbe chiamare con il titolo del celebre saggio di Dario Paccino del 1972) rappresentato dalla cosiddetta green economy. Anche perché «la riconversione dal fossile al green – definita la terza o quarta rivoluzione industriale – è gestita dalle stesse centrali del grande capitale finanziario». Centrali che non brillano, di norma, per attenzioni filantropiche, né appunto ambientali.
Parola-chiave: decoupling, ovvero l’asserito «disaccoppiamento» tra crescita economica e impatto ambientale reso possibile dalle tecnologie dell’informazione della comunicazione (ICT), un mito qui debitamente sbugiardato.
- La critica della favoletta “eco-capitalistica” del decoupling, nonché il riferimento alla insostenibilità ambientale del «consumismo cognitivo che si poggia sulle ICT» trova spazio anche in Il capitale nell’Antropocene, Torino, Einaudi, 2024 (ed.or. 2020) di Saito Kohei, il popolare saggista che ha fatto scoprire ai giapponesi i temi dell’eco-marxismo, ricevendo peraltro un successo inusuale per le opere di saggistica politico-sociale (il suo Ecosocialismo di Karl Marx ha venduto in patria mezzo milione di copie!), e che oggi, sull’onda di questo successo, viene accolto come una star anche in Italia. Insomma, anche le mode talvolta fanno cose buone…
- È un manuale rivolto ai corsi di media e comunicazione Gabriele Balbi e Paolo Magaudda, Media digitali. La storia, i contesti sociali, le narrazioni, Bari-Roma, Laterza, 2021: un volume che intende fornire una visione interdisciplinare del fenomeno digitale, con particolare attenzione a un approccio storico e sociologico (insomma: la Rete non cade dal cielo e non è socialmente neutrale), e ben consapevole della «dimensione infrastrutturale e materiale della rete internet».
- Chi, infine, volesse andare alle fonti, può consultare il periodico rapporto sull’economia digitale preparato annualmente dall’UNCTAD, l’agenzia ONU sui temi del commercio e dello sviluppo e disponibile in rete. Sul Digital Economy Report 2024, https://unctad.org/publication/digital-economy-report-2024 , si possono trovare tutti i dati più aggiornati sul tema (uno tra i mille: la vendita di smartphone ha raggiunto il miliardo e duecento milioni di unità nel 2023, il doppio del 2010) e documentazione nei più diversi formati: tabelle, infografiche molto accattivanti, il documento scaricabile in PDF in sei lingue, video di accompagnamento, podcast ecc.
A riprova che, in questo campo come in molti altri, le informazioni ci sono in abbondanza e ormai a disposizione di chiunque. Siamo noi, abitatori del tempo presente, che siamo sempre meno capaci di farne uso e di trarne conseguenze razionali, anche perché costantemente distratti dagli apparati del potere mediale stesso.
Critica del soluzionismo tecnologico
Il sociologo Morozov ha coniato alcuni anni fa l'espressione "soluzionismo digitale" per indicare l'atteggiamento prevalente ai nostri giorni nei confronti dei dispositivi digitali.
Si ritiene che i problemi siano risolvibili da qualche algoritmo, e dagli strumenti che ne automatizzano l'applicazione alla realtà. Le smart city, le smart home, i dispositivi biometrici che indossiamo, sono alcune delle declinazioni di questa concezione: l'ottimizzazione del traffico nei centri urbani, del consumo energetico e degli scenari di abitabilità nelle case, della forma fisica individuale, sono sottratti alle decisioni collettive e personali, e vengono aggregati intorno ai pattern definiti dalla medietà dei comportamenti sociali.
Persino l'uso della lingua si stabilisce sull'ortografia e sull'ortodossia media, con i motori di ricerca le piattaforme di intelligenza artificiale generativa trasformativa - e lo stesso accade alla selezione delle informazioni più rilevanti per l'assunzione di qualunque decisione.
Si avvera al massimo grado la previsione che Adorno e Horkheimer avevano elaborato sulla dialettica della ragione illuministica, che nel momento in cui si libera dal giogo delle autorità tradizionali finisce per limitarsi alla selezione degli strumenti in vista del fine, ma non è più in grado di pensare le finalità stesse, e i principi che dovrebbero governarle.
Per di più, i dispositivi digitali vantano una proprietà che le tecnologie del passato non avevano mai tentato di pretendere. Servizi digitali come Google, Facebook, Instagram, Amazon, accumulano una mole di dati così ampia e profonda su ciascun individuo, da sapere sui singoli più di quello che i soggetti sanno di se stessi.
Questa espansione quantitativa si tramuta in una condizione qualitativa: la concezione liberale del mondo, che abbiamo ereditato dall'Illuminismo, pone l'individuo come valore fondamentale, collocando nella sua coscienza e nella sua libertà le chiavi di volta della società e della storia.
Oggi le grandi piattaforme digitali possono rivendicare una conoscenza sui singoli, e sui contesti in cui si muovono, superiore a quella di cui i soggetti stessi dispongono, e potrebbero quindi reclamare un diritto di decisione sulla loro vita quotidiana e sul loro destino fondandolo sulla maggiore capacità di prevedere le conseguenze di ogni gesto, su una maggiore razionalità, quindi su una maggiore assunzione di responsabilità per ogni scelta.
-------------
Bisogna sottoporre ad analisi critica questa narrazione, dalla confusione di dati e informazioni alla definizione di "decisione razionale", per evitare non solo che la distopia si avveri, ma anche per impedire che le sue (false) assunzioni ricadano nelle attuazioni parziali che il soluzionismo tecnologico tende ad agevolare, o persino ad imporre.
Intelligenza artificiale e creatività - Terza parte: un lapsus della storia
Nei mesi scorsi abbiamo iniziato una riflessione sul rapporto tra processo creativo e Intelligenza artificiale (Intelligenza artificiale e creatività – I punti di vista di tre addetti ai lavori, 10/09/2024, e Intelligenza artificiale e creatività – Seconda parte: c’è differenza tra i pennelli e l’I.A.?, 17/12/2024), riflessione che si è sviluppata grazie ai contributi di Matteo Donolato - Laureando in Scienze Filosofiche, professore e grafico di Controversie (usando l’I.A.); Paolo Bottazzini - Epistemologo, professionista del settore dei media digitali e esperto di Intelligenza Artificiale; Diego Randazzo e Aleksander Veliscek - Artisti visivi.
Riflessioni che ruotavano attorno alla domanda se le immagini prodotte dall’IA, pur partendo da un input umano, si possano considerare arte.
A completamento di quelle riflessioni, interviene ancora Paolo Bottazzini per disegnare degli scenari futuri che mettono in discussione il concetto di arte come lo conosciamo oggi.
Tutto è in discussione… buona lettura!
---------
Credo che, quando definiamo l’I.A. uno strumento nelle mani dell’artista non dobbiamo cadere nell’ingenuità di ridurre il ruolo del dispositivo a quello di un mezzo trasparente, un utensile che trasferisca in modo neutrale nella materia sensibile un contenuto già compiuto nella mente dell’agente umano. Spetta di sicuro al soggetto che elabora il prompt offrire l’impulso della creazione, attraverso la formulazione della domanda, e tramite la selezione dei risultati che possono essere accolti come utili. Tuttavia, il software introduce elementi che influiscono sia sulle modalità creative, sia sui processi più o meno inconsapevoli di invenzione del prompt.
Benjamin, nella fase pionieristica del cinema, suggeriva che la macchina da presa e il formato del film ci avrebbero permesso di scorgere qualcosa che altrimenti sarebbe rimasto invisibile nell’inconscio dei nostri movimenti; intuiva che lo scatto della fotografia nella sua autenticità sarebbe sempre stato l’inquadratura della scena di un delitto, e che nella sua deviazione di massa avrebbe inaugurato l’epoca del Kitsch.
Elizabeth Eisenstein ha dimostrato che la stampa a caratteri mobili ha contribuito alla nascita di una cultura che vedeva nel futuro una prospettiva di miglioramento progressivo dell’uomo – mentre la copia a mano dei libri nel periodo precedente, con l’aggiunta di errori ad ogni nuova riproduzione, aveva alimentato una visione del mondo in cui l’origine è la sede della verità, e la storia un cammino inesorabile di decadenza. Credo che il compito della critica filosofica e sociologica dovrebbe ora essere quello di comprendere quale sia la prospettiva di verità e di visibilità, o di disvelamento, che viene inaugurata con l’I.A..
In questo momento aurorale dell’uso delle reti neurali possiamo sapere che il loro talento consiste nel rintracciare pattern di strutture percettive nelle opere depositate negli archivi, che in gran parte sono sfuggiti ai canoni proposti negli insegnamenti dell’Accademia. L’I.A. non sviluppa nuovi paradigmi, o letture inedite di ciò che freme nello spirito del nostro tempo, ma è in grado di scoprire ciò che abbiamo riposto nel repertorio del passato, senza esserne consapevoli: rintraccia quello che gli autori non sanno di aver espresso con il loro lavoro. La metafora dell’inconscio adottata da Benjamin sembra quindi essere adeguata a descrivere quello che il lavoro dei software riesce a portare alla luce: in questo caso però il rimosso appartiene al corpus delle opere che scandiscono la tradizione estetica, da cui viene lasciato emergere ciò che vi è di latente, cancellato, rifiutato, dimenticato.
La possibilità di far redigere a chatGPT un testo nello stile di Foscolo o di Leopardi, o di chiedere a Midjourney di raffigurare un’immagine alla maniera di Monet, o di renderla con l’estro dei cubisti, o di mimare Caravaggio, Raffaello, Leonardo, conduce alla produzione di una specie di lapsus della storia dell’arte – qualcosa che l’autore invocato avrebbe potuto creare, o i suoi discepoli, ma che non è mai esistito.
Qual è lo statuto ontologico ed estetico di questo balbettio della tradizione, di questa eco di ciò che dovrebbe essere unico, e che invece resuscita in un sosia, ritorna nello spettro di un doppio scandaloso? Kant insegna che l’idea estetica è definita dal fatto di essere l’unica rappresentazione possibile di un’idea universale: il gesto produttivo dell’I.A. viola questo assunto che si trova alla radice di gran parte delle teorie dell’arte moderne e contemporanee.
Stiamo allora abbandonando per sempre la concezione dell’arte come creazione del genio, come gesto unico e non riproducibile dell’artista? Dobbiamo rivedere la prospettiva monumentale che l’Occidente ha coltivato dell’arte, per avvicinarci alla sensibilità del gesto nella sua infinita riproducibilità, sempre uguale e sempre differente, che appartiene alla tradizione orientale? O forse, l’attenzione con cui la possibilità di variare, di giocare con la latenza e il rimosso, avvicina l’arte ad un’esperienza quasi scientifica di osservazione e di scoperta, alla trepidazione e al timore (che sempre accompagnano il ritorno del trauma, la ricomparsa sulla scena del delitto) di mostrare lo schematismo di ciò che scatena l’emozione, di esibire i segni che suscitano la reputazione di verità, di configurare l’allestimento in cui avviene la recita di ciò che riconosciamo come bello e giusto.
Qualunque sia la soluzione che si verificherà nella prassi dei prossimi anni, se l’I.A. diventerà un dispositivo protagonista dell’attività creativa nelle mani degli artisti di professione e in quelle del pubblico generalista, e non si limiterà a rappresentare una moda passeggera, il suo impatto sarà destinato a introdurre un processo di ri-mediazione sulle forme espressive dell’arte e anche sui mezzi di comunicazione in senso ampio. Allo stesso modo, oltre un secolo e mezzo fa, la fotografia ha trasformato le modalità creative della pittura e delle arti plastiche, liberandole dalla fedeltà mimetica al loro soggetto e inaugurando percorsi di indagine che contrassegnano l’epoca moderna. Tutti i media subiranno una ristrutturazione che ne modificherà la destinazione, e le attese da parte del pubblico, con una nuova dislocazione della loro funzione comunicativa, laddove l’immediatezza documentaristica è minacciata dalle deep fake, la meccanicità della produzione di cronaca è coperta dalle I.A. generative trasformative, l’esercizio di riflessione sugli stili del passato è coperto dalla ricognizione dei pattern dalle reti neurali.
C’è molto spazio per la sperimentazione!
Internet ci rende transumani - La fattoria degli umani di Enrico Pedemonte
1. QUELLO CHE L’UTOPIA NON SA
«Il male che gli uomini fanno sopravvive loro; il bene è spesso sepolto con le loro ossa». Il rammarico dell’Antonio di Shakespeare potrebbe essere rivolto alle utopie che hanno accompagnato la nascita di Internet e dei dispositivi digitali, e i nomi di di Vannevar Bush o di Douglas Engelbart potrebbero sostituirsi a quello di Cesare. Nel 2008 Nicholas Carr si domandava se Google ci rende stupidi, e di sicuro oggi molti analisti concordano sul fatto che non siamo qui a lodare la convinzione che le macchine possano contribuire ad aumentare l’intelletto umano – ma a seppellirla. Dalla presentazione del 9 dicembre 1968, con cui Engelbart ha mostrato per la prima volta l’interazione con un computer tramite mouse e interfaccia grafica, siamo passati attraverso la commercializzazione massiva della Rete, la formazione dei monopoli delle Big Tech, il saccheggio dei dati personali, lo sviluppo della società del controllo, la dipendenza patologica dalle piattaforme, la filter bubble, la polarizzazione delle opinioni e il dibattito sulla disinformazione. Di sicuro si è persa l’innocenza delle origini, la promessa di un nuovo mondo della comunicazione, la speranza di una libertà che il principio di realtà aveva negato nel mondo offline, la fiducia in comunità virtuali, senza confini, dove raggiungere una piena espressione del sé di ognuno.
Enrico Pedemonte ripercorre la storia che porta da Vannevar Bush fino ai nostri giorni in La fattoria degli umani, cercando di capire cos’è successo all’utopia degli spazi digitali, cosa si è inoculato nel sogno di un’umanità più perspicace e più emancipata precipitandolo in un incubo, nel terrore che tutto possa concludersi con lo sterminio della nostra specie da parte di un’AI superintelligente. L’ipotesi che un giorno o l’altro una macchina assuma l’aspetto di Terminator e compia una strage, come in un film di fantascienza, non è una preoccupazione realistica; ma è significativo che la retorica da cui viene accompagnato lo sviluppo delle nuove tecnologie abbia dismesso l’entusiasmo per l’intelligenza connettiva di Pierre Lévy, e abbia abbracciato il timore di scenari catastrofici. Pedemonte sospetta che un vizio sia presente fin dall’origine, e che i suoi effetti si siano amplificati con l’espansione della forza economica e del potere politico dei giganti della Silicon Valley.
2. IMMUNITÀ LEGALE
Anzi, i difetti sono almeno due, e si sono rafforzati l’un l’altro, o sono forse due sintomi di una stessa crisi, ancora più profonda. Il primo ha origine fuori dall’ambiente culturale della Silicon Valley, e si sviluppa nel cammino tormentato con cui il parlamento americando ha raggiunto la versione definitiva del Communications Decenct Act. La legge stabilisce che le piattaforme online non devono essere equiparate agli editori tradizionali, e le tutela da ogni intervento del governo nei loro confronti: in questo modo attori del nascente mercato digitale, come Google, Facebook, Twitter, sono stati messi al riparo da qualunque regolamentazione sia sul controllo dei contenuti, sia sulla ripartizione della distribuzione pubblicitaria – e più in generale sulla valutazione delle loro posizioni monopolistiche nei settori della ricerca, dei social media, dell’intelligenza artificiale. La supervisione che viene applicata ai giornali, alle radio e alle reti televisive, non agisce sugli algoritmi che gestiscono il ranking dei listati di risposte, la selezione dei post e la composizione delle bacheche personali, la profilazione dell’advertising: eppure tra il 2004 e il 2021 il numero di giornali nel mondo è quasi dimezzato (-47%), mentre l’accesso alle notizie tramite i social media è diventato una consuetudine tra gli utenti del Web.
Ma l’obiettivo delle piattaforme tecnologiche non è quello di consolidare la fiducia dei lettori nella verità dei contenuti divulgati, bensì quello di trattenerli il più possibile nella compulsione delle bacheche, e nell’incentivare il più possibile l’interazione con like, commenti, condivisioni. Mentre la verità si sta ancora allacciando le scarpe, una bugia ha già fatto il giro del mondo: così chiosava Mark Twain. Il controllo delle informazioni richiede tempo, e il più delle volte una storia esposta in buona fede è affetta da lacune, passaggi critici, contraddizioni; l’artefazione, o (quando serve) l’invenzione completa dei fatti, possono invece adattarsi all’ecosistema ideologico degli interlocutori, e sfrecciare da una mente all’altra senza ostacoli. La fatica che è richiesta all’utente nella ricognizione della complessità del reale, gli viene del tutto risparmiata quando la notizia è costruita attorno all’effetto emotivo, che suscita scandalo, orrore, sdegno o pietà. Le notizie a tinte forti attraggono i clic, coinvolgono i lettori, accendono il dibattito – spingono verso la radicalizzazione dei pregiudizi, a detrimento della riflessione e della mediazione. Gli esiti sono tossici per lo stato di salute delle democrazie e per la coesione sociale; per i bilanci delle società che amministrano le piattaforme sono invece un toccasana, perché assicurano il buon funzionamento della loro attività produttiva principale, l’estrazione dei dati.
3. DATI
Shoshana Zuboff ha sottolineato l’affinità tra il modello di business di imprese come Google e Facebook da un lato, e l’industria mineraria o petrolifera dall’altro lato. Le informazioni che le Big Tech estraggono dal comportamento degli utenti permettono loro di conoscere le caratteristiche sociodemografiche, gli interessi, le opinioni, le abitudini, le relazioni personali, le disponibilità di spesa, le paure di ognuno e di tutti – e naturalmente anche di controllarli, manipolarli, sfruttarli. Nessun settore imprenditoriale si è mai rivelato tanto promettente dal punto di vista dei profitti, e nessuno è stato così agevolato nella crescita, e messo al riparo dalle difficoltà minacciate dalle istituzioni a tutela della privacy e della libera concorrenza, nonché dalle interferenze di attivisti e giornalisti troppo curiosi. Motori di ricerca e social media serbano una biografia di ciascuno di noi più ampia, più ricca e obiettiva, di quella che noi stessi sapremmo confessare nel segreto del nostro foro interiore: nella registrazione di tutte le nostre domande, dei nostri like e dei nostri post, protratta per anni, si deposita una traccia delle aspirazioni, degli interessi e delle paure di cui spesso non conserviamo una memoria cosciente, ma che i database di Google e di Facebook mettono a disposizione degli inserzionisti. Inconscio, abitudini e passioni, individuate nel momento in cui emergono da pulsioni interne o da opportunità sociali, diventano la leva ideale per vendere prodotti e servizi – ma anche candidati elettorali, ideologie, priorità e strategie politiche.
Le piattaformi digitali tendono al monopolio: le persone frequentano i posti dove si trovano già tutti i loro amici, o cercano le informazioni che sono condivise dai loro clienti e dagli interlocutori in generale. In questo modo chi ha accumulato più dati è in grado di offrire esperienze più divertenti e informazioni più personalizzate, intercettando quindi nuovi utenti e appropriandosi ancora di più dati. Chi vince piglia tutto, come accade a Google che detiene circa il 90% delle quote del mercato della ricerca online mondiale. La tensione che ha alimentato questa forma di capitalismo trova la sua ispirazione e giustificazione ideologica nella letteratura di Ayn Rand e della fantascienza che ha nutrito imprenditori, tecnici, guru, profeti e visionari nerd della Silicon Valley: è questo il secondo vizio – questa volta del tutto interno alla cultura tech – che ha segnato dalle origini il percorso delle utopie della Rete. L’umanità deve essere salvata da se stessa, dalla sua imperfezione e dalla sua mortalità, e questo compito può essere assunto solo da un eroe che trascende qualunque limite gli venga opposto dalla società, dalla legge, dalle tradizioni e persino dal buon senso (anzi, da questo prima di tutto). L’individualismo senza rimorsi, la tensione a diventare l’eletto che porterà gli altri uomini oltre se stessi, anche a costo della loro libertà – sono il codice in cui è scritto il programma utopistico della Rete, come sede della vita che vale la pena di essere vissuta. Chi non ce la fa, o chi cerca di resistere – o addirittura chi tenta di non essere d’accordo – è destinato a soccombere e a scivolare nell’oblio della storia. La violazione della privacy, il prelievo dei dati, la manipolazione delle intenzioni, non sono quindi attività illegali, ma sono i doni che l’eroe riversa sull’umanità, per liberarla dalle sue limitazioni, dalle sue paure irrazionali, dalla sua mortalità.
4. L’UOMO (?) CHE VERRÀ
Pedemonte elenca sette movimenti in cui si possono classificare le mitologie principali da cui è guidato il capitalismo della Silicon Valley: Transumanesimo, Estropianesimo, Singolarismo, Cosmismo, Razionalismo, Altruismo Efficace, Lungotermismo. Le categorie non sono esclusive, si può aderire a più parrocchie nello stesso tempo, o transitare nel corso del tempo da una all’altra. In comune queste prospettive coltivano il culto dell’accelerazione nello sviluppo di nuove tecnologie, l’ambizione di realizzare simbionti tra uomo e macchina, dilatando le capacità cognitive degli individui, riprogrammando la vita e la natura, eliminando imprevisti, patologie e – ove possibile – anche la morte.
Le aspirazioni appartengono alla fantascienza, le intenzioni utopistiche sono sepolte e dimenticate, ma lo sviluppo di metodi di controllo, l’accentramento monopolistico, la violazione della proprietà intellettuale, l’abbattimento progressivo dello stato sociale e la privatizzazione dei suoi servizi, sono ormai la realtà del capitalismo dei nostri giorni – che ha trovato nelle tecnologie digitali, e nell’etica hacker che ne sostiene la progettazione, la piattaforma su cui reinventarsi dopo la crisi degli ultimi decenni del XX secolo. La realtà che è sopravvissuta alle utopie novecentesche è un mercato che ha assorbito la politica e la cultura, dove l’unico individuo che può esprimersi liberamente è quello transumanistico, che pone la macchina come obiettivo, e l’autismo del nerd come modello di vita.
BIBLIOGRAFIA
Carr, Nicholas, Is Google Making Us Stupid?, «The Atlantic», vol. 301, n.6, luglio 2008.
Engelbart, Douglas, Augmenting human intellect: A conceptual framework, SRI Project 3578 Stanford Research Institute, Menlo Park California October 1962.
Lévy, Pierre, L'Intelligence collective. Pour une anthropologie du cyberespace, La Découverte, Parigi 1994.
Pedemonte, Enrico, La fattoria degli umani, Treccani, Milano 2024.
Zuboff, Shoshana, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, Profile Books, Londra 2019.
Deskilling e Diverse Skilling - La trasformazione delle competenze nell'era digitale
L'innovazione tecnologica ha rivoluzionato il nostro modo di vivere e lavorare, delegando molte attività a strumenti digitali. L'adozione di queste tecnologie genera due importanti dinamiche che impattano le competenze umane: il fenomeno del deskilling e quello del diverse skilling.
Da un lato, il deskilling indica la perdita di competenze necessarie a svolgere un'azione, che viene – invece - affidata a una macchina. Dall'altro lato, il diverse skilling sottolinea la trasformazione delle competenze del fare in quelle dell'uso e della gestione della macchina che fa.
IL FENOMENO DEL DESKILLING
Il termine deskilling indica la progressiva perdita delle competenze necessarie a svolgere un'attività specifica, fenomeno che si verifica quando un'azione che era abitualmente eseguita da una persona umana viene completamente delegata a uno strumento tecnico o tecnologico. In particolare, nel corso di questo XXI secolo, si tratta di strumenti di automazione digitali.
Un esempio emblematico è quello della calcolatrice: l'introduzione di questo strumento ha ridotto la necessità di eseguire calcoli complessi manualmente. Analogamente, i sistemi di navigazione satellitare hanno reso quasi superflua la capacità di leggere mappe o orientarsi con elementi naturali.
In ambito lavorativo, il deskilling è maggiormente evidente nei settori industriali oggetto di processi di progressiva automazione, settori in cui operai - che un tempo padroneggiavano procedure complesse - ora supervisionano processi gestiti da robot; oppure nei settori dei servizi, in cui numerose attività svolte tradizionalmente da umani – come, ad esempio, l’assistenza ai clienti – iniziano ad essere gestite da bot[1], sistemi automatici digitali che trovano spesso applicazione nelle chat o nei numeri telefonici di assistenza ai clienti: trascrivono e interpretano il linguaggio naturale parlato o scritto, estraggono i riferimenti delle richieste e provano (spesso senza successo, va detto) a dare delle risposte.
Questo fenomeno ha conseguenze significative sia sui processi che sui lavoratori . Da un lato, possono aumentare l'efficienza e ridurre gli errori; dall'altro, portano – sicuramente - ad una progressiva dipendenza dagli strumenti utilizzati e all’oblio delle competenze che permettono ad un umano di fare quel lavoro.
La perdita di competenze pratiche, quelle del fare può avere effetti devastanti: dal punto di vista industriale, infatti,
- riduce la comprensione del processo, in cui l’azione dello strumento, diventato una black box in cui viene immesso qualcosa e che produce qualcosa di diverso, viene data per scontata
- diminuisce la possibilità di integrazione umana manuale in caso di errori o di malfunzionamenti
- segrega le conoscenze di come funziona il passo di processo automatizzato tra gli esperti della tecnologia, del progettare (informatici, meccanici, fisici, chimici) che hanno progettato l’automatismo e che, frequentemente, non partecipano per nulla al processo produttivo, togliendole – invece - a chi il processo produttivo lo vede o lo gestisce quotidianamente
- riduce, quindi, la possibilità di miglioramento della qualità del prodotto – che continua a dipendere dal processo di realizzazione – ai soli momento di re-engineering istituzionalizzato, perdendo il contributo degli esperti del fare, operai e impiegati
Dal lato di chi lavora, invece, riduce l'autonomia dell'individuo, del lavoratore, annulla il valore del suo contributo professionale, e può generare significative ripercussioni sul piano psicologico e sociale.
IL CONTRAPPESO DEL DIVERSE SKILLING
In contrapposizione al deskilling, il diverse skilling è la traslazione delle competenze dall'esecuzione diretta di un compito ,il fare, alla gestione dello strumento che lo compie. Questo fenomeno non implica la perdita totale delle abilità, ma una loro trasformazione e adattamento.
Tornando agli esempi precedenti, l'uso di una calcolatrice richiede la comprensione dei meccanismi logici sottostanti, così come l'interpretazione di dati forniti da un sistema di navigazione richiede la capacità di valutare le condizioni reali del contesto.
In ambito lavorativo, l'automazione può portare gli operai a sviluppare competenze di monitoraggio e di manutenzione delle tecnologie di automazione i sistemi, rendendo necessarie conoscenze più avanzate, come quelle informatiche o ingegneristiche.
Un caso esemplare è stato quello della vulcanizzazione degli pneumatici: negli anni ’80, in una grande azienda industriale italiana, le attività manuali – svolte dai caposquadra – di pianificazione della produzione, delle singole macchine vulcanizzatrici, seguite – in corso di produzione – dalle vere e proprie attività di preparazione e di attrezzaggio delle macchine, sono state sostituite da sistemi informatici che permettevano di effettuare una programmazione efficace ed efficiente per la giornata o la settimana e – sulla base del conteggio automatizzato dei pezzi e delle attività, indicavano al capoturno sulla consolle di controllo quando fosse opportuno intervenire per la manutenzione oppure per il cambio di attrezzaggio programmato per una diversa lavorazione.
In questo caso, il personale ha potuto intervenire nella fase di progettazione per dare le necessarie indicazioni competenziali a chi progettava i sensori, i contatori e il software, in fase di test per controllare se il funzionamento dell’automatismo fosse in linea con le indicazioni e le esigenze e, infine, ha completato la traslazione competenziale con corsi di formazione che hanno permesso alle operaie e agli operai di gestire in autonomia i sistemi automatici e di dare indicazioni su come migliorarne il funzionamento nel tempo.
Il diverse skilling rappresenta, quindi, una forma di resilienza umana all'innovazione tecnologica. Mentre alcune competenze si perdono, altre vengono acquisite, spesso più complesse e specializzate. Questo fenomeno può favorire una maggiore produttività e migliorare la qualità del lavoro, ma non è privo di sfide: la transizione richiede risorse significative in termini di formazione e adattamento culturale e rappresenta – probabilmente – un importante cambiamento sociale guidato delle rivoluzioni tecnologiche.
UN CONFRONTO CRITICO
Il confronto tra deskilling e diverse skilling solleva interrogativi sulla direzione e sulle conseguenze del cosiddetto progresso tecnologico.
Da un lato, il deskilling è un rischio per la sostenibilità delle competenze umane, soprattutto quando interi settori lavorativi si trasformano rapidamente, lasciando molte persone senza le capacità necessarie per adattarsi.
Dall'altro, il diverse skilling dimostra che il cambiamento tecnologico può non annullare le competenze, ma – sotto alcune condizioni – può favorirne un riallineamento verso nuove frontiere di apprendimento.
Il punto di equilibrio – o di crisi - sta certamente nell'accessibilità: non tutti gli individui e non tutti i contesti sociali sono in grado di affrontare il passaggio dal deskilling al diverse skilling.
La focalizzazione delle imprese sull’incremento di efficienza, che va sempre letto come riduzione dei costi di produzione e contestuale aumento della produttività, spesso non contempla investimenti volti a ridurre le lateralità della trasformazione tecnologica.
Questo significa minori opportunità di formazione e infrastrutture dedicate alla transizione verso un diverse skilling e, come conseguenza, amplifica le disuguaglianze, creando una società divisa tra chi detiene le nuove tecnologie, chi le padroneggia e chi ne è escluso.
Nel mondo delle imprese si sente dire che “non si progredisce senza cambiare”, ma il cambiamento è una trasformazione che – purtroppo - non è alla portata di tutti e - spesso - non è portatore di maggiore benessere.
Ad esempio, in settori come la medicina o l'ingegneria, affidarsi completamente alla tecnologia senza mantenere competenze critiche e intuitive può avere conseguenze disastrose.
CONCLUSIONI
Il deskilling e il diverse skilling non sono – quindi - fenomeni mutuamente esclusivi, ma due facce della stessa medaglia. Mentre il primo evidenzia i rischi di una delega eccessiva alla tecnologia, il secondo dimostra la capacità dell’umano di adattarsi e innovarsi, migliorando di fatto la qualità delle sfide che affronta.
Per massimizzare i benefici e minimizzare i rischi, è essenziale – però – che gli innovatori promuovano strategie formative e lavorative che facilitino il diverse skilling, senza trascurare l'importanza delle competenze di base.
In un mondo sempre più automatizzato, il futuro del lavoro e dell'apprendimento dipenderà dalla capacità di bilanciare innovazione tecnologica e adattamento delle abilità umane. Solo così sarà possibile costruire una società in cui la tecnologia sia uno strumento di emancipazione e non di alienazione.
NOTE
[1] I bot sono sistemi automatici digitali che trovano spesso applicazione nelle chat o nei numeri telefonici di assistenza ai clienti: trascrivono e interpretano il linguaggio naturale parlato o scritto, estraggono i riferimenti delle richieste e provano a dare delle risposte.
Harari e il tradimento degli intellettuali - Il darwinismo algoritmico in Nexus
1. ROVESCI
Uno dei colpi di scena più riusciti della saga di Star Wars è il momento in cui il protagonista, Luke Skywalker, scopre di essere figlio dell’antagonista malvagio, Darth Vader. I modelli della fantascienza devono essere presi molto sul serio, perché gran parte dei personaggi più influenti della Silicon Valley tendono a progettare le loro piattaforme, e persino a immaginare il futuro dell’umanità, ricalcandole sui contenuti dei film, delle serie e dei romanzi che hanno dominato la loro eterna adolescenza da nerd: Larry Page e Sundar Pichai (ex e attuale CEO di Google) hanno dichiarato a più riprese che l’obiettivo del loro motore di ricerca è emulare il computer di bordo dell’Enterprise della serie Star Trek.
Ad evocare il dramma dell’agnizione di Luke Skywalker questa volta però non è il fondatore di qualche impresa miliardaria nell’area di San Francisco Bay, ma il volume appena pubblicato da uno degli esponenti più stimati del pensiero liberal, molto amato dalla sinistra americana e internazionale, Yuval Noah Harari. Nexus riepiloga e approfondisce le riflessioni che l’autore ha elaborato a partire da Homo Deus (uscito nel 2016) sul futuro della nostra specie.
Gli assunti con cui Harari inquadra la condizione umana potrebbero essere stati redatti da un ideologo del transumanesimo tanto di moda nella Silicon Valley, come Ray Kurzweil. Qualunque animale, e noi non facciamo eccezione, può essere descritto come una macchina, riducibile a dinamiche fisiche e chimiche, e a strutture comportamentali dettate da algoritmi. La coscienza, la soggettività, la felicità e lo sconforto, sono l’esito di reazioni tra molecole, e possono quindi essere eccitati o sedati da pastiglie che la ricerca scientifica renderà sempre più efficaci. Le indagini di uno dei più grandi divulgatori della realtà clinica e culturale della depressione, Andrew Salomon, contraddicono la baldanza farmacologica di Harari, insistendo sullo strano anello che si instaura tra la fisiologia, gli eventi della vita, e qualcosa di nebuloso e profondo che è identico, ma allo stesso tempo si oppone, alla chiarezza di biologia e biografia.
Nexus non è interessato a questo genere di sottigliezze, dal momento che il percorso della storia è stato tratteggiato nella sua regola generale già un paio di libri fa: al termine del Medioevo l’uomo ha rinunciato al senso dell’universo, preferendogli il potere di programmarlo a proprio piacimento. Le religioni consegnavano ai nostri antenati una posizione centrale nel cosmo e un significato per la vita degli individui e per le comunità – ma pretendevano in cambio l’obbedienza a valori e norme fondate su un’autorità intransigente. L’emancipazione da ogni forma di trascendenza, e dalle sue declinazioni nelle istituzioni politiche e culturali, ha inaugurato un percorso in cui la scienza e la tecnologia sono arrivate a sovrapporsi e a coincidere, per convertire il mondo in un serbatoio di risorse a disposizione della felicità degli uomini. Purtroppo, la farmacopea è solo il simbolo di questa trasformazione, dal momento che la dissoluzione dell’aura sacra che avvolgeva la natura alimenta l’industria delle sostanze psicotrope, ma non offre alcuna indicazione sullo scopo della nostra vita. Possiamo fare tutto liberamente, ma non abbiamo più una ragione per fare qualcosa.
2. ALGORITMI
Quando i significati iscritti nel creato dileguano, il loro posto viene occupato dall’informazione, che si assume il compito di esprimere l’essenza del meccanismo cui sono ridotti gli esseri viventi e le loro società. L’opposizione tra democrazia e totalitarismo, che ricalca la distinzione tra mondo liberale e paesi comunisti, può essere ricondotta nella sua sostanza alla differenza morfologica tra sistemi di comunicazione. La dittatura, e il socialismo, sono configurazioni sociali in cui l’informazione è centralizzata, e irradia da un punto focale che identifica il leader, o l’élite burocratica dello stato. Al contrario la democrazia, e la dottrina liberale, prediligono una forma decentrata di circolazione dell’informazione, che abilita la nascita di molti poli di accesso alle notizie e di molti livelli di elaborazione, decisione, riproduzione dei dati e della conoscenza. L’informazione è l’asset che stabilisce relazioni tra elementi, parti, individui, gruppi: la ricostruzione dei suoi percorsi permette di disegnare le reti in cui si sintetizzano i composti nella dimensione fisica e chimica, prendono vita i processi biologici negli individui, si costituiscono le comunità nel mondo sociale e si dipanano i sentieri della storia. Per questo la nozione di algoritmo diventa pervasiva, e Harari riepiloga il corso completo dell’evoluzione come un percorso di elaborazione di algoritmi sempre migliori, che trovano la sintesi più efficiente in quelli che compongono l’uomo. Questo vantaggio spiega l’ordine universale, che coincide con la conversione della natura e di tutti i suoi membri in una riserva di mezzi di cui possiamo disporre per la nostra utilità. La violenza che esercitiamo con la manipolazione tecnica non è motivata dall’ostilità contro particolari enti animati o inanimati, o dal bisogno di protezione, ma è l’esito della nostra indifferenza nei confronti di tutto quello che non può resistere alla trasformazione del mondo in un ambiente a misura della funzionalità antropologica. Un altro modo per esprimere questa condizione è il giudizio che la ristrutturazione del pianeta operata dagli algoritmi da cui è governato il comportamento degli uomini sia un processo ineluttabile, una necessità imposta dall’evoluzione naturale.
Le nozioni cui ricorre Harari annullano la separazione tra natura e tecnica. Informazione e algoritmi definiscono la struttura della realtà e le meccaniche del funzionamento di qualunque cosa, accomunando physis e techne in un’unica essenza e in un unico destino. Ma questa impostazione non può esimersi dal prevedere che nel momento in cui le prestazioni raggiunte dalle macchine supereranno le nostre, l’atteggiamento che i robot assumeranno nei nostri confronti applicherà le stesse logiche di utilità e indifferenza che noi abbiamo riservato ad animali e minerali. Il passaggio di questa soglia si chiama singolarità, e nella visione di Harari è talmente prossimo da dominare la valutazione della tecnologia che già oggi stiamo maneggiando. L’intelligenza artificiale guida l’autonomia dei dispositivi in cui si compie il salto evolutivo che segue e trascende quello della nostra specie, e che è destinato a sostituirci nel dominio del mondo: da vent’anni Ray Kurzweil ha insegnato a scandire le tappe che conducono al momento in cui i sistemi di calcolo raggiungeranno le facoltà di intuizione dell’uomo, e le travalicheranno con la corsa alla superintelligenza pronosticata e temuta da Nick Bostrom. Possiamo tentare di frenare, arginare, controllare lo sviluppo delle tecnologie digitali, ma Harari ci lascia presagire che in fondo si tratta di operazioni di retroguardia – e alla fine comunque un Darth Vader, nella forma di un Google o di un ChatGPT iper-evoluto, sciabolerà la sua spada laser in cloud e metterà fine alla resistenza della sopravanzata soggettività umana al di qua del monitor e della tastiera.
3. FINE DELLA STORIA
Elon Musk non avrebbe saputo costruire un’argomentazione migliore per giustificare la subordinazione della dimensione politica al neoliberismo tecnologico contemporaneo, e per affermare l’inesorabilità di questo processo. Pur avendo irriso per anni la tesi della fine della storia di Francis Fukuyama, l’élite di sinistra l’ha introiettata in fondo al proprio inconscio culturale, insieme alla convinzione che la globalizzazione del mercato – e i rottami di democrazia che l’accompagnano – siano la forma compiuta dello Spirito Oggettivo hegeliano nelle istituzioni umane. Harari mostra lo stato di completo disarmo concettuale in cui versa la classe intellettuale, che si proclama progressista, nei confronti delle narrazioni del «realismo capitalista» e del transumanesimo di stampo californiano. Oltre all’ingenuità con cui vengono trattati i temi della tecnologia, la questione dell’intelligenza artificiale forte, il rapporto tra biologia e coscienza – il nodo critico più preoccupante rimane il fatto che «è più facile immaginare la fine del mondo che la fine del capitalismo» nella sua versione priva di pensiero e di futuro, che caratterizza la civiltà contemporanea. Harari condivide con Margareth Thatcher la convinzione che «non ci sono alternative» allo smantellamento di qualunque percorso politico che non sia l’adattamento alla rapacità di dati e di ricchezze da parte dei monopolisti della Silicon Valley, e di qualunque prospettiva storica divergente dall’ideologia transumanista, che vede nella transustanziazione in una macchina l’apogeo dell’umanità.
Ma se alle fantasie del cyberpunk, alla comunità degli estropiani, e persino alla corsa verso la singolarità di Kurzweil, si può riconoscere la spontaneità e l’euforia di un movimento nerd che si reputa sempre adolescenziale e che perpetua acne e turbe puberali – sulla corazza dello scientismo di Harari grava il tradimento di un Darth Vader che avrebbe potuto, e avrebbe dovuto, ricorrere alle proprie risorse intellettuali per denunciare la clausura della narrazione tecnocapitalista, e cercare un percorso diverso. Invece si è consacrato al lato oscuro della banalità.
BIBLIOGRAFIA
Bostrom, Nick, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, Oxford 2014.
Fisher, Mark, Capitalist Realism: Is There No Alternative?, John Hunt Publishing, Londra 2009.
Fukuyama, Francis, The End of History and the Last Man, Free Press, New York 1992.
Harari, Yuval Noah, Homo Deus: A Brief History of Tomorrow, Harvill Secker, Londra 2016.
-- Nexus: A Brief History of Information Networks from the Stone Age to AI, Random House, New York 2024.
Kurzweil, Ray, The Singularity Is Near: When Humans Transcend Biology, Viking Press, New York 2005.
O’Connell, Mark, To Be a Machine: Adventures Among Cyborgs, Utopians, Hackers, and the Futurists Solving the Modest Problem of Death, Granta Publications, Londra 2017
Solomon, Andrew, The Noonday Demon: An Atlas of Depression, Simon & Schuster, New York 2001.
Il tempo schermo - La contesa dell’attenzione
Che cosa succede all'attenzione quando stanno tanto tempo davanti a uno schermo?
Sembra che bambini e bambine siano più calmi e più attenti, ma è davvero così? Il tipo di attenzione che viene mobilitata davanti allo schermo non è la stesso che si mobilita nella lettura di un libro o nel dover maneggiare degli oggetti fragili. Gli studi scientifici dell’ultimo secolo ci spiegano molto di come funzionino i processi attenzionali, e gli studi di questo secolo sul tempo schermo ci spiegano non solo perché lo schermo non sviluppa l’attenzione utile a scuola, ma perché limiti il potenziale di apprendimento umano specialmente nei primi mille giorni di vita ma in generale in tutto il periodo dello sviluppo se l’uso è intenso, come consigliato ormai da pediatri di molte parti del mondo, compresa la Società Italiana di Pediatria.
Gli effetti del tempo schermo includono anche l'esposizione agli schermi indiretti. Da ormai una ventina d’anni gli studi hanno misurato l’impatto degli schermi nella diminuzione delle interazioni verbali, non verbali e di gioco nei primi quattro anni con diversi studi sperimentali su coppie di genitori con bambino che restavano con lo schermo spento e con lo schermo acceso in diverse situazioni. Registrati i comportamenti, si è scoperto che lo schermo diminuiva le interazioni verbali e non verbali e l’attenzione focalizzata su dei giocattoli, aumentando invece le interruzioni di gioco (Anderson e Pempek, 2005). Più recenti esperimenti hanno osservato che i genitori che usano lo smartphone in presenza dei loro bambini durante dei pranzi hanno una minor interazione (rispetto ai genitori che non lo usano) cioè disattivano il canale attenzionale non verbale (Radesky et al. 2014). Il fatto di ricevere attenzione e di prestare attenzione sono infatti fenomeni collegati perché nell’infanzia lo sviluppo dell’attenzione congiunta (dai 6 ai 24 mesi) è il prerequisito per lo sviluppo del linguaggio.
Per capire meglio l’effetto negativo dello schermo è utile soffermarsi sulla distinzione tra comprensione e apprendimento. Un video permette la comprensione di parole e contenuti già noti e già appresi ma molto difficilmente, e con molte condizioni particolari, ma soprattutto rarissimamente nei primi sei anni di vita, il video facilita l’apprendimento di parole e ne abilità nuove. Nei primi tre anni un bambino esplora con i cinque sensi il mondo circostante, prende con le mani, porta alla bocca, ascolta e usa tutti i suoi sensi per apprendere. Soprattutto però impara attraverso il fenomeno dell’attenzione congiunta, o joint attention, che è la capacità di coordinare l’attenzione tra due persone e un oggetto o evento, richiedendo un impegno continuo di entrambi. Questo processo è stato ampiamente studiato poiché rappresenta un indicatore dello sviluppo psicomotorio infantile, oltre a predire la qualità delle relazioni di attaccamento e delle interazioni sociali future. Il biologo Michael Tomasello la descrive come la capacità specie specifica, cioè propriamente umana, alla base del linguaggio, della cooperazione, della morale umana. Per svilupparsi, l’attenzione congiunta si basa su elementi fondamentali come l’aggancio oculare, il contatto visivo e la "sintonizzazione degli affetti" (Stern), prerequisiti essenziali per le capacità comunicative e per lo sviluppo della teoria della mente — la capacità, tipica di un bambino di quattro anni, di comprendere il punto di vista di un’altra persona (Aubineau et al., 2015). La forma più avanzata, l’attenzione congiunta coordinata, implica che il bambino si impegni attivamente sia con un adulto sia con un oggetto.
Negli ultimi vent’anni molti dati sono stati inoltre stati raccolti per descrivere il video deficit effect, indicando come gli schermi possano ostacolare l'apprendimento, a partire dall'apprendimento fonetico e linguistico nei primi quattro anni. Sebbene tramite schermi si possano comprendere alcuni contenuti adeguati all'età (specialmente con l'aiuto dei genitori) diverso è il caso dell’apprendimento (che è un passo ulteriore rispetto alla mera comprensione di una storia) perché l'attenzione è profondamente diversa di fronte a un altro essere umano: dal vivo o in presenza si attiva l’attenzione emotiva, multisensoriale. L’attenzione mobilitata dagli schermi è molto spesso di tipo bottom-up: è la medesima mobilitata in tutti gli animali di fronte a forti luci e suoni, di fronte a pericoli. Diversi neuroscienziati distinguono un’attenzione di tipo top-down (dal centro alla periferia), da una botton-up (dalla periferia al centro). L’individuo è attraversato continuamente da stimoli esterni e interni difficili da distinguere, dove l’attenzione è letteralmente contesa all’interno dell’individuo: “L’attenzione si orienta spontaneamente verso elementi naturali esterni più attraenti come le pubblicità o i video-schermi” (Lachaux 2012, p. 249). L’attenzione viene contesa da diverse forze, da diversi oggetti, ma è lecito parlare di attenzione esogena , quando prevale lo stimolo esterno, e attenzione endogena, quando prevale lo stimolo interno – una sorta di “controllo volontario dell’attenzione”. Sicuramente cosa sia esattamente l’attenzione – che non è la volontà - non è facile da stabilire e gli approcci socio-antropologici ci ricordano la costruzione sociale di tale dimensione (Campo 2022).
In ogni caso disponiamo di numerosi studi che rilevano una correlazione tra l'uso precoce e prolungato degli schermi e problemi di attenzione successivi. Quello di Tamana del 2019 è uno dei più citati studi longitudinali: ha esaminato circa 2500 bambini/e canadesi dai 3 ai 5 anni, evidenziando come un tempo schermo superiore alle 2 ore giornaliere aumentasse il rischio di problemi di attenzione negli anni successivi. La relazione tra l'uso degli schermi e il disturbo da deficit di attenzione (ADHD) è stata messa in discussione nonostante già Christakis avesse evidenziato la presenza di una correlazione tra un’alta esposizione agli schermi e un alto rischio di problemi di linguaggio e di attenzione (Christakis, 2005, 2007). La maggior parte degli studi di neuropsicologia evidenzia cause epigenetiche per il disturbo da deficit di attenzione, nonostante l'aumento globale delle diagnosi negli ultimi vent'anni; in generale tra gli specialisti c’è molta resistenza a parlare di cause ambientali per ADHD anzi gli schermi vengono ancora spesso prescritti spesso nelle prognosi di bambini con DSA o con diagnosi di ADHD. L’idea che un tempo schermo precoce e prolungato possa aumentare i rischi di generici problemi di attenzione o patologie diagnosticate come ADHD è però avanzata da studi recenti sempre più inclini a considerare tale uso come un fattore significativo. Anche uno studio longitudinale di Madigan ha concluso che sono gli schermi a causare i problemi di attenzione e non viceversa: una maggiore quantità di tempo schermo a 24 mesi d’età è stata associata a prestazioni più scarse nei test di valutazione successivi. Analogamente, un maggiore tempo trascorso davanti allo schermo a 36 mesi è stato correlato a punteggi più bassi nei test dello sviluppo cognitivo a 60 mesi. L’associazione inversa, invece, non è stata osservata (Madigan et al., 2019). Un recente metastudio (Eirich et al., 2022) segnala la correlazione tra un uso precoce e prolungato degli schermi e i successivi problemi di attenzione in bambini/e di età pari e inferiore a un anno nella maggior parte degli studi esaminati.[1]
Le app e gli algoritmi che alimentano la fruizione degli schermi sono progettati deliberatamente per mantenere i bambini attaccati agli schermi il più a lungo possibile, non per fornire programmi educativi. Questo è descritto molto bene dai formatori dei vettori commerciali denominati app, come si può evincere dal brillante saggio di uno di questi formatori, Nir Eyal. L’aumento dell'impulsività e la cattura dell’attenzione sono gli obiettivi dichiarati dagli agenti del marketing che per tale fine mettono a disposizione piattaforme gratuite: quando bambini e bambine anziché fare i compiti o leggere o giocare fra loro passano ore davanti allo schermo questi proprietari delle app aumentano i loro profitti. Basta guardare chi sono le persone più ricche al mondo e l’incidenza del pubblico giovanile. Incapaci di mantenere la concentrazione su attività prolungate i “bambini digitali” sono sempre più esigenti e conformati in materia di consumi.
Sempre più esperti sollevano il dubbio se la “generazione digitale” non stia affrontando un problema specifico. Anche senza una dimostrazione di causalità con l'ADHD, il tempo schermo è un fattore che amplifica l’impulsività, la disattenzione e la distraibilità. Dopo il Covid-19, molti insegnanti segnalano uno stato diffuso di distraibilità permanente. Le prove si accumulano, e ignorare il fenomeno non aiuta a iniziare a risolvere il problema. Si parla sempre più spesso di “attenzione frammentaria” per descrivere questa nuova sfida educativa e sociale o altri termini quali: “attenzione disrupted” (interrotta e distratta), “attenzione parziale continua”, “attenzione spezzetata”. Non è certamente quella virtù propria del multitasking attribuita a torto ai “nativi digitali” con il concetto equivoco di “iperattenzione”, che trasformava i bambine/i iperattive/i e impulsive/i in bambine/i capaci di nuove “qualità attentive” (Hayles). Dobbiamo prendere atto che gli schermi stanno precludendo la possibilità di sviluppare un’attenzione umana cooperativa e congiunta. L’isolamento e la disgiunzione dell’attenzione non ha un impatto solo cognitivo ma anche emotivo e relazionale. Non siamo di fronte a una generazione ansiosa, ma a una generazione oppressa. Gli schermi schermano le relazioni, si frappongono tra uno sguardo e l’altro, interrompono l’attenzione congiunta.
In conclusione gli schermi amplificano negativamente tutte le dimensioni dell’attenzione. Un uso prolungato e precoce agisce su un ampio spettro, amplificando disattenzione (causata da stanchezza), distrazione (stimoli esterni), distraibilità (tendenza acquisita a distrarsi) e, in casi estremi, disabilità attentiva (ADHD). Ridurre il tempo schermo, invece, migliora l’attenzione e i risultati scolastici. Molti insegnanti con anni di esperienza segnalano un declino significativo nelle capacità attentive degli studenti. È come se su questo pianeta fosse arrivato un pifferaio magico e i nostri bambini e bambine non potessero fare a meno di seguirlo con in mano il loro cellulare. Questo pifferaio ha aumentato il tempo schermo nell’infanzia, ma ha diminuito il tempo di sonno, il tempo di lettura e soprattutto il tempo di gioco, e altre temporalità essenziali per l’apprendimento.
Ma è davvero così? Le famiglie ricche e figli e le figlie di ingegneri della Silicon Valley vengono protette/i e non abbandonate/i davanti agli schermi.
Questo fenomeno è molto più diffuso nelle classi povere. E allora non è forse lecito parlare di una vera e propria contesa dell’attenzione? È forse venuto il tempo di prendere consapevolezza per riportare l’attenzione al centro dei processi educativi senza delegarlo al tempo schermo.
NOTE
[1] Per una ampia bibliografia il testo tradotto in italiano più completo è Desmurget M. (2020) Il cretino digitale. Difendiamo i nostri figli dai veri pericoli del web, Rizzoli, Milano. Mi sia permesso rimandare al mio saggio: L’attenzione contesa, come il tempo schermo modifica l’infanzia, Armando, Roma.
Il tempo schermo e i suoi impatti educativi sull’infanzia
Le tecnologie digitali non sono né buone né cattive, ma nemmeno neutre. Il concetto di "tempo schermo”, benché sia poco diffuso in Italia, gode di un ampio uso in ambito internazionale ed è particolarmente adatto per comprendere gli effetti di un’esposizione precoce e prolungata su bambine/i. Il tempo schermo è l’insieme delle ore trascorse davanti a uno schermo, indipendentemente dal tipo di contenuto o dal tipo di dispositivo (connesso o meno a internet) sia esso smartphone, televisione, tablet o qualsiasi altro schermo. Il concetto permette quindi di non guardare solo alle tecnologie digitali “recenti” e includere la “vecchia” televisione, anche perché con l’arrivo delle smart Tv la distinzione è sempre più sfumata. Paradigmatico è oggi You Tube che è sia un canale televisivo, sia una app di smartphone, sia una piattaforma di internet, ed è seguitissimo da piccoli/e.
Oggi, la presenza di schermi in ogni casa è significativa: in una famiglia occidentale media (di quattro persone) ci sono dieci schermi; si tratta di diversi dispositivi, per lo più connessi a internet, che caratterizzano un vero e proprio “ambiente schermo" in cui i bambini crescono. Questa disponibilità di schermi – per lo più accesi e visti anche in modo indiretto – contribuisce a modellare l’ambiente, il ritmo di vita, gli stimoli e le stesse attività quotidiane, con impatti misurabili anche in termini di minore parole ricevute e prodotte e maggiori interruzioni di attenzione focalizzata.
IMPATTO DEL TEMPO SCHERMO SULLO SVILUPPO FISICO E MENTALE
L'aumento del tempo schermo riduce drasticamente altre temporalità essenziali nell’infanzia, come il tempo di sonno, di gioco libero, di interazione sociale; riduce il tempo trascorso all'aria aperta e il tempo della lettura. Gli studi in letteratura scientifica confermano che il tempo schermo ha un impatto sia diretto sia indiretto su questi tempi, i quali sono fondamentali per l’apprendimento e lo sviluppo delle capacità cognitive, sociali e sullo stesso sviluppo psicofisico, soprattutto nei primi cinque anni di vita, per i quali l’OMS consiglia il meno tempo schermo possibile, in particolare zero minuti nei primi due anni.[1]
È importante chiarire però che non è corretto affermare che il tempo schermo abbia sempre un impatto negativo sullo sviluppo psicofisico: fattori come il contesto familiare, il tipo di contenuti fruiti e le differenze individuali di bambini/e giocano un ruolo cruciale nel determinare l’entità dell’effetto. D’altro canto, il tempo schermo precoce (prima dei cinque anni) e prolungato (superiore alle due ore giornaliere dopo i cinque anni) è certamente un fattore di rischio, poiché aumenta le probabilità di riscontrare problemi di vario tipo. È anche opportuno precisare che i dati mostrano che gran parte del tempo schermo nei bambini da 0 a 8 anni è impiegato per la visione di brevi video (73%) o videogiochi (16%), e quindi, al netto di eccezioni, minoranze e contesti specifici, il tempo schermo non è un tempo dedicato a contenuti adeguati all’età, ad app effettivamente educative o dedicate a un uso creativo.
Le principali associazioni pediatriche a livello mondiale, basandosi su una vasta letteratura scientifica, sottolineano come il tempo schermo influenzi aspetti fondamentali dello sviluppo, quali la vista, l’alimentazione, il rischio di sovrappeso e, soprattutto, il sonno; nell’area cognitiva influisce negativamente su attenzione, linguaggio, memoria e quindi capacità scolastiche. Inoltre, sono stati riscontrati effetti relazionali come ansia, depressione, isolamento sociale, cyberbullismo, dipendenze che sollevano preoccupazioni per il benessere mentale a lungo termine. Benché nei prossimi anni possano divenire tra gli effetti più preoccupanti, sono ancora poco studiati gli effetti sulla intimità, affettività e sessualità dovuti a una esposizione precoce a video pornografici (l’età media si sta abbassando spaventosamente persino sotto i dieci anni), al punto che in Spagna si parla di Generación Porno.
Il mio interesse di ricerca si concentra sui rischi legati all’esposizione precoce e prolungata agli schermi in bambine/i, dalla nascita fino alla fine della scuola primaria, dove insegno. Sono anni in cui si apprendono le cose essenziali per la vita, ma anche anni vulnerabili: sono anni in cui si sviluppano le capacità cognitive alla base della carriera scolastica, nei primi quattro anni il linguaggio orale, fino a dieci la letto-scrittura.
La psicologia dell’età dello sviluppo ci spiega che l’attenzione e il linguaggio si possono sviluppare solo con una relazione umana; il tempo schermo non solo non sviluppa queste capacità ma spesso lo rallenta[2] Infatti in assenza del cosiddetto "co-viewing" – ovvero la visione congiunta dei contenuti e il dialogo costante con l’adulto su ciò che si sta vedendo e facendo – l’apprendimento tramite schermi risulta non solo limitato ma anche limitante poiché intacca i prerequisiti di apprendimento, rendendo l’attenzione più frammentata. Un’intera linea di esperimenti nota come il video deficit effect spiega proprio come l’apprendimento (non la comprensione) sia migliore con la presenza umana, mentre risulti molto arduo se non persino assente, quando è mediato dagli schermi. Il "co-viewing" è considerato una condizione essenziale per garantire che i bambini traggano un beneficio educativo reale da questi dispositivi, riducendo gli effetti negativi. Per fare in modo che si possa apprendere tramite gli schermi fino all’inizio della scuola primaria è caldamente consigliata la presenza e la mediazione adulta, non solo nella scelta dei contenuti ma proprio nell’attività di ascolto e interazione. Il che è in palese contraddizione con quanto fanno oggi gli adulti, che danno gli schermi proprio per essere separati (o non disturbati) dai bambini.
LE SETTE CARATTERISTICHE DEL TEMPO SCHERMO
Il tempo schermo si caratterizza per lo più per alcune caratteristiche che derivano dal suo far parte dei mezzi di comunicazione di massa con le relative evoluzioni digitali del XXI secolo. Benché si possano fare usi creativi e attivi del digitale, e la Media Education ne descriva una infinità, essi rimangono “potenzialità” auspicate, perché la realtà è meno edulcorata di come questa disciplina di norma ce la presenta; le salienze del tempo schermo possono essere sintetizzate in sette punti che ne indicano la tendenza:
- Sedentarietà. La caratteristica principale del tempo schermo è la sedentarietà. Il movimento di mani e piedi è essenziale nei primi anni di vita per lo sviluppo del cervello, mentre il tempo schermo smaterializza il corpo immobilizzandolo. La mancanza di attività fisica associata all’uso prolungato degli schermi può influenzare negativamente lo sviluppo fisico e cognitivo del bambino.
- Deprivazione Sensoriale. Il tempo schermo è limitato quasi esclusivamente alla visione, deprivando la stimolazione multisensoriale di cui il bambino ha bisogno (tatto, olfatto, gusto e anche l’ascolto della parola nella misura in cui i dialoghi sono spesso inutili). Recenti studi oftalmologici hanno inoltre osservato che l’uso precoce di piccoli schermi può portare a un aumento della miopia in bambini/e e dello strabismo con ulteriori effetti negativi persino sulla capacità di lettura e di equilibrio.
- Convergenza Digitale. La convergenza digitale, ovvero il fatto che un dispositivo sia contemporaneamente telefono, telegrafo, macchina fotografica, e la possibilità di utilizzare lo stesso contenuto (per es. un videogioco, una partita di calcio, ecc…) su diversi dispositivi (televisione, tablet, smartphone), comporta il precipitare di ogni esperienza nel tempo schermo, con una fruizione continua e spesso priva di interruzioni lunghe, pervasiva e difficilmente limitabile.
- Illimitatezza. Le piattaforme digitali sono progettate per offrire contenuti in maniera continua, senza una "fine" naturale, tramite algoritmi che rilevano e si adattano alle preferenze dell’utente, incentivando un uso prolungato dello schermo.
- Divertissment. La maggior parte delle app e dei contenuti rivolti ai bambini è pensata principalmente per il divertissment, termine francese che designa il distrarre, il divertire, l’intrattenere. Non hanno scopo principalmente educativo. Questo tipo di intrattenimento punta alla "distrazione" eterodiretta, cioè a una gestione dell’attenzione orientata a trattenere il bambino davanti allo schermo divertendolo, che è esattamente il contrario della salutare distrazione propria al fantasticare della rêverie.
- Spettacolarità e isolamento. Il tempo schermo è spesso una fruizione individuale, che comporta l'isolamento sociale perché ciascuno ha il suo schermo; limita le attività di gruppo e le interazioni faccia a faccia, limitando così lo sviluppo di abilità sociali cruciali.
- Cronofagia. Il tempo schermo distorce la percezione del tempo. Bambini e adolescenti spesso non riescono a controllare il tempo trascorso davanti agli schermi, con un impatto negativo sulla gestione del tempo. Questo effetto è stato definito filosoficamente "cronofagia", ovvero la capacità di “divorare” il tempo.
In aggiunta, studi recenti indicano che l’esposizione precoce e prolungata agli schermi è associata a una diminuzione delle capacità attentive richieste in ambito scolastico. L’attenzione stimolata dagli schermi è di tipo "bottom-up", cioè orientata alla cattura immediata dell’attenzione tramite stimoli visivi, allarmi o segnali di pericolo, piuttosto che alla concentrazione sostenuta. Questo tipo di attenzione, studiato dalla psicologia cognitiva, può essere associato alla progettazione di app e piattaforme che utilizzano meccanismi per incentivare l’uso prolungato, perseguendo finalità commerciali più che educative.
QUALCHE CONCLUSIONE
È importante essere consapevoli che più ci si avvicina alla nascita più gli studi concordano sulla negatività degli effetti, a prescindere dai contenuti. Il fenomeno della disgiunzione dell’attenzione è forse il più importante. L’attenzione è infatti un prerequisito della trasmissione culturale in ogni cultura ed è per questo che educatori ed educatrici di tutto il mondo hanno individuato l’attenzione come la fonte dei processi di apprendimento. Come vedremo nel prossimo numero, la relazione pedagogica si basa su processi attentivi, ma negli esseri umani l’attenzione si sviluppa principalmente per vie extracorticali ed è predittiva dello sviluppo del linguaggio umano e delle capacità simboliche. L’attenzione cioè si sviluppa anche a livello biologico grazie all’aggancio oculare con altri simili tramite la condivisione di intenzionalità e il fenomeno da tempo noto di attenzione congiunta.
NOTE
[1] Cfr. World Health Organization (Who) (2019), Guidelines on Physical Activity, Sedentary Behaviour and Sleep for Children Under 5 Years of Age, Genève; cf. Grollo M., Zanor S., Lanza S., et al. (2022), Pediatri custodi digitali, la prima guida per i pediatri di famiglia sull’educazione digitale familiare dalla nascita, IAM Edizioni, Udine.
[2] Per una ampia bibliografia si veda: Desmurget M. (2020) Il cretino digitale. Difendiamo i nostri figli dai veri pericoli del web, Rizzoli, Milano. Mi sia permesso rimandare al mio saggio: in corso di pubblicazione: L’attenzione contesa, come il tempo schermo modifica l’infanzia, Armando, Roma.
Intelligenza artificiale e creatività - Seconda parte: c’è differenza tra i pennelli e l’IA?
Qualche settimana fa avevamo iniziato una riflessione sull’interazione tra processo creativo artistico e Intelligenza Artificiale.
Ci eravamo chiesti se realizzare un’immagine con l’IA può essere definito come un atto creativo e abbiamo avuto le risposte di tre amici di Controversie, ognuno dalla propria ottica che deriva da un diverso percorso professionale e culturale (trovate le risposte nell’articolo pubblicato il 10 settembre scorso).
Riporto di seguito le conclusioni di quella prima riflessione:
“Non c’è dubbio che queste tre risposte siano estremamente stimolanti e che vi si possa rintracciare un minimo comune denominatore che le lega: l’idea che l’IA sia solo un mezzo, per quanto potente, ma che l’atto creativo resti saldamente appannaggio di colui che ha nel suo animo (umano) l’obiettivo concettuale.
Ottenere un risultato con l’IA si delinea, qui, come un vero atto creativo, che, però e ovviamente, non è detto che si trasformi in arte, ovvero in una manifestazione creativa in grado di dare emozione universale.
In termini più concreti: molti di noi, forse, potrebbero avere “nella testa” La notte stellata di Van Gogh (giusto per fare un esempio), ma la differenza tra la grandissima maggioranza di noi e il genio olandese è che non sapremmo neppure lontanamente “mettere a terra” questa intuizione.
Con l’IA, a forza di istruzioni che la macchina esegue, potremmo invece, avvicinarci al risultato di Vincent?”
La domanda che sorgeva spontanea, e a cui chiedo ai nostri amici un’ulteriore riflessione, è la seguente: Se così fosse, in che modo cambierebbe l’essenza stessa dell’artista?
Inserisco però un ulteriore elemento che deriva dall’aver letto la bella riflessione di Natalia Irza del 29 ottobre scorso su Controversie dal titolo “Il rating sociale tra digitale e moralità”.
Riporto testualmente un passaggio a mio avviso molto importante anche per il nostro ragionamento su processo creativo e IA. Scrive Irza:
“Per stabilire la verità su una persona, sono necessari strumenti umani. Lo stesso si può dire dell’uso dell’IA nell’arte: la pittura non è uguale alla composizione di colori, la musica non è uguale alla composizione di suoni, la poesia non è uguale alla composizione di parole. Senza la dimensione umana, che significa non solo l’operare algoritmi ma creare idee umane, l’arte cessa di essere arte.”
Aggiungo quindi una provocazione per i nostri amici chiamati a rispondere alla prima domanda, e cioè: dobbiamo quindi pensare che esisteranno in futuro due forme d’arte, una “analogica”, tradizionale, in cui l’essere umano si esprime attraverso strumenti controllati completamente dall’artista e una “nuova arte”, digitale, in cui l’autore si avvale di uno strumento che interviene nel processo creativo “aggiungendo” all’evoluzione concettuale dell’artista?
E quale sarà il livello di contaminazione fra queste due diverse situazioni?
Ecco le prime due risposte, scrive Diego Randazzo:
Quello che rende un artista tale è soprattutto il suo percorso. Un percorso interiore ed esteriore che lo porta a sviluppare una ricerca unica e indipendente. In assenza di tale percorso non vi può essere Arte, ma solo degli isolati appuntamenti con la tecnica.
Quindi, davanti alla possibilità di ricreare dei modelli digitali molto simili a capolavori storicizzati attraverso l’IA, non si può che riconoscere tale pratica come un tentativo, sicuramente curioso e sorprendente, ma molto lontano dalla definizione di Arte.
Non è un caso se utilizzo le parole tentativo e modello, che ne evidenziano l’approccio germinale, automatico e inconsapevole.
In altre parole, penso che la tensione verso la dimensione umana, a cui si riferisce Natalia Irza nell’articolo menzionato, sia necessaria e fondamentale. Del resto come possiamo capire in profondità un artista, senza conoscere qualche dettaglio, anche superficiale, della sua biografia? La Storia dell’Arte è punteggiata, da sempre, da questo binomio, indissolubile anche nel vischioso territorio dell’arte contemporanea: la pratica artistica come estensione e manifestazione della vita stessa degli artisti.
Pensiamo anche al potere del mercato odierno nel dare valore all’opera d’arte: oggi più che mai notiamo che sono le caratteristiche biografiche a fare da volano e non la qualità intrinseca dell’opera (vedi il successo della banana ‘Comedian’ di Cattelan).
Seguendo questo principio, dove la dimensione (e presenza) umana dell’artista sono sempre al centro, trovo assai difficile riconoscere valore nelle sperimentazioni con l’IA condotte dai non addetti ai lavori (non artisti?). Da considerare diversamente sono invece le incursioni degli artisti che utilizzano lo strumento dell’IA con consapevolezza e visione.
Infine di fronte alla possibile convivenza tra due tipologie di Arte (una totalmente analogica ed una totalmente mediata dallo strumento IA) nutro profondi dubbi; non ho mai creduto nella classificazione e scolastica separazione tra discipline, piuttosto credo nella ricerca della complementarità tra queste due modalità. Ad esempio, è molto stimolante l’uso dell’IA per creare ‘modelli e reference’, delle basi da cui partire e su cui innestare il gesto unico dell’autore. Tale gesto si può quindi esemplificare in una copia o rielaborazione analogica (manuale) dei modelli iniziali.
Facendo così, non solo ripercorriamo la storia dell’arte, seguendo il classico ed insuperato paradigma modello/rappresentazione, ma, contestualmente, attualizziamo il contesto: il modello da studiare e copiare non è più la realtà che ci circonda, ma una realtà mediata e spesso incontrollabile, formulata da un algoritmo.
Vorrei proseguire il discorso dando la parola ad Aleksander Veliscek, interessante artista sloveno, che attraverso i dettagli dei suoi affascinanti dipinti mette a punto proprio questa modalità, svelandoci le possibilità di un uso virtuoso ed intelligente dell’IA in pittura.
------------------------------
Ed ecco l’intervento di Aleksander Veliscek:
Penso che creare un’immagine con l’IA oggi può essere considerato un atto creativo, ma con una specificità: è una creatività mediata, e dove non necessariamente appartiene alla sensibilità di tutti gli artisti. Durante il workshop che ho curato quest’anno sul tema PITTURA e IMMAGINI I.A. a Dolomiti Contemporanee (ex stazione, Borca di Cadore), ho potuto constatare da parte di molti allievi-artisti un interessante dialogo tra chatGPT e gli autori.
Un esempio curioso era un artista che lavora in ambito astratto. Si è creato un confronto critico da entrambe le parti nella costruzione dell’immagine. Ne è risultato un pezzo indubbiamente riuscito. Spesso invece c’era un rigetto, in quanto le soluzioni proposte dalla I.A. erano banali e non riuscivano a centrare le sottili sfumature che l’artista cercava anche dopo lunghi tentativi.
È, così, evidente quanto l’essere umano giochi un ruolo essenziale nella progettazione e nell’interpretazione del risultato.
Quindi L’I.A., è sicuramente uno Strumento, sempre più potente e innovativo, ma non sostituisce l’immaginazione e il giudizio umano.
Invece come artista trovo più interessante capire l’aspetto ontologico. Le macchine intelligenti, pur essendo create dall’uomo, possono simulare comportamenti complessi che sembrano riflettere aspetti tipici dell’essere umano, come l’apprendimento, la creatività o persino l’autonomia. Tuttavia, queste simulazioni sono autentiche manifestazioni di “essere” o sono semplicemente imitazioni prive di sostanza?
Martin Heidegger, nel suo studio sull’essere, distingueva tra l’“essere autentico” e l’“essere per altri”. L’IA, in questo contesto, può essere vista come un “essere per altri”, progettata per servire scopi umani, ma incapace di una propria esperienza ontologica. Tuttavia, alcuni teorici suggeriscono che, con lo sviluppo di sistemi sempre più complessi, potremmo dover ripensare questa distinzione.
Un mio dipinto ad olio raffigurante William Shakespeare, dove l’effigie realistica del grande drammaturgo è stata creata con l’intelligenza artificiale combinando diverse fonti, partendo dalle incisioni, sculture e dipinti.
--------------------------------------
Queste due riflessioni sono certamente molto interessanti ma, tuttavia e inevitabilmente, non portano a risposte certe. Stiamo viaggiando, infatti, su un territorio privo di confini definiti, fluido e in rapido divenire.
Mi sembra si possa dire che ci sono due punti chiave nel ragionamento dei nostri due artisti: la centralità dell’uomo - con tutto il suo portato esistenziale - come attore primario e non sostituibile del processo artistico; e la contaminazione dei modi di fare arte, che per altro è cominciata ben prima dell’I.A..
Contaminazione che è un dato di fatto.
E quindi non è possibile una distinzione rigida (Diego usa la parola “scolastica”) tra arti “tradizionali” e arti in cui tecniche nuove e l’apporto potentissimo dell’I.A, irrompono nel processo creativo.
L’I.A. cambierà presto l’essenza di molti lavori; si pensi a cosa potrebbe diventare la giustizia se le sentenze dovessero passare dall’interpretazione dei fatti data da esseri umani a quelle, teoricamente neutrali, dell’IA (l’oggettività nell’interpretazione dell’agire umano non può esistere).
Forse tra pochi anni le domande che ci siamo posti in questa sede non avranno più senso, superate dalla prassi dell’utilizzo di nuove tecnologie in tutti i settori dell’agire umano, arte compresa.
Ma su questi punti aspettiamo anche il parere degli altri due amici del gruppo di questa discussione…
Internet non è una “nuvola” - Seconda parte
Nella prima parte di questo articolo, sulla scorta del recente volumetto di Giovanna Sissa Le emissioni segrete (Sissa G., Le emissioni segrete. L’impatto ambientale dell’universo digitale, Bologna, Il Mulino, 2024), abbiamo visto come il processo di produzione dei dispositivi elettronici e anche il funzionamento della rete siano fonti di consumi energetici ormai colossali e in via di costante incremento, a misura che procede la… “digitalizzazione della vita”. Ragionando in termini di emissioni di gas a effetto serra dovute a tali consumi, si parla, nel primo caso, di emissioni incorporate e nel secondo di emissioni operative. Delle prime fanno parte non solo quelle dovute al processo produttivo, ma anche quelle necessarie allo smantellamento e al riciclo dei prodotti, giunti a fine-vita. E di quest’ultimo aspetto ci occupiamo ora: dell’e-waste, ovvero della “spazzatura elettronica”.
E-WASTE, OVVERO: RITORNO ALLA TERRA
Non c’è prodotto, non c’è merce, che prima o dopo, in un modo o nell’altro, non torni alla terra sotto forma di rifiuto. E a questa legge, che ci hanno spiegato i grandi maestri del pensiero ecologico come lo statunitense Nicholas Georgescu-Roegen o qui in Italia Laura Conti e Giorgio Nebbia,[1] non fa eccezione il mondo digitale, con tutta la sua multiforme schiera di dispositivi personali, sottoposti peraltro a un ritmo sempre più rapido di obsolescenza-sostituzione (e non ci si faccia ingannare dalle rassicurazioni di aziende e istituzioni, come la Commissione europea, sull’impegno a superare le pratiche della obsolescenza programmata e a modificare il design dei propri prodotti in funzione del riciclo, riparazione ecc.! Nel caso migliore, si tratta di… pannicelli caldi).
Anche i processi di riciclo e trattamento comportano consumo di risorse e dunque emissioni (sono anch’esse da considerare “emissioni incorporate”). In questo caso a determinare le emissioni sono appunto procedimenti industriali molto complessi che devono estrarre da ogni dispositivo i materiali riutilizzabili.
Ebbene, quel che si scopre, in questo caso, è che dal punto di vista delle emissioni questa fase del ciclo di vita dei dispositivi elettronici sembra comportare un peso molto minore, ma questa – nota l’autrice – non è una buona notizia: significa molto semplicemente che gran parte di questa mole di materiali non vengono trattati adeguatamente. Anzi, diciamola meglio: non vengono trattati del tutto. Le ragioni – spiega Sissa – sono insieme tecniche ed economiche: i processi industriali di recupero dei materiali (anche di valore) contenuti in un pc o in uno smartphone sono talmente complessi (data la quantità minima di materiali da recuperare) da rendere in definitiva del tutto diseconomica l’operazione.
Le (poche) ricerche esistenti parlano di una percentuale non superiore al 20% di materiale riciclato; tutto il resto, molto semplicemente, viene… spedito in Africa o in un qualunque altro paese disperato, post (post?) coloniale o semplicemente intenzionato a garantirsi un po’ di rendita a costo di chiudere tutti e due gli occhi sugli effetti ecologici di questo “servizio”.[2]
È fuori dubbio che, in questo caso, il tipo di impatto ecologico è di carattere diverso: infiltrazione di sostanze tossiche nelle falde sottostanti le grandi discariche (in particolare piombo, cadmio, diossine…), avvelenamento di animali e verdure, dell’aria, intossicazione delle popolazioni che spesso finiscono per costruire intorno a questi gironi infernali hi-tech vere e proprie economie informali che consentono, in contesti sociali poverissimi, occasioni di sopravvivenza per vaste masse e perfino di arricchimento per piccoli strati di una umanità tutta egualmente avvelenata. Se si vuole avere un’idea di queste realtà, si può guardare alla colossale discarica di Agbogbloshie (Accra), in Ghana, dove migliaia di persone vivono e lavorano attorno a questo terribile... business.[3]
CONTROVERSIE ECO-DIGITALI
Giovanna Sissa dedica alcune pagine piuttosto accurate a un tema che, soprattutto in questa sede, appare di grande interesse: quello delle controversie che attraversano il mondo dei ricercatori e degli studiosi che hanno deciso si avventurarsi in questo campo. La valutazione/quantificazione dell’ammontare delle emissioni di gas a effetto serra determinate dalla complessiva attività del mondo digitale è, certamente, un’opera assai difficile e sdrucciolevole, in particolare per quanto riguarda le attività di produzione (e dunque le emissioni incorporate), data anche la lunghezza e la diffusione spaziale delle filiere industriali implicate, la scarsa chiarezza dei dati forniti dalle aziende sui consumi, il fatto che c’è in effetti un peso crescente delle energie rinnovabili nella produzione di energia elettrica spesso tuttavia difficile da stimare, per non parlare poi di tutta la selva di strategie, alcune del tutto truffaldine, che permettono a molte aziende delle ICT di considerarsi a “impatto zero” (non scendiamo qui nei dettagli, che il lettore potrà trovare nel libro).[4] Quel che però va rimarcato è che, a fronte di queste difficoltà oggettive, l’impegno della ricerca appare assai blando.
È interessante scoprire, per esempio, che solo tre sono le ricerche significative in questo campo nell’ultimo decennio: una nel 2015 e due nel 2018: due di queste sono peraltro realizzate da ricercatori di aziende delle ICT (Huawei 2015 e Ericcson 2018), e dunque potenzialmente viziate da conflitto d’interessi, e solo una di ambito accademico (2018). Non stupisce, dunque, che, quando si cerca di determinare la misura di queste emissioni ci si trovi di fronte a un notevole grado di incertezza.
E ora la domanda delle cento pistole: non sarà che questa incertezza deriva, oltre che dalla complessità oggettiva della materia che è fuor di dubbio, dalla precisa scelta, per esempio delle istituzioni universitarie, di non impegnarsi (i.e. di non investire risorse) in questa direzione? E che si preferisce lasciare questo ambito quale terra (volutamente) incognita, così da non disturbare troppo il “Manovratore Digitale”? È la stessa autrice a suggerirlo, quando invita a non «pensare che siamo in presenza di fenomeni inconoscibili: le quantificazioni possono essere migliorate, rese più attuali, più precise e più trasparenti. Dipende solo dalla volontà di farlo e dalle risorse che si dedicano a questo».[5]
-------------
Questo mondo “digitalizzato” che stiamo edificando attorno a noi (e sempre più dentro di noi), insomma, non è per niente “immateriale”, come pure un’ampia letteratura sociologica e filosofica ha teso e tende a farci credere e un irriflesso uso linguistico continua a suggerirci;[6] esso è parte non secondaria di quella colossale “tecnosfera” che da sempre gli uomini hanno bisogno di costruire attorno a sé ma che dalla Rivoluzione industriale in poi, e in particolare a partire dal XX secolo, ha assunto una dimensione tale da influenzare la stessa vita sulla terra e da costituire ormai un pericolo per la sopravvivenza dell’uomo.
Le apparentemente eteree tecnologie di rete, che secondo una filosofia corriva sarebbero ormai consustanziali alla nostra stessa vita, per così dire disciolte in noi, nella nostra carne e nel nostro spirito (mi riferisco all’immagine dell’onlife, proposta da Luciano Floridi), sono in realtà parte non secondaria di questa materialissima e inquinantissima (e sempre più pesante) tecnosfera.[7] Come le ferrovie o le autostrade.
Quando "accendiamo" internet e facciamo qualcosa in rete, sempre più spesso ormai, stiamo inquinando, anche se non sentiamo motori scoppiettanti, o non vediamo nuvole di fumo uscire da qualche parte.
E tanto meno stiamo diventando green e sostenibili, come pure ci fanno credere.
Siamo ancora parte del problema e non della soluzione.
(2 / fine)
NOTE
[1] Scriveva Nebbia, per esempio, con la consueta chiarezza, che «ogni “bene materiale” non scompare dopo l’uso. Ogni bene materiale – dal pane alla benzina, dal marmo alla plastica – ha una sua “storia naturale” che comincia nella natura, passa attraverso i processi di produzione e di consumo e riporta i materiali, modificati, in forma gassosa, liquida o solida, di nuovo nell’aria, sul suolo, nei fiumi e mari. Peraltro, la capacità ricettiva di questi corpi naturali sta diminuendo, a mano a mano che aumenta la quantità di scorie che vi vengono immesse e che i “progressi tecnici” rendono tali scorie sempre più estranee ai corpi riceventi stessi, e da essi difficilmente assimilabili» (Giorgio Nebbia, Bisogni e risorse: alla ricerca di un equilibrio, in NOVA. L’enciclopedia UTET. Scenari del XXI secolo, Torino, Utet, 2005, p. 36).
[2] È quel che ha fatto per molti anni la Cina, come parte del proprio percorso di integrazione nel mercato globale, fino a quando, sia in ragione della crescita del proprio mercato interno e dei propri consumi sia per la rilevanza degli effetti ambientali e delle proteste collegate, ha sostanzialmente bloccato (con una serie di provvedimenti tra 2018 e 2021) l’importazione di «rifiuti stranieri», gettando letteralmente nel panico le società industriali occidentali. Guardate con quale candore si esprimeva, all’epoca, questo articolo del “Sole 24 Ore”: Jacopo Giliberto, La Cina blocca l’import di rifiuti, caos riciclo in Europa, “Il Sole 24 Ore”, 13 gennaio 2018, https://www.ilsole24ore.com/art/la-cina-blocca-l-import-rifiuti-caos-riciclo-europa-AELQpUhD?refresh_ce=1
In questo specifico ambito – sia detto per inciso – si può vedere in forma concentrata il generale comportamento economico del grande paese asiatico che, dopo aver accettato di subordinarsi per un certo periodo alle “regole” della globalizzazione neoliberale a guida Usa (ai fini del proprio sviluppo nazionale), ha ripreso le redini della propria sovranità. Ragione per cui ora il cosiddetto Occidente gli ha dichiarato guerra (per ora, per fortuna, solo sul piano commerciale).
[3] Per avere una idea della realtà della periferia-discarica di Agbogbloshie (Accra, Ghana), si possono vedere alcuni documentari presenti in rete, per esempio quello prodotto da “InsideOver”: Agbogbloshie, le vittime del nostro benessere, https://www.youtube.com/watch?v=Ew1Jv6KoAJU
[4] Cfr. Giovanna Sissa, Le emissioni segrete, cit., p. 105 e ss.
[5] Ivi, p. 113.
[6] Mi sono soffermato su questo “immaterialismo” dell’ideologia contemporanea in: Toni Muzzioli, Il corpo della Rete. Sulla illusoria “immaterialità” della società digitale, “Ideeinformazione”, 10 settembre 2023, https://www.ideeinformazione.org/2023/09/10/il-corpo-della-rete/
[7] In un articolo pubblicato su “Nature”, un gruppo di ricercatori del Weizman Institute of Science (Israele) ha calcolato che il 2020 è l’anno in cui la massa dei manufatti umani («massa antropogenica») ha superato, in termini di peso, quella della biomassa, cioè dell’insieme degli esseri viventi del nostro pianeta. Ovvero: 110 miliardi di tonnellate contro cento miliardi (cfr. Sofia Belardinelli, Il pianeta delle cose, “Il Bo live. Il giornale dell’Università di Padova”, 28 dicembre 2020, https://ilbolive.unipd.it/it/news/pianeta-cose ).