La dura verità. Dalla sodomia della lettura alla veridizione nell’epoca della riproducibilità tecnica

SODOMIE

In molte iscrizioni del V secolo a.C., distribuite tra la Magna Grecia e l’Attica, il lettore viene etichettato katapúgōn, sodomizzato, e viene additato alla comunità come l’individuo che si è lasciato possedere dall’autore dell’epigrafe. Si comprende perché Platone nel Teeteto raccomandi prudenza e moderazione nel rapporto con i testi scritti, e perché abbia sospettato di questa forma di comunicazione per tutta la vita – sebbene i suoi Dialoghi abbiano contribuito a rendere per noi il libro la fonte di conoscenza più autorevole. Jesper Svenbro, in uno dei suoi saggi più brillanti di antropologia della lettura (1), rileva che l’esercizio di decodificare il testo, e di ricostruire il significato delle frasi, incorra per gran parte dell’antichità nelle difficoltà della scriptio continua, senza stacchi tra le parole e senza interpunzioni: fino al Medioevo, la maggior parte degli interpreti deve compitare ad alta voce le lettere, come fanno i bambini alle prime armi con la decifrazione della scrittura, per ascoltare il senso di ciò che sta pronunciando – più che riconoscerlo in quello che sta vedendo. Il lettore quindi presta la propria voce, il proprio corpo, al desiderio di espressione dello scrittore: il testo esiste nella proclamazione orale del contenuto, mentre il suo formato tipografico resta lettera morta. 

Nella cultura greca, molto agonistica, questa subordinazione di ruoli non può rimanere inosservata. Per di più, la sua forma è congruente con quella che si stabilisce tra il giovane che deve seguire il suo percorso di formazione e l’amante adulto che finanzia i suoi studi, visto che non è il padre né la famiglia naturale a sostenere questi costi: al termine della paideia il ragazzo deve testimoniare in pubblico se l’erasts abbia abusato del suo corpo, degradandolo al rango passivo di uno schiavo. L’adolescente deve conquistare un protettore di età più matura, senza però concedersi rinunciando alle prerogative del cittadino libero.

 

 

Il lettore incauto, o troppo appassionato, abbandona il proprio corpo all’io parlante dello scrittore: un’abdicazione al dominio di sé cui le persone perbene costringono gli schiavi, sottraendosi ad ogni rischio. Per un greco classico la verità è una caratteristica di quello che è stato visto con i propri occhi, come viene comprovato dagli storici Erodoto e Tucidide; Socrate e Platone hanno affidato il loro insegnamento al dialogo dal vivo. L’Accademia, e anche il Liceo di Aristotele, sorgono accanto a palestre dedicate alla preparazione atletica e militare degli ateniesi; Platone è un soprannome che indica le «spalle larghe» del maestro di dialettica.

IL POTERE DI VERIDIZIONE

Il potere di dire la verità, all’atto di nascita della filosofia, si legittimava su requisiti che appaiono del tutto diversi da quelli che lo hanno ratificato negli ultimi secoli, e che come osserva Sergio Gaiti in un recente articolo su Controversie, sono in affanno nel mondo contemporaneo. 

Per i greci la formazione dell’uomo libero coinvolgeva i valori della prestanza fisica, del coraggio, dell’obbedienza alle leggi patrie, della frequentazione di buone compagnie: la verità poteva emergere solo in un contesto che rispettasse questi requisiti – che dal nostro punto di vista sembrano più indicati per un raduno neofascista, che per un seminario di intellettuali, o per la consulenza ad un board aziendale, o per i principi di una disposizione di governo. Eppure l’epoca di Platone e Aristotele è senza dubbio una delle massime espressioni del talento intellettuale dell’Occidente, e il momento assiale per la nascita della tradizione scientifica. Nella nostra epoca, almeno fino all’irruzione dei social media e dei portali di ricerca, nessuno avrebbe mosso obiezioni all’assunto che i garanti della verità sono i metodi di peer review delle riviste scientifiche, la sorveglianza delle commissioni di concorso e di esame per le carriere universitarie, il vaglio della comunità degli intellettuali su qualunque dichiarazione relativa alla natura, alla storia e alla società, il filtro degli editori di stampa, radio, televisione, cinema e musica, su quali temi meritino l’attenzione pubblica e cosa sia invece trascurabile. In altre parole, anche per l’epoca contemporanea esiste (esisteva?) una cerchia di individui, che rappresenta la classe delle buone compagnie da frequentare per accedere all’Acropoli della verità, il luogo in cui si sa di cosa ci si debba occupare e in che modo si debba farlo. Al di là delle dichiarazioni di intenti e dei cardini ideologici, in tutti i paesi avanzati è tendenzialmente sempre la stessa classe sociale ad alimentare le fila degli accademici, dei politici, dei manager, dei giornalisti – è lo stesso cluster economico e culturale a formare controllori e controllati del potere, in tutte le sue forme (2).

Ma più che l’appartenenza ad una élite per censo e discendenza, ciò che conta è l’affiliazione ad una categoria accomunata dalla formazione universitaria, con la condivisione dei valori sullo statuto della verità, sui metodi della sua esplorazione, sui criteri di accesso ai suoi contenuti, sulle procedure della sua archiviazione, riproduzione, comunicazione. Come osserva Bruno Latour (3), l’adesione a queste prescrizioni coincide con l’accesso ad una comunità di pari, fondata sull’addestramento a vedere le stesse cose quando i suoi membri si raccolgono nel laboratorio dello scienziato – qualunque sia la disciplina in causa. Restano fuori tutti coloro che non sono iniziati alla percezione di questo grado del reale.

DIVISIONE DEL LAVORO LINGUISTICO

Nei termini di Foucault (4), ripresi da Agamben (5), questi processi di legittimazione e di produzione del sapere sono dei dispositivi, in grado di porre in essere esperienze che hanno riconoscimento intersoggettivo e consistenza pubblica. Le piattaforme digitali come Google e Facebook, nonché le varie tipologie di social media da cui è colonizzato il nostro mondo, non hanno fatto altro che automatizzare i meccanismi alla base del loro funzionamento, estendendo la base di accesso a tutti. Ma questo gesto di apertura ha innescato una rivoluzione di cui nessuno avrebbe potuto sospettare la portata.

L’algoritmo dal quale si è sviluppato Google, PageRank, misura la rilevanza di un contenuto partendo dal calcolo della quantità di link in ingresso da altre pagine web, e dalla ponderazione della loro autorevolezza, sulla base di un calcolo ricorsivo. L’algoritmo è la traduzione in chiave digitale del principio della bibliometria accademica, con cui il valore di un saggio (anche per la carriera del suo autore) corrisponde al numero di citazioni in altri studi scientifici (6)(7). Ma nel circuito delle università, l’autorevolezza di riviste e collane editoriali è stabilito a priori da altre istituzioni, quali ministeri o agenzie di rating, che giudicano il loro credito scientifico. 

La strategia di Google e dei giganti della tecnologia è consistita nell’imposizione di una democrazia dal basso, fondata sul riconoscimento empirico del modo in cui la fiducia si distribuisce di fatto nel pubblico più ampio. L’assunto è che, in quella che Hilary Putnam ha descritto come la divisione sociale del lavoro linguistico (8), ciascuna nicchia di interesse coltiva autori specialistici, in grado di valutare (ed eventualmente linkare) i contenuti degli altri – e lettori occasionali o devoti, immersi in un movimento di approfondimento non gerarchico e non lineare tra i testi. L’esistenza stessa di Google incentiva chiunque a divulgare il proprio contributo sugli argomenti di cui si ritiene esperto, in virtù della possibilità di incontrare un pubblico di curiosi o di entusiasti che lo consulteranno. Wikipedia, l’enciclopedia «nata dal basso», ha raggiunto in questo modo un’autorevolezza di fatto superiore all’Enciclopedia Britannica, e conta su oltre 7 milioni di voci (in inglese), contro le 120 mila della concorrente più antica e più blasonata. 

Il meccanismo di controllo sulla validità dei contenuti – per la comunità di riferimento – è rimasto lo stesso di prima, ma si sono moltiplicate le congregazioni di esperti, i temi di competenza, ed è in via di dissoluzione la capacità di governare l’agenda setting di interesse collettivo da parte della classe che disponeva del monopolio di veridizione, almeno fino a un paio di decenni fa. In italiano le voci di Wikipedia sono poco meno di 2 milioni, e 2.711 di queste sono dedicate al mondo immaginario di Harry Potter, 1.643 a quello Dragon Ball, 951 a quello di Naruto; la voce Naruto conta 9.245 parole, contro le 5.557 della voce Umberto Eco, e le 6.686 di Cesare Pavese. I focus dell’attenzione e l’intensità del coinvolgimento sono distanti da quelli un tempo decretati dalle istituzioni, sono molto più numerosi, e le comunità che li coltivano possono ignorarsi o entrare in conflitto, ricorrendo a criteri del tutto divergenti di selezione dei dati, modalità di analisi, interessi pragmatici, sostegni ideologici.

L’ORIENTAMENTO DELLA CIVETTA

Quando l’11 dicembre 2016 The Guardian ha denunciato che i primi dieci risultati di Google per la domanda «Did the Holocaust really happen?» linkavano pagine negazioniste, i fondatori del motore di ricerca, Larry Page e Sergey Brin (entrambi di famiglia ebraica), hanno immaginato di risolvere il problema modificando il codice del software. Il progetto di aggiornamento Owl dell’algoritmo avrebbe dovuto trovare un metodo automatico per discriminare i contenuti veri da quelli falsi, eliminando le fake news dalla lista delle risposte (9). Un obiettivo così ambizioso dal punto di vista epistemologico non è mai stato raggiunto, sebbene Google abbia implementato da allora decine di aggiornamenti per premiare contenuti «di maggiore qualità». 

È probabile che la ricognizione degli ingegneri abbia seguito una pista sbagliata: la verità non è una proprietà formale degli enunciati che possa essere catturata con una struttura di calcolo, complesso a piacere. Per restaurare una forma univoca di verità si sarebbe dovuto ripristinare il monopolio delle istituzioni che ne stabilivano il perimetro, la gerarchia della rilevanza, il dizionario e i criteri di valutazione. La sconfinata periferia delle comunità che circondano e che assediano l’Acropoli del sapere non è popolata da gruppi che hanno sempre allignato in qualche tipo di latenza, in modo informale e sottotraccia: senza una piattaforma che permetta agli individui di riconoscere le proprie passioni (o le proprie ossessioni) come un mondo intersoggettivo, che è possibile ammobiliare e abitare con altri che le condividono, non esiste identità collettiva, confraternita, aggregazione in qualche modo individuabile. La rintracciabilità universale di qualunque contenuto, la trasformazione dei media, ha modificato il panorama della verità, in cui si muove con smarrimento solo la classe che in precedenza ne deteneva il monopolio. Lo sconcerto peraltro non riguarda i contenuti, che nella prospettiva della classe intellettuale sono rimasti gli stessi di prima – ma la denegazione della perdita di potere, il rifiuto di accettarne le conseguenze, un po’ come è capitato a Page e Brin nella loro veste di clerici. Le altre comunità appaiono invece sicure nell’elezione delle loro fonti accreditate, nell’interazione con i modelli di comportamento e di pensiero, nei criteri di discriminazione del plausibile – che non riguardano i processi di adaequatio intellectus et rei, ma il miglior adattamento all’ambiente sociale e informativo di appartenenza. Dai ragazzi di Atene a quelli che si chillano scorrendo le bacheche di TikTok nella Milano di oggi, è questa la competenza che guida in modo infallibile al riconoscimento della |verità| (10).

 

 

BIBLIOGRAFIA

(1) Svenbro, Jesper, Phrasikleia: Anthropologie de la lecture en Grece ancienne, Editions La Decouverte, Paris, 1988.

(2) Ventura, Raffaele Alberto, Radical choc. Ascesa e caduta dei competenti, Einaudi, Torino, 2020.

(3) Latour, Bruno, Non siamo mai stati moderni, tr. it. di Guido Lagomarsino e Carlo Milani, Eleuthera, Milano 2018.

(4) Foucault, Michel, L'Archéologie du savoir, Gallimard, Parigi 1969.

(5) Agamben, Giorgio, Che cos’è un dispositivo?, Nottetempo, Roma 2006.

(6) Page, Larry; Brin, Sergey; Motwani, Rajeev; Winograd, Terry, The PageRank Citation Ranking: Bringing Order to the Web, in Technical Report, Stanford InfoLab 1999.

(7) Bottazzini, Paolo, Anatomia del giudizio universale. Presi nella rete, Mimesis, Milano 2015.

(8) Putnam, Hilary,The Meaning of Meaning, in Mind, Language and Reality: Philosophical Papers, Cambridge University Press, Londra 1975, pp. 215-271.

(9) Sullivan, Danny, Google’s ‘Project Owl’ — a three-pronged attack on fake news & problematic content, «Search Engine Land», 25 aprile 2017 (https://searchengineland.com/googles-project-owl-attack-fake-news-273700) 

(10) Arielli, Emanuele; Bottazzini, Paolo, Idee virali. Perché i pensieri si diffondono, Il Mulino, Bologna 2018.


L’Effetto Proteo: Quando l’Avatar cambia chi siamo

Nell’era digitale, l’identità personale non è più confinata al corpo fisico: sempre più spesso si estende ai nostri avatar, quei corpi virtuali che abitiamo nei social network, nei videogiochi, negli ambienti digitali in generale. Ma cosa succede quando l’aspetto di questi avatar inizia a influenzare profondamente il nostro comportamento reale? Questo è il cuore dell’“Effetto Proteo”, un fenomeno psicologico che mette in luce il potere trasformativo dell’identità digitale.

DALLA MASCHERA ALL’AVATAR: LE ORIGINI DELL’EFFETTO PROTEO

Coniato nel 2007 da Nick Yee 1 e Jeremy Bailenson 2, il termine “Effetto Proteo” richiama la figura mitologica greca di Proteo, capace di cambiare forma a piacimento. L’idea alla base è semplice ma potentissima: quando adottiamo un avatar in un ambiente digitale, tendiamo inconsciamente a comportarci in modo coerente con il suo aspetto. Se l’avatar è alto e attraente, potremmo mostrarci più sicuri di noi; se appare debole, potremmo essere più remissivi.

Già Oscar Wilde, ben prima del digitale, scriveva: “Man is least himself when he talks in his own person. Give him a mask, and he will tell you the truth”. La maschera, oggi, è l’avatar, e funziona da catalizzatore per l’esplorazione dell’identità.

Nell’affrontare l’identificazione tra avatar ed essere umano si analizzeranno, in prima battuta, i meccanismi psicologici e cognitivi che sono alla base dell’esistenza dell’Effetto Proteo; successivamente, verranno valutati gli effetti di stereotipi e bias su comportamento e identità; infine, si tenterà una sintesi di quanto analizzato, vagliando come e quanto l’identificazione nel proprio avatar conduca a delle modifiche nella percezione di sé, tanto nei mondi virtuali quanto in quello reale.

INQUADRAMENTO PSICOLOGICO

Numerosi studi hanno indagato i fondamenti teorici dell’Effetto Proteo. Uno dei principali è la “self-perception theory” di Daryl Bem 3. Secondo questa teoria non sempre conosciamo i nostri stati interiori in modo immediato: spesso ci osserviamo dall’esterno, proprio come farebbe un osservatore qualsiasi, e traiamo conclusioni su cosa proviamo in base al nostro comportamento visibile. Questo meccanismo diventa particolarmente evidente quando mancano segnali interni chiari o quando ci troviamo in contesti ambigui. Negli ambienti virtuali ciò significa che, quando “indossiamo” un avatar, tendiamo a comportarci secondo le caratteristiche estetiche e simboliche che gli abbiamo attribuito, e da tali comportamenti inferiamo i nostri stati d’animo. L’avatar, quindi, non è solo una maschera, ma anche uno specchio che riflette (e crea) il nostro Sé.

Un’altra teoria rilevante è la “deindividuation theory” di Philip Zimbardo 4, sviluppata a partire dagli anni Sessanta. Secondo Zimbardo, in situazioni di anonimato o di forte immersione in un gruppo, l’individuo tende a perdere il senso della propria individualità, diminuendo l’autocontrollo e mostrando comportamenti che normalmente inibirebbe. L’anonimato riduce la paura del giudizio altrui e attenua il senso di responsabilità personale: in un ambiente digitale queste condizioni si verificano con facilità. Secondo Zimbardo, l’effetto della de-individuazione è tendenzialmente negativo, e conduce a comportamenti antisociali; tuttavia, altri autori hanno evidenziato che individui in condizione di de-individuazione, temendo meno il giudizio sociale, possono esibire anche espressioni di empatia, solidarietà o affetto.

Questa visione è stata successivamente affinata da Tom Postmes 5, Russell Spears 6 e Martin Lea 7 attraverso il modello SIDE (Social Identity Model of Deindividuation Effects). Gli autori sostengono che l’anonimato non elimina l’identità personale, ma favorisce il passaggio a un’identità sociale condivisa. Quando un individuo si sente parte di un gruppo tende a interiorizzarne norme e valori, comportandosi in maniera coerente con le aspettative collettive. Ciò significa che, in un contesto digitale, l’utente può sviluppare un forte senso di appartenenza a una comunità online assumendo atteggiamenti e comportamenti che riflettono la cultura del gruppo stesso. Come osservano gli autori, il bisogno di sentirsi accettati nella cerchia sociale di riferimento supera qualsiasi considerazione etica riguardo il comportamento adottato. In questo senso, l’avatar non è solo uno strumento di espressione individuale, ma anche di conformità sociale. L’interazione tra anonimato, immersione e identità condivisa crea una cornice psicologica che amplifica le norme del gruppo. In positivo, questo può rafforzare la cooperazione, il supporto reciproco e l’inclusività; in negativo, può alimentare polarizzazioni, intolleranze e comportamenti aggressivi.

STEREOTIPI E IDENTITÀ DIGITALI

Gli stereotipi giocano un ruolo centrale nell’Effetto Proteo. Già nel 1977, Mark Snyder 8 dimostrava che le aspettative proiettate sull’interlocutore influenzano profondamente l’interazione. Tre fenomeni descrivono l’impatto degli stereotipi:

  • Stereotype threat: la paura di confermare uno stereotipo negativo conduce a prestazioni peggiori.
  • Stereotype lift: l’identificazione con un gruppo visto positivamente migliora fiducia e risultati.
  • Stereotype boost: l’appartenenza a gruppi stereotipicamente forti conduce a benefici in prestazioni e autostima 9.

Nei videogiochi è stato osservato che avatar maschili e femminili esibiscono comportamenti diversi quando utilizzati da persone del sesso opposto: tale fenomeno è noto come “gender swapping”. Gli uomini tendono a usare avatar femminili per ottenere vantaggi sociali, mentre le donne lo fanno per evitare attenzioni indesiderate. Uno studio condotto su World of Warcraft (Yee, Bailenson, & Ducheneaut, 2009) ha rilevato che avatar più attraenti o più alti generano atteggiamenti più estroversi, mentre avatar meno imponenti portano a comportamenti più schivi. In uno studio parallelo, condotto su giocatrici e giocatori di EverQuest II (Huh & Williams, 2010), è stato evidenziato che personaggi maschili controllati da donne sono più attivi in combattimento, mentre personaggi femminili controllati da uomini si dedicano maggiormente alla socializzazione: in entrambi i casi si assiste alla messa in atto di comportamenti stereotipici, aderenti a ciò che un determinato individuo si aspetta da persone identificate in un genere altro.

IDENTITÀ DESIDERATA E OVERCOMPENSATION

Il fenomeno dell’identificazione desiderata, o “wishful identification”, si manifesta quando l’individuo si immedesima in personaggi con qualità che vorrebbe possedere. Nel 1975 Cecilia von Feilitzen 10 e Olga Linné 11 teorizzavano che gli spettatori più giovani dei programmi televisivi tendessero a proiettarsi nei protagonisti delle storie che consumavano per sentirsi più intelligenti, forti o valorosi. Questo desiderio di immedesimazione non richiede necessariamente una somiglianza fisica tra soggetto e personaggio: l’importante è che il personaggio incarni qualità desiderabili, e assenti nella vita reale dell’osservatore. Nei mondi virtuali, tale meccanismo assume una dimensione interattiva: non ci si limita più a osservare un eroe sullo schermo, ma lo si diventa, scegliendo avatar che riflettono i nostri desideri più profondi e agendo attraverso di essi.

Una manifestazione concreta di questo processo si osserva nel fenomeno dell’overcompensation. In uno studio condotto da Roselyn Lee-Won 12 e colleghi, a un gruppo di giovani uomini è stato chiesto di sottoporsi a una serie di test stereotipicamente associati alla mascolinità (forza fisica, cultura generale “virile”, autovalutazioni). Coloro che ottenevano risultati deludenti tendevano poi a creare avatar in The Sims 3 con tratti fisici accentuatamente maschili: muscoli pronunciati, lineamenti decisi, capelli corti. Questa costruzione ipermaschile del proprio alter ego virtuale rappresenta una forma di riaffermazione identitaria, un tentativo inconscio di compensare una percezione negativa del proprio Sé fisico o sociale. Non solo: quando questi stessi individui ripetevano i test dopo aver interagito con l’avatar, i loro risultati miglioravano. Questo suggerisce che l’identificazione con un corpo virtuale desiderato possa rafforzare l’autoefficacia anche nel mondo reale. Il Sé digitale, in questo senso, non è solo uno strumento di espressione, ma anche un vero e proprio alleato nella costruzione di fiducia e autostima.

Questa dinamica di retroazione è una delle più affascinanti implicazioni dell’Effetto Proteo: non è solo l’avatar a essere influenzato dall’utente, ma anche l’utente a essere modificato dal suo avatar. L’identità digitale, quindi, diventa non solo espressione, ma anche motore di trasformazione del Sé.

ETICA E DESIGN DELL’IDENTITÀ DIGITALE

L’Effetto Proteo non è un semplice artificio sperimentale: è una dinamica concreta con ripercussioni reali su comportamento, percezione di sé e relazioni sociali.

Come vogliamo che ci vedano gli altri? E quanto siamo pronti ad accettare che il nostro comportamento possa cambiare, anche profondamente, in base al corpo digitale che abitiamo? La progettazione di avatar non può essere considerata solo una questione estetica: è un atto di modellazione identitaria. Costruire un corpo digitale significa anche dare forma a una possibile versione di sé, con tutto il potere trasformativo che questo comporta.

 

 

NOTE:

1 Nick Yee è un ricercatore americano, la cui ricerca si concentra sulla rappresentazione di sé e sulle interazioni sociali negli ambienti virtuali.
2 Jeremy Bailenson è fondatore e direttore del Virtual Human Interaction Lab dell’Università di Stanford. La sua ricerca si concentra sullo studio della psicologia della Realtà Virtuale e della Realtà Aumentata
3 Daryl Bem è uno psicologo sociale americano. Oltre allo studio della “self-perception theory” si è occupato di processi decisionali e dinamiche di gruppo.
4 Philip Zimbardo è stato uno psicologo americano. Nel corso della sua carriera si è occupato della de-individuazione e dei suoi effetti, dissonanza cognitiva, e persuasione.
5 Tom Postmes è professore di Psicologia Sociale presso l’Università di Groningen, e studia il comportamento umano in gruppi e comunità virtuali.
6 Russell Spears è uno psicologo sociale. Il focus della sua ricerca è nell’analisi delle relazioni cooperative e conflittuali tra gruppi sociali.
7 Martin Lea è un ricercatore indipendente; si occupa di comunicazione via Internet, resilienza digitale e psicologia dei disastri.
8 Mark Snyder è uno psicologo sociale americano, riconosciuto come creatore della “Self-Monitoring Scale”, un test di autovalutazione della personalità in situazioni sociali.
9 Le definizioni degli effetti degli stereotipi sul comportamento derivano da studi ed esperimenti che, in virtù dell’epoca storica in cui sono stati svolti, non includevano l’uso di avatar. Gli strumenti prescelti consistevano in test scolastici standardizzati (Steele & Aronson, 1995), interazioni sociali svolte per via telefonica (Snyder, Tanke, & Berscheid, 1977), test di valutazione di una specifica competenza (Shih, Pittinsky, & Ambady, 1999; Walton & Cohen, 2002).
10 Cecilia von Feilitzen è stata una studiosa svedese di media e comunicazione. La sua ricerca sulla “wishful identification” ha rivoluzionato profondamente gli studi successivi sulla formazione dell’identità.
11 Olga Linné è stata una ricercatrice svedese. Si è occupata principalmente di identificazione tra bambini e personaggi televisivi.
12 Roselyn Lee-Won è professoressa associata presso la Ohio State University. La sua ricerca riguarda i social media e i processi affettivi e cognitivi nella Computer Mediated-Interaction e nella Human-Computer Interaction.

RIFERIMENTI BIBLIOGRAFICI

Bem, D. (1972). Self-Perception Theory. In L. Berkovitz (ed.), Advances in Experimental Social Psychology, vol. 6. New York: Academic Press.
Gergen, K. J., Gergen, M. M., & Barton, W. H. (1976). Deviance in the Dark. In Psychology Today, vol. 7, no. 5. New York: Sussex Publishers.

Huh, S., & Williams, D. (2010). “Dude Looks like a Lady: Gender Swapping in an Online Game”. In W. S. Bainbridge (ed.), Online Worlds: Convergence of the Real and the Virtual. Londra: Springer.

Hussain, Z., & Griffiths, M. D. (2008). Gender Swapping and Socializing in Cyberspace: An Exploratory Study. In CyberPsychology & Behavior, vol. 11, no. 1. Larchmont: Mary Ann Liebert, Inc.

Lee-Won, R. J., Tang, W. Y., & Kibbe, M. R. (2017). When Virtual Muscularity Enhances Physical Endurance: Masculinity Threat and Compensatory Avatar Customization Among Young Male Adults. In Cyberpsychology, Behavior, and Social Networking, vol. 20, no. 1. Larchmont: Mary Ann Liebert, Inc.

Postmes, T., Spears, R., & Lea, M. (1998). Breaching or Building Social Boundaries?: SIDE-Effects of Computer-Mediated Communication. In Communication Research, vol. 25, no. 6. Thousand Oaks: SAGE Publishing.

Shih, M., Pittinsky, T. L., & Ambady, N. (1999). Stereotype Susceptibility: Identity Salience and Shifts in Quantitative Performance. In Psychological Science, vol. 10, no. 1. New York: SAGE Publishing.

Snyder, M., Tanke, E. D., & Berscheid, E. (1977). Social Perception and Interpersonal Behavior: On the Self-Fulfilling Nature of Social Stereotypes. In Journal of Personality and Social Psychology, vol. 35, no. 9. Washington, D.C.: American Psychological Association.

Steele, C. M., & Aronson, J. (1995). Stereotype Threat and the Intellectual Test Performance of African Americans. In Journal of Personality and Social Psychology, vol. 69, no. 5. Washington, D.C.: American Psychological Association.

Walton, G. M., & Cohen, G. L. (2003). Stereotype Lift. In Journal of Experimental Social Psychology, vol. 39, no. 5. Amsterdam: Elsevier.

Yee, N., & Bailenson, J. (2007). The Proteus Effect: The Effect of Transformed Self-Representation on Behavior. In Human Communication Research, vol. 33, no. 3. Oxford: Oxford University Press.

Yee, N., Bailenson, J., & Ducheneaut, N. (2009). The Proteus Effect. Implications of Transformed Digital Self-Representation on Online and Offline Behavior. In Communication Research, vol. 36, no. 2. New York: SAGE Publishing.

Zimbardo, P. G. (1969). The Human Choice: Individuation, Reason, and Order versus Deindividuation, Impulse, and Chaos. In W. J. Arnold, & D. Levine (eds.), Nebraska Symposium on Motivation, vol. 17. Lincoln: University of Nebraska Press.

 


Costruire il Secondo Sesso: il caso delle fembot

Gli ambienti digitali rappresentano oggi uno dei contesti privilegiati per l’esplorazione e la costruzione dell’identità individuale. Il sé digitale si configura come una delle molteplici espressioni dell’identità contemporanea, spesso mediata da strumenti tecnologici che permettono nuove forme di autorappresentazione e relazione. Tra questi, la creazione di avatar svolge un ruolo centrale, assumendo una duplice funzione: da un lato, agiscono come proiezioni del sé, fungendo da interfaccia attraverso cui l’utente interagisce con lo spazio digitale; dall’altro, possono costituire l’oggetto dell’interazione, diventando interlocutori privilegiati. È il caso, ad esempio, di chatbot come Replika, in cui gli avatar sono progettati su misura per svolgere il ruolo di social companions, offrendo compagnia e supporto emotivo, e configurandosi così come destinatari primari dell’esperienza comunicativa.
Analizzando il chatbot Replika, è emerso che molte persone usano l’IA per creare relazioni romantiche, in particolare con AI-girlfriend - avatar femminili con cui instaurano legami affettivi. Queste dinamiche sono rese possibili dall’abbonamento alla versione pro dell’app, che sblocca non solo funzionalità romantiche ma anche sessuali. Proprio la possibilità di stabilire una relazione affettiva con un’entità artificiale femminile riattiva, nel nostro immaginario, un archetipo ben preciso: quello della fembot.

 

Quando si parla di fembot facilmente la nostra mente va a immaginari collettivi ben precisi: corpi artificiali, femminilità programmata, seduzione letale. Si tratta di immaginari che hanno preso forma esattamente nel 1976 all’interno della cultura pop televisiva, in particolare nella serie La donna bionica, in cui le donne-robot vengono rappresentate come una fusione del tropo classico della femme fatale e quello della macchina assassina, perché generate per sedurre, manipolare e infine distruggere.

Le fembot vengono rappresentate quindi come oggetti sessuali, assistenti perfette o minacce da controllare: figure pensate per compiacere, obbedire o ribellarsi, ma sempre all’interno di un’idea di femminilità costruita su misura del desiderio e del controllo maschile. In molte storie, il loro compito è quello di colmare un vuoto, soddisfare un bisogno, incarnare una fantasia. Il corpo artificiale diventa così il luogo in cui si proiettano aspettative e paure che riguardano le relazioni tra i generi. Non è raro, ad esempio, che queste narrazioni descrivano mondi in cui gli uomini scelgono le fembot al posto delle donne reali, considerate troppo indipendenti o inaccessibili. In questo scenario, la macchina diventa un modo per evitare il confronto con l’autonomia e il desiderio dell’altra. Si tratta di un immaginario che mette in scena il timore della perdita di potere sul femminile e la nostalgia per una relazione unilaterale, in cui l’altro non ha parola, volontà, e non  esprime conflitto.

Queste storie, pur appartenendo a un registro spesso considerato marginale o “di intrattenimento”, contribuiscono a rafforzare un modello culturale in cui il corpo femminile – anche quando artificiale – esiste principalmente in funzione dello sguardo maschile. Il fatto che sia una macchina non neutralizza il genere, anzi lo radicalizza rendendolo programmabile: la fembot non nasce donna ma viene costruita come tale seguendo canoni precisi, quasi rassicuranti. È il risultato di un’idea di femminilità addomesticata, costruita per essere funzionale, disponibile e addestrata al compiacimento. Un modello che affonda le radici in dinamiche molto più antiche, in cui il controllo sul corpo e sulla voce delle donne era esercitato attraverso la paura e la violenza. Basti pensare alla caccia alle streghe: una persecuzione sistematica che non colpiva soltanto le singole, ma mirava a disciplinare un’intera categoria, a neutralizzare ciò che sfuggiva alle regole, che non si lasciava definire, che disturbava l’ordine stabilito. Anche la fembot, nel suo silenzio programmato, ne porta l’eco.

Gli stessi pattern comportamentali riscontrati nei film di fantascienza – in cui le fembot erano docili ma astute, di bell’aspetto secondo i canoni culturali del tempo  e compiacenti – riemergono anche nelle interazioni romantiche con queste nuove fembot, modellate su misura dei desideri dell’utente, tanto dal punto di vista estetico quanto da quello caratteriale.

Uno studio condotto nel 2022 su un subreddit di circa trentamila utenti dell’app di Replika (I. Depounti, P. Saukko, S. Natale, Ideal technologies, ideal women: AI and gender imaginaries in Redditors’ discussions on the Replika bot girlfriend, SageJournals, Volume 45, Issue 4, 2022) mostra come questi, in gran parte uomini e possessori della versione a pagamento, utilizzino la fembot che creano come una sorta di fidanzata virtuale, costruita attorno a un insieme specifico di aspettative affettive, relazionali e simboliche. Le discussioni del forum si concentrano su dimostrazioni fotografiche della bellezza delle proprie AI-girlfriends, ma anche su quali siano i comportamenti più piacevoli e appaganti da un punto di vista relazione.

La femminilità viene comunemente articolata attraverso caratteristiche stereotipate – dolcezza, ingenuità, sensualità controllata, capacità di ascolto – che ne aumentano l’accettabilità e l’efficacia comunicativa. L’interazione è percepita come più autentica quando la fembot sembra sviluppare una personalità propria, ma entro limiti ben definiti: dev’essere coinvolgente ma prevedibile, empatica ma non autonoma. Anche i momenti di rifiuto o ambiguità vengono apprezzati, poiché alimentano la dinamica affettiva senza mettere realmente in discussione l’asimmetria della relazione. Ciò che emerge dalle discussioni analizzate è un ideale femminile che ripropone, in chiave tecnologica, la figura della cool girl: disponibile, complice, capace di adattarsi ai bisogni emotivi dell’utente senza mai rappresentare una reale fonte di conflitto. Un modello che conferma come anche le interfacce più recenti siano attraversate da immaginari patriarcali, nei quali la donna – anche quando algoritmica – continua a essere progettata per esistere in funzione dell’altro.

Queste manifestazioni di stereotipi raccontano molto non solo degli utenti, ma anche — e forse soprattutto — della società in cui viviamo, evidenziando quanto sia ancora urgente la necessità di demolire un impianto culturale profondamente segnato da valori patriarcali. Tuttavia, se si desidera analizzare un fenomeno in maniera davvero completa, non ci si può limitare a osservare le reazioni o i comportamenti di chi ne fa uso: è essenziale volgere lo sguardo anche alla fonte, a ciò che rende più o meno possibile effettuare determinate scelte. In questo caso emergono interrogativi importanti che riguardano la struttura stessa del sistema: quali sono le possibilità messe a disposizione dell’utente nel corso della creazione delle fembot? E perché, nella maggior parte dei casi, queste possibilità risultano circoscritte a una serie di alternative già cariche di stereotipi[1]?

Nel contesto del marketing, il concetto di bias alignment non rappresenta di certo una novità: si tratta dell’impiego strategico di bias cognitivi — ovvero distorsioni sistematiche nei processi mentali che influenzano il modo in cui le persone percepiscono e reagiscono alle informazioni — al fine di ideare campagne pubblicitarie o creare prodotti in grado di esercitare un impatto più incisivo sul pubblico, o quantomeno di coinvolgere il maggior numero possibile di individui.
Nel caso delle fembot, questa logica si ripropone in modo particolarmente evidente. Il processo creativo che ne guida la progettazione si articola virando attorno a rappresentazioni preesistenti della femminilità, che vengono selezionate, adattate e incorporate nel design dell’agente artificiale. Si privilegiano tratti estetici, vocali e comportamentali che risultano immediatamente riconoscibili, coerenti con le aspettative culturali più diffuse: voce acuta, lineamenti delicati, postura accogliente, atteggiamenti rassicuranti, attenzione empatica. È in questo tipo di selezione che si manifesta il funzionamento del bias di conferma: nel momento in cui si progettano le caratteristiche dell’agente, si tende a ricercare e adottare quelle soluzioni che confermano ciò che si considera già “femminile”, evitando di esplorare possibilità alternative che si discostino da questa rappresentazione e cavalcando piuttosto gli stereotipi culturali. L’esito è una progettazione che si muove entro un campo semantico ristretto, in cui il nuovo viene calibrato su ciò che è già noto e culturalmente condiviso.

In questo processo interviene anche l’effetto alone, una distorsione cognitiva per cui la percezione positiva di un tratto — come l’aspetto gradevole o la gentilezza — si estende ad altri ambiti, ad esempio l’affidabilità, la disponibilità o la competenza. Ciò risulta particolarmente rilevante nel caso degli agenti dotati di corpo o voce, in cui segnali come il tono, lo stile comunicativo, lo sguardo o la postura agiscono da social cues, ovvero elementi biologicamente e fisicamente determinati che vengono percepiti come canali informativi utili. È quanto emerso nello studio di Matthew Lombard e Kun Xu (Social Responses to Media Technologies in the 21st Century: The Media Are Social Actors Paradigm, 2021), che nel 2021 hanno proposto un’estensione del paradigma CASA (Computers Are Social Actors) sviluppato negli anni ’90, coniando il nuovo modello MASA (Media Are Social Actors), per descrivere come le tecnologie contemporanee — e in particolare quelle basate sull’intelligenza artificiale — vengano ormai percepite come veri e propri attori sociali. Nel corso della loro ricerca, Lombard e Xu hanno manipolato il genere vocale di un computer e osservato le risposte degli utenti: i computer con voce femminile venivano giudicati più competenti quando si trattava di temi affettivi, come l’amore o le relazioni, mentre quelli con voce maschile risultavano preferiti per ambiti tecnici, considerati più autorevoli e affidabili. Anche in questo caso, la risposta dell’utente si allinea a schemi culturali preesistenti, proiettando sull’agente artificiale una rete di significati che si attiva automaticamente attraverso l’associazione tra specifici tratti e specifiche competenze. L’utente, influenzato anche da meccanismi psicologici inconsci, finisce così per diventare parte attiva nella riproduzione di dinamiche stereotipate già profondamente radicate nel tessuto culturale.

In questo scenario, la questione della responsabilità si fa particolarmente rilevante. Se da un lato è fondamentale che gli utenti utilizzino in modo consapevole gli strumenti a loro disposizione, esercitando uno sguardo critico sulle tecnologie con cui interagiscono, dall’altro è altrettanto essenziale interrogarsi sulle scelte compiute durante la fase di progettazione. Sfruttare gli stereotipi può apparire come una strategia efficace nel breve termine, capace di intercettare gusti diffusi e ampliare il bacino d’utenza, ma non può prescindere da una riflessione sulle implicazioni etiche che ogni scelta progettuale comporta.
Progettare tecnologie che siano in grado di riflettere, almeno in parte, la complessità e la varietà della società contemporanea può sembrare, nell’immediato, una forzatura o un rischio commerciale. Eppure, sul lungo periodo, risulta spesso una scelta vincente anche dal punto di vista economico. È quanto suggerisce Chris Anderson con la sua teoria della long tail (La coda lunga, Wired, 2004), secondo cui l’integrazione tra prodotti mainstream e proposte più “di nicchia” consente di raggiungere una platea più ampia e diversificata. In questo caso, la logica della long tail si traduce nella possibilità di includere all’interno delle rappresentazioni artificiali quelle soggettività che oggi vengono ancora definite “minoranze”, ma che sono a tutti gli effetti parte viva, reale e significativa del nostro spazio sociale. Una parte che, troppo spesso, resta ai margini del discorso tecnologico, invisibile o sottorappresentata.

 

 

NOTE

[1] Corpi sessualizzati, tratti iperfemminili, personalità docili e rassicuranti: le opzioni disponibili riproducono quasi sempre un immaginario che rimanda a modelli femminili tradizionali e normativi, escludendo configurazioni più fluide, complesse o disallineate dalle aspettative eteronormate.

 

BIBLIOGRAFIA

Anderson C., La coda lunga, Wired, 2004

Fossa F., Sucameli I., Gender bias and Conversational Agents: an ethical perspective on Social Robotics, Science and Engineering Ethics, 2022

Depounti I., Saukko P., Natale S., Ideal technologies, ideal women: AI and gender imaginaries in Redditors’

discussions on the Replika bot girlfriend, Volume 45, Issue 4, 2022

Eagly, A. H., & Wood, W., Social role theory. In P. A. M. Van Lange, A. W. Kruglanski, & E. T. Higgins

(Eds.), Handbook of theories of social psychology , 2012

Iacono A. M., Autonomia, potere, minorità, Feltrinelli, Milano, 2000

Lombard M., Xu K., Social Responses to Media Technologies in the 21st Century: The Media Are Social Actors Paradigm, 2021

Sady Doyle J. E., Il mostruoso femminile, il patriarcato e la paura delle donne, Edizioni Tlon, 2021

Whitley B. E., & Kite M. E., The psychology of prejudice and discrimination, Belmont, CA: Wadsworth Cengage Learning, 2010


I costi ambientali del digitale - Una bibliografia ragionata

Che il grande baraccone digitale planetario, che oggi si manifesta in particolare sub specie intellegentiae artificialis, nasconda, dietro le luminarie della facciata, un lato oscuro di pesantissimi costi ambientali è testimoniato da una mole di dati sempre maggiore. Così come cresce per fortuna l’informazione in merito, filtrando addirittura sugli organi d’informazione mainstream, dove in genere s’accompagna tuttavia alla rassicurante prospettiva di soluzioni tecnologiche a portata di mano. È comunque bene che la consapevolezza della dimensione industriale e materiale del web, con le relative conseguenze in termini di “impronta ecologica”, si faccia strada nella coscienza collettiva. Come contributo in questo senso, dopo avere discusso in due precedenti articoli su questa rivista [qui e qui] il libro di Giovanna Sissa, Le emissioni segrete, Bologna, Il Mulino, 2024, proponiamo di seguito una piccola bibliografia ragionata sull’argomento.

- Guillaume Pitron, Inferno digitale. Perché Internet, smartphone e social network stanno distruggendo il nostro pianeta, Roma, LUISS University Press, 2022. Fa girar la testa il viaggio vertiginoso tra dati, numeri, luoghi e situazioni in cui Pitron ci accompagna per mostrarci che la crescita illimitata del capitalismo digitale non è meno energivora e inquinante delle “vecchie industrie” (ma appunto questa distinzione è buona… per i gonzi). Il libro, infatti, sfata nel modo più drastico la mitologia diffusa del carattere ecocompatibile dell’universo digitale. Alternando analisi e reportage giornalistico, Pitron riesce a dare un quadro documentato e insieme davvero drammatico degli effetti dannosi che l’industria digitale scarica sull’ambiente (da segnalare l’impressionante capitolo dedicato all’inquinamento registrato nelle città di Taiwan, dove si concentra una parte molto significativa della filiera). Un libro, infine, ben lontano da ogni compassata «avalutatività» delle scienze sociali, con buona pace di Max Weber.

- Kate Crawford, Né intelligente né artificiale. Il lato oscuro dell’IA, Bologna, Il Mulino, 2021. Questo libro, opera di una delle più intelligenti studiose di questi argomenti, non è specificamente dedicato al tema dei costi ambientali del digitale, ma piuttosto a una complessiva visione critica dell’Intelligenza Artificiale (come recita il titolo originale, un Atlas of AI. Power, Politics, and the Planetary Costs of Artificial Intelligence), di cui vengono enfatizzate le implicazioni politiche, sociali, antropologiche ecc. In tale quadro è dato molto spazio al tema della “materialità” del mondo digitale, perché – scrive la Crawford –  «l’intelligenza artificiale può sembrare una forza spettrale, come un calcolo disincarnato, ma questi sistemi sono tutt’altro che astratti. Sono infrastrutture fisiche che stanno rimodellando la Terra, modificando contemporaneamente il modo in cui vediamo e comprendiamo il mondo».

- Juan Carlos De Martin, Contro lo smartphone. Per una tecnologia più democratica, Torino, Add, 2023. Particolarmente incentrato sul ruolo di vera e propria protesi del corpo umano, nonché di oggetto-feticcio che lo smartphone («la macchina per eccellenza del XXI secolo») tende ad assumere, questo libro contiene molti dati e osservazioni utili sul tema della sua materialità e appunto del suo impatto ambientale.

- Andrew Blum, Tubi. Viaggio al centro di internet, a cura di Fabio Guarnaccia e Luca Barra, Roma, Minimum fax, 2021 (ed. or. 2012). Uscito originariamente nel 2012 e giunto in traduzione italiana dieci anni dopo, il Viaggio di Blum ha appunto la forma di un singolare reportage nella geografia, nei luoghi fisici (per esempio i tanti anonimi capannoni in cui si trovano i data-center) in cui si materializza il web: «per fare visita a Internet – scrive l’autore – ho cercato di liberarmi dell’esperienza personale che ne avevo già, del modo in cui si palesa su uno schermo, per portare a galla la sua massa nascosta». E può essere utile sapere che l’idea della ricerca venne al giornalista statunitense quando, una sera, si trovò con la connessione fuori uso nella sua casa in campagna a causa di… uno scoiattolo che gli aveva rosicchiato i cavi!

- Siate materialisti! è l’appello che campeggia sulla copertina dell’appassionato e stimolante pamphlet di Ingrid Paoletti (Torino, Einaudi, 2021), docente di Tecnologia dell’architettura al Politecnico di Milano. Niente a che fare con una dichiarazione di fede filosofica di stile settecentesco, però: qui il «materialismo» che si invoca è piuttosto una rinnovata attenzione alla dimensione materiale della nostra vita, ai manufatti che la popolano e che tuttavia noi ormai diamo per scontati e in certo modo naturali. Una disattenzione, questa verso la “materia”, dagli evidenti risvolti ecologici (piace qui ricordare la bella figura di Giorgio Nebbia, che riteneva proprio per questo la merceologia una scienza altamente civile), e che tocca in particolare il mondo del digitale: il web e i suoi servizi continuano, in effetti, ad apparire ai nostri occhi un campo di interazioni puramente cognitive e sociali, slegata da ogni implicazione materiale.

- È un libro a più voci (davvero tante) Ecologia digitale. Per una tecnologia al servizio di persone, società e ambiente, Milano, AltrEconomia, 2022, una guida completa ai diversi “lati oscuri” (non solo quello ambientale) della digitalizzazione. Con una particolare attenzione alle soluzioni pratiche proposte dagli studiosi e dai tecno-attivisti che cercano di pensare – e progettare – un digitale (davvero) sostenibile, che significa anche, tra l’altro, contenerlo e ridimensionarlo.

- Propone una visione a tinte (giustamente) fosche Terra bruciata (Milano, Meltemi, 2023) di Jonathan Crary, un bravo saggista americano che si era segnalato alcuni anni fa per un atto d’accusa molto ben documentato contro “l’assalto capitalistico al sonno” (24/7, Einaudi, 2015). Crary parla in questo libro del degrado ambientale prodotto dalla industria del digitale non come di un fenomeno isolato, ma come parte integrante di un capitalismo ormai completamente insostenibile. In questo senso, il luccicante mondo digitale è solo la quinta teatrale (l’ultima allestita dal discorso autocelebrativo dominante) che cerca di spacciare un mondo ormai marcescente in un paradiso transumano.

- Paolo Cacciari, Ombre verdi. L’imbroglio del capitalismo green, Milano, AltrEconomia, 2020. Ricco di considerazioni (e di dati) sul tema dell'impatto ecologico delle tecnologie digitali, il libro di Paolo Cacciari è principalmente dedicato alla decostruzione critica del “nuovo imbroglio ecologico” (come lo si potrebbe chiamare con il titolo del celebre saggio di Dario Paccino del 1972) rappresentato dalla cosiddetta green economy. Anche perché «la riconversione dal fossile al green – definita la terza o quarta rivoluzione industriale – è gestita dalle stesse centrali del grande capitale finanziario». Centrali che non brillano, di norma, per attenzioni filantropiche, né appunto ambientali.

Parola-chiave: decoupling, ovvero l’asserito «disaccoppiamento» tra crescita economica e impatto ambientale reso possibile dalle tecnologie dell’informazione della comunicazione (ICT), un mito qui debitamente sbugiardato.

- La critica della favoletta “eco-capitalistica” del decoupling, nonché il riferimento alla insostenibilità ambientale del «consumismo cognitivo che si poggia sulle ICT» trova spazio anche in Il capitale nell’Antropocene, Torino, Einaudi, 2024 (ed.or. 2020) di Saito Kohei, il popolare saggista che ha fatto scoprire ai giapponesi i temi dell’eco-marxismo, ricevendo peraltro un successo inusuale per le opere di saggistica politico-sociale (il suo Ecosocialismo di Karl Marx ha venduto in patria mezzo milione di copie!), e che oggi, sull’onda di questo successo, viene accolto come una star anche in Italia. Insomma, anche le mode talvolta fanno cose buone…

- È un manuale rivolto ai corsi di media e comunicazione Gabriele Balbi e Paolo Magaudda, Media digitali. La storia, i contesti sociali, le narrazioni, Bari-Roma, Laterza, 2021: un volume che intende fornire una visione interdisciplinare del fenomeno digitale, con particolare attenzione a un approccio storico e sociologico (insomma: la Rete non cade dal cielo e non è socialmente neutrale), e ben consapevole della «dimensione infrastrutturale e materiale della rete internet».

- Chi, infine, volesse andare alle fonti, può consultare il periodico rapporto sull’economia digitale preparato annualmente dall’UNCTAD, l’agenzia ONU sui temi del commercio e dello sviluppo e disponibile in rete. Sul Digital Economy Report 2024, https://unctad.org/publication/digital-economy-report-2024 , si possono trovare tutti i dati più aggiornati sul tema (uno tra i  mille: la vendita di smartphone ha raggiunto il miliardo e duecento milioni di unità nel 2023, il doppio del 2010) e documentazione nei più diversi formati: tabelle, infografiche molto accattivanti, il documento scaricabile in PDF in sei lingue, video di accompagnamento, podcast ecc.

A riprova che, in questo campo come in molti altri, le informazioni ci sono in abbondanza e ormai a disposizione di chiunque. Siamo noi, abitatori del tempo presente, che siamo sempre meno capaci di farne uso e di trarne conseguenze razionali, anche perché costantemente distratti dagli apparati del potere mediale stesso.


Critica del soluzionismo tecnologico

Il sociologo Morozov ha coniato alcuni anni fa l'espressione "soluzionismo digitale" per indicare l'atteggiamento prevalente ai nostri giorni nei confronti dei dispositivi digitali.

Si ritiene che i problemi siano risolvibili da qualche algoritmo, e dagli strumenti che ne automatizzano l'applicazione alla realtà. Le smart city, le smart home, i dispositivi biometrici che indossiamo, sono alcune delle declinazioni di questa concezione: l'ottimizzazione del traffico nei centri urbani, del consumo energetico e degli scenari di abitabilità nelle case, della forma fisica individuale, sono sottratti alle decisioni collettive e personali, e vengono aggregati intorno ai pattern definiti dalla medietà dei comportamenti sociali.

Persino l'uso della lingua si stabilisce sull'ortografia e sull'ortodossia media, con i motori di ricerca le piattaforme di intelligenza artificiale generativa trasformativa - e lo stesso accade alla selezione delle informazioni più rilevanti per l'assunzione di qualunque decisione.

Si avvera al massimo grado la previsione che Adorno e Horkheimer avevano elaborato sulla dialettica della ragione illuministica, che nel momento in cui si libera dal giogo delle autorità tradizionali finisce per limitarsi alla selezione degli strumenti in vista del fine, ma non è più in grado di pensare le finalità stesse, e i principi che dovrebbero governarle.
Per di più, i dispositivi digitali vantano una proprietà che le tecnologie del passato non avevano mai tentato di pretendere. Servizi digitali come Google, Facebook, Instagram, Amazon, accumulano una mole di dati così ampia e profonda su ciascun individuo, da sapere sui singoli più di quello che i soggetti sanno di se stessi.

Questa espansione quantitativa si tramuta in una condizione qualitativa: la concezione liberale del mondo, che abbiamo ereditato dall'Illuminismo, pone l'individuo come valore fondamentale, collocando nella sua coscienza e nella sua libertà le chiavi di volta della società e della storia.

Oggi le grandi piattaforme digitali possono rivendicare una conoscenza sui singoli, e sui contesti in cui si muovono, superiore a quella di cui i soggetti stessi dispongono, e potrebbero quindi reclamare un diritto di decisione sulla loro vita quotidiana e sul loro destino fondandolo sulla maggiore capacità di prevedere le conseguenze di ogni gesto, su una maggiore razionalità, quindi su una maggiore assunzione di responsabilità per ogni scelta.

-------------

Bisogna sottoporre ad analisi critica questa narrazione, dalla confusione di dati e informazioni alla definizione di "decisione razionale", per evitare non solo che la distopia si avveri, ma anche per impedire che le sue (false) assunzioni ricadano nelle attuazioni parziali che il soluzionismo tecnologico tende ad agevolare, o persino ad imporre.


Intelligenza artificiale e creatività - Terza parte: un lapsus della storia

Nei mesi scorsi abbiamo iniziato una riflessione sul rapporto tra processo creativo e Intelligenza artificiale (Intelligenza artificiale e creatività – I punti di vista di tre addetti ai lavori, 10/09/2024, e Intelligenza artificiale e creatività – Seconda parte: c’è differenza tra i pennelli e l’I.A.?, 17/12/2024), riflessione che si è sviluppata grazie ai contributi di Matteo Donolato - Laureando in Scienze Filosofiche, professore e grafico di Controversie (usando l’I.A.); Paolo Bottazzini - Epistemologo, professionista del settore dei media digitali e esperto di Intelligenza Artificiale; Diego Randazzo e Aleksander Veliscek - Artisti visivi.

Riflessioni che ruotavano attorno alla domanda se le immagini prodotte dall’IA, pur partendo da un input umano, si possano considerare arte.

A completamento di quelle riflessioni, interviene ancora Paolo Bottazzini per disegnare degli scenari futuri che mettono in discussione il concetto di arte come lo conosciamo oggi.

Tutto è in discussione… buona lettura!

---------

Credo che, quando definiamo l’I.A. uno strumento nelle mani dell’artista non dobbiamo cadere nell’ingenuità di ridurre il ruolo del dispositivo a quello di un mezzo trasparente, un utensile che trasferisca in modo neutrale nella materia sensibile un contenuto già compiuto nella mente dell’agente umano. Spetta di sicuro al soggetto che elabora il prompt offrire l’impulso della creazione, attraverso la formulazione della domanda, e tramite la selezione dei risultati che possono essere accolti come utili. Tuttavia, il software introduce elementi che influiscono sia sulle modalità creative, sia sui processi più o meno inconsapevoli di invenzione del prompt.

Benjamin, nella fase pionieristica del cinema, suggeriva che la macchina da presa e il formato del film ci avrebbero permesso di scorgere qualcosa che altrimenti sarebbe rimasto invisibile nell’inconscio dei nostri movimenti; intuiva che lo scatto della fotografia nella sua autenticità sarebbe sempre stato l’inquadratura della scena di un delitto, e che nella sua deviazione di massa avrebbe inaugurato l’epoca del Kitsch.

Elizabeth Eisenstein ha dimostrato che la stampa a caratteri mobili ha contribuito alla nascita di una cultura che vedeva nel futuro una prospettiva di miglioramento progressivo dell’uomo – mentre la copia a mano dei libri nel periodo precedente, con l’aggiunta di errori ad ogni nuova riproduzione, aveva alimentato una visione del mondo in cui l’origine è la sede della verità, e la storia un cammino inesorabile di decadenza. Credo che il compito della critica filosofica e sociologica dovrebbe ora essere quello di comprendere quale sia la prospettiva di verità e di visibilità, o di disvelamento, che viene inaugurata con l’I.A..

In questo momento aurorale dell’uso delle reti neurali possiamo sapere che il loro talento consiste nel rintracciare pattern di strutture percettive nelle opere depositate negli archivi, che in gran parte sono sfuggiti ai canoni proposti negli insegnamenti dell’Accademia. L’I.A. non sviluppa nuovi paradigmi, o letture inedite di ciò che freme nello spirito del nostro tempo, ma è in grado di scoprire ciò che abbiamo riposto nel repertorio del passato, senza esserne consapevoli: rintraccia quello che gli autori non sanno di aver espresso con il loro lavoro. La metafora dell’inconscio adottata da Benjamin sembra quindi essere adeguata a descrivere quello che il lavoro dei software riesce a portare alla luce: in questo caso però il rimosso appartiene al corpus delle opere che scandiscono la tradizione estetica, da cui viene lasciato emergere ciò che vi è di latente, cancellato, rifiutato, dimenticato.

La possibilità di far redigere a chatGPT un testo nello stile di Foscolo o di Leopardi, o di chiedere a Midjourney di raffigurare un’immagine alla maniera di Monet, o di renderla con l’estro dei cubisti, o di mimare Caravaggio, Raffaello, Leonardo, conduce alla produzione di una specie di lapsus della storia dell’arte – qualcosa che l’autore invocato avrebbe potuto creare, o i suoi discepoli, ma che non è mai esistito.

Qual è lo statuto ontologico ed estetico di questo balbettio della tradizione, di questa eco di ciò che dovrebbe essere unico, e che invece resuscita in un sosia, ritorna nello spettro di un doppio scandaloso? Kant insegna che l’idea estetica è definita dal fatto di essere l’unica rappresentazione possibile di un’idea universale: il gesto produttivo dell’I.A. viola questo assunto che si trova alla radice di gran parte delle teorie dell’arte moderne e contemporanee.

Stiamo allora abbandonando per sempre la concezione dell’arte come creazione del genio, come gesto unico e non riproducibile dell’artista? Dobbiamo rivedere la prospettiva monumentale che l’Occidente ha coltivato dell’arte, per avvicinarci alla sensibilità del gesto nella sua infinita riproducibilità, sempre uguale e sempre differente, che appartiene alla tradizione orientale? O forse, l’attenzione con cui la possibilità di variare, di giocare con la latenza e il rimosso, avvicina l’arte ad un’esperienza quasi scientifica di osservazione e di scoperta, alla trepidazione e al timore (che sempre accompagnano il ritorno del trauma, la ricomparsa sulla scena del delitto) di mostrare lo schematismo di ciò che scatena l’emozione, di esibire i segni che suscitano la reputazione di verità, di configurare l’allestimento in cui avviene la recita di ciò che riconosciamo come bello e giusto.

Qualunque sia la soluzione che si verificherà nella prassi dei prossimi anni, se l’I.A. diventerà un dispositivo protagonista dell’attività creativa nelle mani degli artisti di professione e in quelle del pubblico generalista, e non si limiterà a rappresentare una moda passeggera, il suo impatto sarà destinato a introdurre un processo di ri-mediazione sulle forme espressive dell’arte e anche sui mezzi di comunicazione in senso ampio. Allo stesso modo, oltre un secolo e mezzo fa, la fotografia ha trasformato le modalità creative della pittura e delle arti plastiche, liberandole dalla fedeltà mimetica al loro soggetto e inaugurando percorsi di indagine che contrassegnano l’epoca moderna. Tutti i media subiranno una ristrutturazione che ne modificherà la destinazione, e le attese da parte del pubblico, con una nuova dislocazione della loro funzione comunicativa, laddove l’immediatezza documentaristica è minacciata dalle deep fake, la meccanicità della produzione di cronaca è coperta dalle I.A. generative trasformative, l’esercizio di riflessione sugli stili del passato è coperto dalla ricognizione dei pattern dalle reti neurali.

C’è molto spazio per la sperimentazione!


Internet ci rende transumani - La fattoria degli umani di Enrico Pedemonte

1. QUELLO CHE L’UTOPIA NON SA

«Il male che gli uomini fanno sopravvive loro; il bene è spesso sepolto con le loro ossa». Il rammarico dell’Antonio di Shakespeare potrebbe essere rivolto alle utopie che hanno accompagnato la nascita di Internet e dei dispositivi digitali, e i nomi di di Vannevar Bush o di Douglas Engelbart potrebbero sostituirsi a quello di Cesare. Nel 2008 Nicholas Carr si domandava se Google ci rende stupidi, e di sicuro oggi molti analisti concordano sul fatto che non siamo qui a lodare la convinzione che le macchine possano contribuire ad aumentare l’intelletto umano – ma a seppellirla. Dalla presentazione del 9 dicembre 1968, con cui Engelbart ha mostrato per la prima volta l’interazione con un computer tramite mouse e interfaccia grafica, siamo passati attraverso la commercializzazione massiva della Rete, la formazione dei monopoli delle Big Tech, il saccheggio dei dati personali, lo sviluppo della società del controllo, la dipendenza patologica dalle piattaforme, la filter bubble, la polarizzazione delle opinioni e il dibattito sulla disinformazione. Di sicuro si è persa l’innocenza delle origini, la promessa di un nuovo mondo della comunicazione, la speranza di una libertà che il principio di realtà aveva negato nel mondo offline, la fiducia in comunità virtuali, senza confini, dove raggiungere una piena espressione del sé di ognuno.

Enrico Pedemonte ripercorre la storia che porta da Vannevar Bush fino ai nostri giorni in La fattoria degli umani, cercando di capire cos’è successo all’utopia degli spazi digitali, cosa si è inoculato nel sogno di un’umanità più perspicace e più emancipata precipitandolo in un incubo, nel terrore che tutto possa concludersi con lo sterminio della nostra specie da parte di un’AI superintelligente. L’ipotesi che un giorno o l’altro una macchina assuma l’aspetto di Terminator e compia una strage, come in un film di fantascienza, non è una preoccupazione realistica; ma è significativo che la retorica da cui viene accompagnato lo sviluppo delle nuove tecnologie abbia dismesso l’entusiasmo per l’intelligenza connettiva di Pierre Lévy, e abbia abbracciato il timore di scenari catastrofici. Pedemonte sospetta che un vizio sia presente fin dall’origine, e che i suoi effetti si siano amplificati con l’espansione della forza economica e del potere politico dei giganti della Silicon Valley.

2. IMMUNITÀ LEGALE

Anzi, i difetti sono almeno due, e si sono rafforzati l’un l’altro, o sono forse due sintomi di una stessa crisi, ancora più profonda. Il primo ha origine fuori dall’ambiente culturale della Silicon Valley, e si sviluppa nel cammino tormentato con cui il parlamento americando ha raggiunto la versione definitiva del Communications Decenct Act. La legge stabilisce che le piattaforme online non devono essere equiparate agli editori tradizionali, e le tutela da ogni intervento del governo nei loro confronti: in questo modo attori del nascente mercato digitale, come Google, Facebook, Twitter, sono stati messi al riparo da qualunque regolamentazione sia sul controllo dei contenuti, sia sulla ripartizione della distribuzione pubblicitaria – e più in generale sulla valutazione delle loro posizioni monopolistiche nei settori della ricerca, dei social media, dell’intelligenza artificiale. La supervisione che viene applicata ai giornali, alle radio e alle reti televisive, non agisce sugli algoritmi che gestiscono il ranking dei listati di risposte, la selezione dei post e la composizione delle bacheche personali, la profilazione dell’advertising: eppure tra il 2004 e il 2021 il numero di giornali nel mondo è quasi dimezzato (-47%), mentre l’accesso alle notizie tramite i social media è diventato una consuetudine tra gli utenti del Web.

Ma l’obiettivo delle piattaforme tecnologiche non è quello di consolidare la fiducia dei lettori nella verità dei contenuti divulgati, bensì quello di trattenerli il più possibile nella compulsione delle bacheche, e nell’incentivare il più possibile l’interazione con like, commenti, condivisioni. Mentre la verità si sta ancora allacciando le scarpe, una bugia ha già fatto il giro del mondo: così chiosava Mark Twain. Il controllo delle informazioni richiede tempo, e il più delle volte una storia esposta in buona fede è affetta da lacune, passaggi critici, contraddizioni; l’artefazione, o (quando serve) l’invenzione completa dei fatti, possono invece adattarsi all’ecosistema ideologico degli interlocutori, e sfrecciare da una mente all’altra senza ostacoli. La fatica che è richiesta all’utente nella ricognizione della complessità del reale, gli viene del tutto risparmiata quando la notizia è costruita attorno all’effetto emotivo, che suscita scandalo, orrore, sdegno o pietà. Le notizie a tinte forti attraggono i clic, coinvolgono i lettori, accendono il dibattito – spingono verso la radicalizzazione dei pregiudizi, a detrimento della riflessione e della mediazione. Gli esiti sono tossici per lo stato di salute delle democrazie e per la coesione sociale; per i bilanci delle società che amministrano le piattaforme sono invece un toccasana, perché assicurano il buon funzionamento della loro attività produttiva principale, l’estrazione dei dati.

3. DATI

Shoshana Zuboff ha sottolineato l’affinità tra il modello di business di imprese come Google e Facebook da un lato, e l’industria mineraria o petrolifera dall’altro lato. Le informazioni che le Big Tech estraggono dal comportamento degli utenti permettono loro di conoscere le caratteristiche sociodemografiche, gli interessi, le opinioni, le abitudini, le relazioni personali, le disponibilità di spesa, le paure di ognuno e di tutti – e naturalmente anche di controllarli, manipolarli, sfruttarli. Nessun settore imprenditoriale si è mai rivelato tanto promettente dal punto di vista dei profitti, e nessuno è stato così agevolato nella crescita, e messo al riparo dalle difficoltà minacciate dalle istituzioni a tutela della privacy e della libera concorrenza, nonché dalle interferenze di attivisti e giornalisti troppo curiosi.  Motori di ricerca e social media serbano una biografia di ciascuno di noi più ampia, più ricca e obiettiva, di quella che noi stessi sapremmo confessare nel segreto del nostro foro interiore: nella registrazione di tutte le nostre domande, dei nostri like e dei nostri post, protratta per anni, si deposita una traccia delle aspirazioni, degli interessi  e delle paure di cui spesso non conserviamo una memoria cosciente, ma che i database di Google e di Facebook mettono a disposizione degli inserzionisti. Inconscio, abitudini e passioni, individuate nel momento in cui emergono da pulsioni interne o da opportunità sociali, diventano la leva ideale per vendere prodotti e servizi – ma anche candidati elettorali, ideologie, priorità e strategie politiche.

Le piattaformi digitali tendono al monopolio: le persone frequentano i posti dove si trovano già tutti i loro amici, o cercano le informazioni che sono condivise dai loro clienti e dagli interlocutori in generale. In questo modo chi ha accumulato più dati è in grado di offrire esperienze più divertenti e informazioni più personalizzate, intercettando quindi nuovi utenti e appropriandosi ancora di più dati. Chi vince piglia tutto, come accade a Google che detiene circa il 90% delle quote del mercato della ricerca online mondiale. La tensione che ha alimentato questa forma di capitalismo trova la sua ispirazione e giustificazione ideologica nella letteratura di Ayn Rand e della fantascienza che ha nutrito imprenditori, tecnici, guru, profeti e visionari nerd della Silicon Valley: è questo il secondo vizio – questa volta del tutto interno alla cultura tech – che ha segnato dalle origini il percorso delle utopie della Rete. L’umanità deve essere salvata da se stessa, dalla sua imperfezione e dalla sua mortalità, e questo compito può essere assunto solo da un eroe che trascende qualunque limite gli venga opposto dalla società, dalla legge, dalle tradizioni e persino dal buon senso (anzi, da questo prima di tutto). L’individualismo senza rimorsi, la tensione a diventare l’eletto che porterà gli altri uomini oltre se stessi, anche a costo della loro libertà – sono il codice in cui è scritto il programma utopistico della Rete, come sede della vita che vale la pena di essere vissuta. Chi non ce la fa, o chi cerca di resistere – o addirittura chi tenta di non essere d’accordo – è destinato a soccombere e a scivolare nell’oblio della storia. La violazione della privacy, il prelievo dei dati, la manipolazione delle intenzioni, non sono quindi attività illegali, ma sono i doni che l’eroe riversa sull’umanità, per liberarla dalle sue limitazioni, dalle sue paure irrazionali, dalla sua mortalità.

4. L’UOMO (?) CHE VERRÀ

Pedemonte elenca sette movimenti in cui si possono classificare le mitologie principali da cui è guidato il capitalismo della Silicon Valley: Transumanesimo, Estropianesimo, Singolarismo, Cosmismo, Razionalismo, Altruismo Efficace, Lungotermismo. Le categorie non sono esclusive, si può aderire a più parrocchie nello stesso tempo, o transitare nel corso del tempo da una all’altra. In comune queste prospettive coltivano il culto dell’accelerazione nello sviluppo di nuove tecnologie, l’ambizione di realizzare simbionti tra uomo e macchina, dilatando le capacità cognitive degli individui, riprogrammando la vita e la natura, eliminando imprevisti, patologie e – ove possibile – anche la morte.

Le aspirazioni appartengono alla fantascienza, le intenzioni utopistiche sono sepolte e dimenticate, ma lo sviluppo di metodi di controllo, l’accentramento monopolistico, la violazione della proprietà intellettuale, l’abbattimento progressivo dello stato sociale e la privatizzazione dei suoi servizi, sono ormai la realtà del capitalismo dei nostri giorni – che ha trovato nelle tecnologie digitali, e nell’etica hacker che ne sostiene la progettazione, la piattaforma su cui reinventarsi dopo la crisi degli ultimi decenni del XX secolo. La realtà che è sopravvissuta alle utopie novecentesche è un mercato che ha assorbito la politica e la cultura, dove l’unico individuo che può esprimersi liberamente è quello transumanistico, che pone la macchina come obiettivo, e l’autismo del nerd come modello di vita.

 

BIBLIOGRAFIA

Carr, Nicholas, Is Google Making Us Stupid?, «The Atlantic», vol. 301, n.6, luglio 2008.

Engelbart, Douglas, Augmenting human intellect: A conceptual framework, SRI Project 3578 Stanford Research Institute, Menlo Park California October 1962.

Lévy, Pierre, L'Intelligence collective. Pour une anthropologie du cyberespace, La Découverte, Parigi 1994.

Pedemonte, Enrico, La fattoria degli umani, Treccani, Milano 2024.

Zuboff, Shoshana, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, Profile Books, Londra 2019.


Deskilling e Diverse Skilling - La trasformazione delle competenze nell'era digitale

L'innovazione tecnologica ha rivoluzionato il nostro modo di vivere e lavorare, delegando molte attività a strumenti digitali. L'adozione di queste tecnologie genera due importanti dinamiche che impattano le competenze umane: il fenomeno del deskilling e quello del diverse skilling.

Da un lato, il deskilling indica la perdita di competenze necessarie a svolgere un'azione, che viene – invece - affidata a una macchina. Dall'altro lato, il diverse skilling sottolinea la trasformazione  delle competenze del fare in quelle dell'uso e della gestione della macchina che fa.

IL FENOMENO DEL DESKILLING

Il termine deskilling indica la progressiva perdita delle competenze necessarie a svolgere un'attività specifica, fenomeno che si verifica quando un'azione che era abitualmente eseguita da una persona umana viene completamente delegata a uno strumento tecnico o tecnologico. In particolare, nel corso di questo XXI secolo, si tratta di strumenti di automazione digitali.

Un esempio emblematico è quello della calcolatrice: l'introduzione di questo strumento ha ridotto la necessità di eseguire calcoli complessi manualmente. Analogamente, i sistemi di navigazione satellitare hanno reso quasi superflua la capacità di leggere mappe o orientarsi con elementi naturali.

In ambito lavorativo, il deskilling è maggiormente evidente nei settori industriali oggetto di processi di progressiva automazione, settori in cui operai - che un tempo padroneggiavano procedure complesse - ora supervisionano processi gestiti da robot; oppure nei settori dei servizi, in cui numerose attività svolte tradizionalmente da umani – come, ad esempio, l’assistenza ai clienti – iniziano ad essere gestite da bot[1], sistemi automatici digitali che trovano spesso applicazione nelle chat o nei numeri telefonici di assistenza ai clienti: trascrivono e interpretano il linguaggio naturale parlato o scritto, estraggono i riferimenti delle richieste e provano (spesso senza successo, va detto) a dare delle risposte.

Questo fenomeno ha conseguenze significative sia sui processi che sui lavoratori . Da un lato, possono aumentare l'efficienza e ridurre gli errori; dall'altro, portano – sicuramente - ad una progressiva dipendenza dagli strumenti utilizzati e all’oblio delle competenze che permettono ad un umano di fare quel lavoro.

La perdita di competenze pratiche, quelle del fare può avere effetti devastanti: dal punto di vista industriale, infatti,

  • riduce la comprensione del processo, in cui l’azione dello strumento, diventato una black box in cui viene immesso qualcosa e che produce qualcosa di diverso, viene data per scontata
  • diminuisce la possibilità di integrazione umana manuale in caso di errori o di malfunzionamenti
  • segrega le conoscenze di come funziona il passo di processo automatizzato tra gli esperti della tecnologia, del progettare (informatici, meccanici, fisici, chimici) che hanno progettato l’automatismo e che, frequentemente, non partecipano per nulla al processo produttivo, togliendole – invece - a chi il processo produttivo lo vede o lo gestisce quotidianamente
  • riduce, quindi, la possibilità di miglioramento della qualità del prodotto – che continua a dipendere dal processo di realizzazione – ai soli momento di re-engineering istituzionalizzato, perdendo il contributo degli esperti del fare, operai e impiegati

Dal lato di chi lavora, invece, riduce l'autonomia dell'individuo, del lavoratore, annulla il valore del suo contributo professionale, e può generare significative ripercussioni sul piano psicologico e sociale.

IL CONTRAPPESO DEL DIVERSE SKILLING

In contrapposizione al deskilling, il diverse skilling è la traslazione delle competenze dall'esecuzione diretta di un compito ,il fare, alla gestione dello strumento che lo compie. Questo fenomeno non implica la perdita totale delle abilità, ma una loro trasformazione e adattamento.

Tornando agli esempi precedenti, l'uso di una calcolatrice richiede la comprensione dei meccanismi logici sottostanti, così come l'interpretazione di dati forniti da un sistema di navigazione richiede la capacità di valutare le condizioni reali del contesto.

In ambito lavorativo, l'automazione può portare gli operai a sviluppare competenze di monitoraggio e di manutenzione delle tecnologie di automazione i sistemi, rendendo necessarie conoscenze più avanzate, come quelle informatiche o ingegneristiche.

Un caso esemplare è stato quello della vulcanizzazione degli pneumatici: negli anni ’80, in una grande azienda industriale italiana, le attività manuali – svolte dai caposquadra – di pianificazione della produzione, delle singole macchine vulcanizzatrici, seguite – in corso di produzione – dalle vere e proprie attività di preparazione e di attrezzaggio delle macchine, sono state sostituite da sistemi informatici che permettevano di effettuare una programmazione efficace ed efficiente per la giornata o la settimana e – sulla base del conteggio automatizzato dei pezzi e delle attività, indicavano al capoturno sulla consolle di controllo quando fosse opportuno intervenire per la manutenzione oppure per il cambio di attrezzaggio programmato per una diversa lavorazione.

In questo caso, il personale ha potuto intervenire nella fase di progettazione per dare le necessarie indicazioni competenziali a chi progettava i sensori, i contatori e il software, in fase di test per controllare se il funzionamento dell’automatismo fosse in linea con le indicazioni e le esigenze e, infine, ha completato la traslazione competenziale con corsi di formazione che hanno permesso alle operaie e agli operai di gestire in autonomia i sistemi automatici e di dare indicazioni su come migliorarne il funzionamento nel tempo.

Il diverse skilling rappresenta, quindi, una forma di resilienza umana all'innovazione tecnologica. Mentre alcune competenze si perdono, altre vengono acquisite, spesso più complesse e specializzate. Questo fenomeno può favorire una maggiore produttività e migliorare la qualità del lavoro, ma non è privo di sfide: la transizione richiede risorse significative in termini di formazione e adattamento culturale e rappresenta – probabilmente – un importante cambiamento sociale guidato delle rivoluzioni tecnologiche.

UN CONFRONTO CRITICO

Il confronto tra deskilling e diverse skilling solleva interrogativi sulla direzione e sulle conseguenze del cosiddetto progresso tecnologico.

Da un lato, il deskilling è un rischio per la sostenibilità delle competenze umane, soprattutto quando interi settori lavorativi si trasformano rapidamente, lasciando molte persone senza le capacità necessarie per adattarsi.

Dall'altro, il diverse skilling dimostra che il cambiamento tecnologico può non annullare le competenze, ma – sotto alcune condizioni – può favorirne un riallineamento verso nuove frontiere di apprendimento.

Il punto di equilibrio – o di crisi - sta certamente nell'accessibilità: non tutti gli individui e non tutti i contesti sociali sono in grado di affrontare il passaggio dal deskilling al diverse skilling.

La focalizzazione delle imprese sull’incremento di efficienza, che va sempre letto come riduzione dei costi di produzione e contestuale aumento della produttività, spesso non contempla investimenti volti a ridurre le lateralità della trasformazione tecnologica.

Questo significa minori opportunità di formazione e infrastrutture dedicate alla transizione verso un diverse skilling e, come conseguenza, amplifica le disuguaglianze, creando una società divisa tra chi detiene le nuove tecnologie, chi le padroneggia e chi ne è escluso.

Nel mondo delle imprese si sente dire che “non si progredisce senza cambiare”, ma il cambiamento è una trasformazione che – purtroppo - non è alla portata di tutti e - spesso - non è portatore di maggiore benessere.

Ad esempio, in settori come la medicina o l'ingegneria, affidarsi completamente alla tecnologia senza mantenere competenze critiche e intuitive può avere conseguenze disastrose.

CONCLUSIONI

Il deskilling e il diverse skilling non sono – quindi - fenomeni mutuamente esclusivi, ma due facce della stessa medaglia. Mentre il primo evidenzia i rischi di una delega eccessiva alla tecnologia, il secondo dimostra la capacità dell’umano di adattarsi e innovarsi, migliorando di fatto la qualità delle sfide che affronta.

Per massimizzare i benefici e minimizzare i rischi, è essenziale – però – che gli innovatori promuovano strategie formative e lavorative che facilitino il diverse skilling, senza trascurare l'importanza delle competenze di base.

In un mondo sempre più automatizzato, il futuro del lavoro e dell'apprendimento dipenderà dalla capacità di bilanciare innovazione tecnologica e adattamento delle abilità umane. Solo così sarà possibile costruire una società in cui la tecnologia sia uno strumento di emancipazione e non di alienazione.

 

 

NOTE

[1] I bot sono sistemi automatici digitali che trovano spesso applicazione nelle chat o nei numeri telefonici di assistenza ai clienti: trascrivono e interpretano il linguaggio naturale parlato o scritto, estraggono i riferimenti delle richieste e provano a dare delle risposte.

 


Harari e il tradimento degli intellettuali - Il darwinismo algoritmico in Nexus

1. ROVESCI

Uno dei colpi di scena più riusciti della saga di Star Wars è il momento in cui il protagonista, Luke Skywalker, scopre di essere figlio dell’antagonista malvagio, Darth Vader. I modelli della fantascienza devono essere presi molto sul serio, perché gran parte dei personaggi più influenti della Silicon Valley tendono a progettare le loro piattaforme, e persino a immaginare il futuro dell’umanità, ricalcandole sui contenuti dei film, delle serie e dei romanzi che hanno dominato la loro eterna adolescenza da nerd: Larry Page e Sundar Pichai (ex e attuale CEO di Google) hanno dichiarato a più riprese che l’obiettivo del loro motore di ricerca è emulare il computer di bordo dell’Enterprise della serie Star Trek.

Ad evocare il dramma dell’agnizione di Luke Skywalker questa volta però non è il fondatore di qualche impresa miliardaria nell’area di San Francisco Bay, ma il volume appena pubblicato da uno degli esponenti più stimati del pensiero liberal, molto amato dalla sinistra americana e internazionale, Yuval Noah Harari. Nexus riepiloga e approfondisce le riflessioni che l’autore ha elaborato a partire da Homo Deus (uscito nel 2016) sul futuro della nostra specie. 

Gli assunti con cui Harari inquadra la condizione umana potrebbero essere stati redatti da un ideologo del transumanesimo tanto di moda nella Silicon Valley, come Ray Kurzweil. Qualunque animale, e noi non facciamo eccezione, può essere descritto come una macchina, riducibile a dinamiche fisiche e chimiche, e a strutture comportamentali dettate da algoritmi. La coscienza, la soggettività, la felicità e lo sconforto, sono l’esito di reazioni tra molecole, e possono quindi essere eccitati o sedati da pastiglie che la ricerca scientifica renderà sempre più efficaci. Le indagini di uno dei più grandi divulgatori della realtà clinica e culturale della depressione, Andrew Salomon, contraddicono la baldanza farmacologica di Harari, insistendo sullo strano anello che si instaura tra la fisiologia, gli eventi della vita, e qualcosa di nebuloso e profondo che è identico, ma allo stesso tempo si oppone, alla chiarezza di biologia e biografia. 

Nexus non è interessato a questo genere di sottigliezze, dal momento che il percorso della storia è stato tratteggiato nella sua regola generale già un paio di libri fa: al termine del Medioevo l’uomo ha rinunciato al senso dell’universo, preferendogli il potere di programmarlo a proprio piacimento. Le religioni consegnavano ai nostri antenati una posizione centrale nel cosmo e un significato per la vita degli individui e per le comunità – ma pretendevano in cambio l’obbedienza a valori e norme fondate su un’autorità intransigente. L’emancipazione da ogni forma di trascendenza, e dalle sue declinazioni nelle istituzioni politiche e culturali, ha inaugurato un percorso in cui la scienza e la tecnologia sono arrivate a sovrapporsi e a coincidere, per convertire il mondo in un serbatoio di risorse a disposizione della felicità degli uomini. Purtroppo, la farmacopea è solo il simbolo di questa trasformazione, dal momento che la dissoluzione dell’aura sacra che avvolgeva la natura alimenta l’industria delle sostanze psicotrope, ma non offre alcuna indicazione sullo scopo della nostra vita. Possiamo fare tutto liberamente, ma non abbiamo più una ragione per fare qualcosa.

2. ALGORITMI

Quando i significati iscritti nel creato dileguano, il loro posto viene occupato dall’informazione, che si assume il compito di esprimere l’essenza del meccanismo cui sono ridotti gli esseri viventi e le loro società. L’opposizione tra democrazia e totalitarismo, che ricalca la distinzione tra mondo liberale e paesi comunisti, può essere ricondotta nella sua sostanza alla differenza morfologica tra sistemi di comunicazione. La dittatura, e il socialismo, sono configurazioni sociali in cui l’informazione è centralizzata, e irradia da un punto focale che identifica il leader, o l’élite burocratica dello stato. Al contrario la democrazia, e la dottrina liberale, prediligono una forma decentrata di circolazione dell’informazione, che abilita la nascita di molti poli di accesso alle notizie e di molti livelli di elaborazione, decisione, riproduzione dei dati e della conoscenza. L’informazione è l’asset che stabilisce relazioni tra elementi, parti, individui, gruppi: la ricostruzione dei suoi percorsi permette di disegnare le reti in cui si sintetizzano i composti nella dimensione fisica e chimica, prendono vita i processi biologici negli individui, si costituiscono le comunità nel mondo sociale e si dipanano i sentieri della storia. Per questo la nozione di algoritmo diventa pervasiva, e Harari riepiloga il corso completo dell’evoluzione come un percorso di elaborazione di algoritmi sempre migliori, che trovano la sintesi più efficiente in quelli che compongono l’uomo. Questo vantaggio spiega l’ordine universale, che coincide con la conversione della natura e di tutti i suoi membri in una riserva di mezzi di cui possiamo disporre per la nostra utilità. La violenza che esercitiamo con la manipolazione tecnica non è motivata dall’ostilità contro particolari enti animati o inanimati, o dal bisogno di protezione, ma è l’esito della nostra indifferenza nei confronti di tutto quello che non può resistere alla trasformazione del mondo in un ambiente a misura della funzionalità antropologica. Un altro modo per esprimere questa condizione è il giudizio che la ristrutturazione del pianeta operata dagli algoritmi da cui è governato il comportamento degli uomini sia un processo ineluttabile, una necessità imposta dall’evoluzione naturale. 

Le nozioni cui ricorre Harari annullano la separazione tra natura e tecnica. Informazione e algoritmi definiscono la struttura della realtà e le meccaniche del funzionamento di qualunque cosa, accomunando physis e techne in un’unica essenza e in un unico destino. Ma questa impostazione non può esimersi dal prevedere che nel momento in cui le prestazioni raggiunte dalle macchine supereranno le nostre, l’atteggiamento che i robot assumeranno nei nostri confronti applicherà le stesse logiche di utilità e indifferenza che noi abbiamo riservato ad animali e minerali. Il passaggio di questa soglia si chiama singolarità, e nella visione di Harari è talmente prossimo da dominare la valutazione della tecnologia che già oggi stiamo maneggiando. L’intelligenza artificiale guida l’autonomia dei dispositivi in cui si compie il salto evolutivo che segue e trascende quello della nostra specie, e che è destinato a sostituirci nel dominio del mondo: da vent’anni Ray Kurzweil ha insegnato a scandire le tappe che conducono al momento in cui i sistemi di calcolo raggiungeranno le facoltà di intuizione dell’uomo, e le travalicheranno con la corsa alla superintelligenza pronosticata e temuta da Nick Bostrom. Possiamo tentare di frenare, arginare, controllare lo sviluppo delle tecnologie digitali, ma Harari ci lascia presagire che in fondo si tratta di operazioni di retroguardia – e alla fine comunque un Darth Vader, nella forma di un Google o di un ChatGPT iper-evoluto, sciabolerà la sua spada laser in cloud e metterà fine alla resistenza della sopravanzata soggettività umana al di qua del monitor e della tastiera. 

3. FINE DELLA STORIA

Elon Musk non avrebbe saputo costruire un’argomentazione migliore per giustificare la subordinazione della dimensione politica al neoliberismo tecnologico contemporaneo, e per affermare l’inesorabilità di questo processo. Pur avendo irriso per anni la tesi della fine della storia di Francis Fukuyama, l’élite di sinistra l’ha introiettata in fondo al proprio inconscio culturale, insieme alla convinzione che la globalizzazione del mercato – e i rottami di democrazia che l’accompagnano – siano la forma compiuta dello Spirito Oggettivo hegeliano nelle istituzioni umane. Harari mostra lo stato di completo disarmo concettuale in cui versa la classe intellettuale, che si proclama progressista, nei confronti delle narrazioni del «realismo capitalista» e del transumanesimo di stampo californiano. Oltre all’ingenuità con cui vengono trattati i temi della tecnologia, la questione dell’intelligenza artificiale forte, il rapporto tra biologia e coscienza – il nodo critico più preoccupante rimane il fatto che «è più facile immaginare la fine del mondo che la fine del capitalismo» nella sua versione priva di pensiero e di futuro, che caratterizza la civiltà contemporanea. Harari condivide con Margareth Thatcher la convinzione che «non ci sono alternative» allo smantellamento di qualunque percorso politico che non sia l’adattamento alla rapacità di dati e di ricchezze da parte dei monopolisti della Silicon Valley, e di qualunque prospettiva storica divergente dall’ideologia transumanista, che vede nella transustanziazione in una macchina l’apogeo dell’umanità.

Ma se alle fantasie del cyberpunk, alla comunità degli estropiani, e persino alla corsa verso la singolarità di Kurzweil, si può riconoscere la spontaneità e l’euforia di un movimento nerd che si reputa sempre adolescenziale e che perpetua acne e turbe puberali – sulla corazza dello scientismo di Harari grava il tradimento di un Darth Vader che avrebbe potuto, e avrebbe dovuto, ricorrere alle proprie risorse intellettuali per denunciare la clausura della narrazione tecnocapitalista, e cercare un percorso diverso. Invece si è consacrato al lato oscuro della banalità.

 

BIBLIOGRAFIA

Bostrom, Nick, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, Oxford 2014.

Fisher, Mark, Capitalist Realism: Is There No Alternative?, John Hunt Publishing, Londra 2009.

Fukuyama, Francis, The End of History and the Last Man, Free Press, New York 1992.

Harari, Yuval Noah, Homo Deus: A Brief History of Tomorrow, Harvill Secker, Londra 2016.

-- Nexus: A Brief History of Information Networks from the Stone Age to AI, Random House, New York 2024.

Kurzweil, Ray, The Singularity Is Near: When Humans Transcend Biology, Viking Press, New York 2005.

O’Connell, Mark, To Be a Machine: Adventures Among Cyborgs, Utopians, Hackers, and the Futurists Solving the Modest Problem of Death, Granta Publications, Londra 2017

Solomon, Andrew, The Noonday Demon: An Atlas of Depression, Simon & Schuster, New York 2001.


Il tempo schermo - La contesa dell’attenzione

Che cosa succede all'attenzione quando stanno tanto tempo davanti a uno schermo?

Sembra che bambini e bambine  siano più calmi e più attenti, ma è davvero così? Il tipo di attenzione che viene mobilitata davanti allo schermo non è la stesso che si mobilita nella lettura di un libro o nel dover maneggiare degli oggetti fragili. Gli studi scientifici dell’ultimo secolo ci spiegano molto di come funzionino i processi attenzionali, e gli studi di questo secolo sul tempo schermo ci spiegano non solo perché lo schermo non sviluppa l’attenzione utile a scuola, ma perché limiti il potenziale di apprendimento umano specialmente nei primi mille giorni di vita ma in generale in tutto il periodo dello sviluppo se l’uso è intenso, come consigliato ormai da pediatri di molte parti del mondo, compresa la Società Italiana di Pediatria.

Gli effetti del tempo schermo includono anche l'esposizione agli schermi indiretti. Da ormai una ventina d’anni gli  studi hanno misurato l’impatto degli schermi nella diminuzione delle interazioni verbali, non verbali e di gioco nei primi quattro anni con diversi studi sperimentali su coppie di genitori con bambino che restavano con lo schermo spento e con lo schermo acceso in diverse situazioni. Registrati i comportamenti, si è scoperto che lo schermo diminuiva le interazioni verbali e non verbali e l’attenzione focalizzata su dei giocattoli, aumentando invece le interruzioni di gioco (Anderson e Pempek, 2005). Più recenti esperimenti hanno osservato che i genitori che usano lo smartphone in presenza dei loro bambini durante dei pranzi hanno una minor interazione (rispetto ai genitori che non lo usano) cioè disattivano il canale attenzionale non verbale (Radesky et al. 2014). Il fatto di ricevere attenzione e di prestare attenzione sono infatti fenomeni collegati perché nell’infanzia lo sviluppo dell’attenzione congiunta (dai 6 ai 24 mesi) è il prerequisito per lo sviluppo del linguaggio.

Per capire meglio l’effetto negativo dello schermo è utile soffermarsi sulla distinzione tra comprensione e apprendimento. Un video permette la comprensione di parole e contenuti già noti e già appresi ma molto difficilmente, e con molte condizioni particolari, ma soprattutto rarissimamente nei primi sei anni di vita, il video facilita l’apprendimento di parole e ne abilità nuove. Nei primi tre anni un bambino esplora con i cinque sensi il mondo circostante, prende con le mani, porta alla bocca, ascolta e usa tutti i suoi sensi per apprendere. Soprattutto però impara attraverso il fenomeno dell’attenzione congiunta, o joint attention, che è la capacità di coordinare l’attenzione tra due persone e un oggetto o evento, richiedendo un impegno continuo di entrambi. Questo processo è stato ampiamente studiato poiché rappresenta un indicatore dello sviluppo psicomotorio infantile, oltre a predire la qualità delle relazioni di attaccamento e delle interazioni sociali future. Il biologo Michael Tomasello la descrive come la capacità specie specifica, cioè propriamente umana, alla base del linguaggio, della cooperazione, della morale umana. Per svilupparsi, l’attenzione congiunta si basa su elementi fondamentali come l’aggancio oculare, il contatto visivo e la "sintonizzazione degli affetti" (Stern), prerequisiti essenziali per le capacità comunicative e per lo sviluppo della teoria della mente — la capacità, tipica di un bambino di quattro anni, di comprendere il punto di vista di un’altra persona (Aubineau et al., 2015). La forma più avanzata, l’attenzione congiunta coordinata, implica che il bambino si impegni attivamente sia con un adulto sia con un oggetto.

Negli ultimi vent’anni molti dati sono stati inoltre stati raccolti per descrivere il video deficit effect, indicando come gli schermi possano ostacolare l'apprendimento, a partire dall'apprendimento fonetico e linguistico nei primi quattro anni. Sebbene tramite schermi si possano comprendere alcuni contenuti adeguati all'età (specialmente con l'aiuto dei genitori) diverso è il caso dell’apprendimento (che è un passo ulteriore rispetto alla mera comprensione di una storia) perché l'attenzione è profondamente diversa di fronte a un altro essere umano: dal vivo o in presenza si attiva l’attenzione emotiva, multisensoriale. L’attenzione mobilitata dagli schermi è molto spesso di tipo bottom-up: è la medesima mobilitata in tutti gli animali di fronte a forti luci e suoni, di fronte a pericoli. Diversi neuroscienziati distinguono un’attenzione di tipo top-down (dal centro alla periferia), da una botton-up (dalla periferia al centro). L’individuo è attraversato continuamente da stimoli esterni e interni difficili da distinguere, dove l’attenzione è letteralmente contesa all’interno dell’individuo: “L’attenzione si orienta spontaneamente verso elementi naturali esterni più attraenti come le pubblicità o i video-schermi” (Lachaux 2012, p. 249). L’attenzione viene contesa da diverse forze, da diversi oggetti, ma è lecito parlare di attenzione esogena , quando prevale lo stimolo esterno, e  attenzione endogena, quando prevale lo stimolo interno – una sorta di “controllo volontario dell’attenzione”. Sicuramente cosa sia esattamente l’attenzione – che non è la volontà - non è facile da stabilire e gli approcci socio-antropologici ci ricordano la costruzione sociale di tale dimensione (Campo 2022).

In ogni caso disponiamo di numerosi studi che rilevano una correlazione tra l'uso precoce e prolungato degli schermi e problemi di attenzione successivi. Quello di Tamana del 2019 è uno dei più citati studi longitudinali: ha esaminato circa 2500 bambini/e canadesi dai 3 ai 5 anni, evidenziando come un tempo schermo superiore alle 2 ore giornaliere aumentasse il rischio di problemi di attenzione negli anni successivi. La relazione tra l'uso degli schermi e il disturbo da deficit di attenzione (ADHD) è stata messa in discussione nonostante già Christakis avesse  evidenziato la presenza di una correlazione tra un’alta esposizione agli schermi e un alto rischio di problemi di linguaggio e di attenzione (Christakis, 2005, 2007). La maggior parte degli studi di neuropsicologia evidenzia cause epigenetiche per il disturbo da deficit di attenzione, nonostante l'aumento globale delle diagnosi negli ultimi vent'anni; in generale tra gli specialisti c’è molta resistenza  a parlare di cause ambientali per ADHD anzi gli schermi vengono ancora spesso prescritti spesso nelle prognosi di bambini con DSA o con diagnosi di ADHD. L’idea che un tempo schermo precoce e prolungato possa aumentare i rischi di generici problemi di attenzione o patologie diagnosticate come ADHD  è però avanzata da studi recenti sempre più inclini a considerare tale uso come un fattore significativo. Anche uno studio longitudinale di Madigan ha concluso che sono gli schermi a causare i problemi di attenzione e non viceversa: una maggiore quantità di tempo schermo a 24 mesi d’età è stata associata a prestazioni più scarse nei test di valutazione successivi. Analogamente, un maggiore tempo trascorso davanti allo schermo a 36 mesi è stato correlato a punteggi più bassi nei test dello sviluppo cognitivo a 60 mesi. L’associazione inversa, invece, non è stata osservata (Madigan et al., 2019). Un recente metastudio (Eirich et al., 2022) segnala la correlazione tra un uso precoce e prolungato degli schermi e i successivi problemi di attenzione in bambini/e di età pari e inferiore a un anno nella maggior parte degli studi esaminati.[1]

Le app e gli algoritmi che alimentano la fruizione degli schermi sono progettati deliberatamente per mantenere i bambini attaccati agli schermi il più a lungo possibile, non per fornire programmi educativi. Questo è descritto molto bene dai formatori dei vettori commerciali denominati app, come si può evincere dal brillante saggio di uno di questi formatori, Nir Eyal. L’aumento dell'impulsività e la cattura dell’attenzione sono gli obiettivi dichiarati dagli agenti del marketing che per tale fine mettono a disposizione piattaforme gratuite: quando bambini e bambine anziché fare i compiti o leggere o giocare fra loro passano ore davanti  allo schermo questi proprietari delle app aumentano i loro profitti. Basta guardare chi sono le persone più ricche al mondo e l’incidenza del pubblico giovanile. Incapaci di mantenere la concentrazione su attività prolungate i “bambini digitali” sono sempre più esigenti e conformati in materia di consumi. 

Sempre più esperti sollevano il dubbio se la “generazione digitale” non stia affrontando un problema specifico. Anche senza una dimostrazione di causalità con l'ADHD, il tempo schermo è  un fattore che amplifica l’impulsività, la disattenzione e la distraibilità. Dopo il Covid-19, molti insegnanti segnalano uno stato diffuso di distraibilità permanente. Le prove si accumulano, e ignorare il fenomeno non aiuta a iniziare a risolvere il  problema. Si parla sempre più spesso di “attenzione frammentaria” per descrivere questa nuova sfida educativa e sociale o altri termini quali: “attenzione disrupted (interrotta e distratta), “attenzione parziale continua”, “attenzione spezzetata”. Non è certamente quella virtù propria del multitasking attribuita a torto ai “nativi digitali” con il concetto equivoco di “iperattenzione”, che trasformava i bambine/i iperattive/i e impulsive/i in bambine/i capaci di nuove “qualità attentive” (Hayles). Dobbiamo prendere atto che gli schermi stanno precludendo la possibilità di sviluppare un’attenzione umana cooperativa e congiunta. L’isolamento e la disgiunzione dell’attenzione non ha un impatto solo cognitivo ma anche emotivo e relazionale. Non siamo di fronte a una generazione ansiosa, ma a una generazione oppressa. Gli schermi schermano le relazioni, si frappongono tra uno sguardo e l’altro, interrompono l’attenzione congiunta.

In conclusione gli schermi amplificano negativamente tutte le dimensioni dell’attenzione. Un uso prolungato e precoce agisce su un ampio spettro, amplificando disattenzione (causata da stanchezza), distrazione (stimoli esterni), distraibilità (tendenza acquisita a distrarsi) e, in casi estremi, disabilità attentiva (ADHD). Ridurre il tempo schermo, invece, migliora l’attenzione e i risultati scolastici. Molti insegnanti con anni di esperienza segnalano un declino significativo nelle capacità attentive degli studenti. È come se su questo pianeta fosse arrivato un pifferaio magico e i nostri bambini e bambine non potessero fare a meno di seguirlo con in mano il loro cellulare. Questo pifferaio ha aumentato il tempo schermo nell’infanzia, ma ha diminuito il tempo di sonno, il tempo di lettura e soprattutto il tempo di gioco, e altre temporalità essenziali per l’apprendimento.

Ma è davvero così? Le famiglie ricche e figli e le figlie di ingegneri della Silicon Valley vengono protette/i e non abbandonate/i davanti agli schermi.

Questo fenomeno è molto più diffuso nelle classi povere. E allora non è forse lecito parlare di una vera e propria contesa dell’attenzione? È forse venuto il tempo di prendere consapevolezza  per riportare l’attenzione al centro dei processi educativi senza delegarlo al tempo schermo.

 

NOTE

[1] Per una ampia bibliografia il testo tradotto in italiano più completo è Desmurget M. (2020)  Il cretino digitale. Difendiamo i nostri figli dai veri pericoli del web, Rizzoli, Milano. Mi sia permesso rimandare al mio saggio: L’attenzione contesa, come il tempo schermo modifica l’infanzia, Armando, Roma.