Razionale e reale - Osservazioni a margine del problema della determinazione dell’individuale-concreto

La tradizione classica vuole che dell’individuale non si dia scienza.

Ciascuna concrezione individuale appare contrassegnata da una quantità di connotazioni accidentali, contingenti, che sfuggono alla possibilità di una normatività esaustiva. Di conseguenza, si è consuetamente ritenuto sensato che la scienza si occupi del generico (o specifico), ossia del categoriale, di ciò che ha una sua forma (e quindi uno statuto legale) in linea di principio esaustivamente definibile.

La costituzione teorica razionale-astrattiva, per quanto saturabile di contenuti reali mediante determinazione delle variabili empiriche delle strutture formali, soggiace comunque alla limitazione della irraggiungibilità del concreto.

In questa prospettiva, H. Weyl parla di una genericità intrinseca alla scienza, che non può giungere mai all’individualità fenomenica: i suoi oggetti concreti restano indeterminati, o meglio, sono determinati “a meno di un isomorfismo” (1). E gli isomorfismi non sono altro che identità strutturali (di natura formale) tra eventi o processi potenzialmente del tutto differenti, per quanto concerne i corrispettivi contenuti materiali.

Individuale materiale e individuale formale

Il problema della determinazione del concreto-reale, ossia di ciò che è per principio individuale, non è connesso solo alla complessità della contingenza, ossia non affonda le sue radici solo nel momento materiale, bensì si presenta già nel momento formale.

In geometria, l’inafferrabilità del particolare-reale, dell’individuale, si è affacciata all’origine della cultura occidentale con la scoperta dell’incommensurabilità, una scoperta che fece peraltro vacillare la fiducia nell’idea stessa di razionalità.

L’irrazionalità dell’individuale-formale, in ambito matematico o geometrico, si esprime nella non-finitezza della sua determinazione numerica.

Del tutto correlativamente - in ambito materiale - la costituzione fenomenologica dell’individuale percettivo si realizza attraverso un infinito e inesauribile processo di avvicinamento all’oggettualità trascendente, un processo-limite chiamato adombramento (Abschattung) (2).

Da questo ordine di riflessioni emerge, in una prospettiva più generale, l’inafferrabilità di principio della determinazione individuale mediante un numero finito di determinazioni razionali (irrazionalità del reale)

Secondo A. N. Whitehead (3), ciascuna “occasione reale” (ossia ciascun oggetto o evento concreto) include una “gerarchia astrattiva infinita di oggetti eterni” (ove con “oggetti eterni” sono da intendersi le unità concettuali). Quando invece la gerarchia astrattiva è finita, si tratta di “inclusione parziale”, e pertanto di eventi mentali, e non reali (ricordi, immaginazioni, idee, ecc.).

Un altro modo di significare che solo gli enti irreali, costruibili e immanenti, sono esaustivamente definibili mediante una serie finita di determinazioni. Una proprietà, questa, che può essere vista anche come criterio per una distinzione fenomenologica tra configurazioni reali (trascendenti la coscienza) e configurazioni ideali (immanenti).

I numeri irrazionali trascendenti: numeri che sfuggono agli algoritmi

Restringiamo ora le nostre osservazioni alla determinazione formale dell’individuale.

Il genio della lingua matematica rispecchia lo stato delle cose sopra accennato fino nella semantica della teoria dei numeri reali.

I cosiddetti numeri razionali sono i numeri interi o quelli esprimibili come rapporti tra numeri interi.

Vi sono poi i numeri irrazionali (algebrici), che presentano una irrazionalità - diciamo così - di primo livello, in quanto si tratta di numeri che, seppure non esprimibili mediante rapporti di numeri interi, sono però esprimibili come radici di equazioni algebriche.

I razionali e gli irrazionali algebrici sono entrambi costruibili secondo algoritmo generativo, e pertanto è possibile stabilire un criterio affinché siano posti in correlazione biunivoca. Georg Cantor dimostrò (4) che l’insieme dei numeri razionali e quello dei numeri irrazionali algebrici (che parrebbero molto “di più”) hanno la medesima potenza: la prima potenza infinita, ossia quella del numerabile, una potenza, cioè, gerarchicamente inferiore alla potenza del continuo.

In altre parole, né l’infinita discrezione degli interi, né l’infinita densità dei razionali e degli irrazionali algebrici sono in grado di riempire tutti i “buchi” della retta reale, ossia non sono in grado di costituire la continuità, che è infinitamente più coesa.

La classe numerica che dà coesione e compattezza alla continuità della retta numerica reale è quella dei numeri irrazionali trascendenti (ossia i numeri che trascendono l’algebra). Si tratta di numeri che non possono essere espressi come radici di equazioni algebriche a coefficienti reali. Immaginativamente, possiamo vedere gli infiniti numeri interi, razionali e irrazionali algebrici, come isole sporadiche e trascurabili nell’oceano della continuità dei trascendenti.

E il curioso è che questi numeri trascendenti, che costituiscono l’infinita maggioranza dei numeri reali, non sono sistematicamente costruibili secondo alcun algoritmo generativo meccanico. Anzi, se ne conoscono relativamente pochi individui (e, π, e i loro composti) e alcune sporadiche specie costruibili.

Del resto, trascendere l’algebra significa trascendere l’algoritmo.

Il numero reale è pertanto, nella sua assoluta generalità, un numero irrazionale trascendente. La probabilità di estrarre casualmente dalla retta reale un numero che non sia un irrazionale trascendente, è formalmente nulla. Possiamo dire quindi che il reale si identifica con l’irrazionale trascendente.

Se non esiste un algoritmo generativo dei numeri reali, esiste però un principio determinativo generale, per quanto non-costruttivo, un principio ideale dato in forma definitoria e non algoritmica. Nell’analisi matematica della retta reale, il numero reale, ossia l’individuo generico, si identifica con il limite di successioni convergenti di numeri razionali (definizione di Cantor). Tra l’altro, nella visione cantoriana, la successione stessa, intesa come individualità attualmente infinita, è da vedersi come il numero reale, mentre l’identificazione del suo valore con il limite della successione, è una conseguenza, ossia un teorema (5).

Irrazionalità, non-costruibilità e non-riproducibilità del reale: ambiguità del concetto di virtuale

Dalle circostanze qui brevemente esposte, derivano alcune considerazioni di carattere significativo generale, almeno in ambito formale.

La prima e fondamentale è che l’individuale-reale è per essenza irrazionale, ossia non è esaustivamente determinabile mediante un numero finito di determinazioni finite (razionali).

In secondo luogo, la trascendenza esprime la circostanza che esso non è, nella generalità, costruibile. Abbiamo detto che trascendere l’algebra significa trascendere l’algoritmo. Ciò significa che la determinazione individuale non è - in linea di principio - raggiungibile da algoritmo.

In sintesi, l’individuale, nella sua costituzione formale, si mostra come una attualità infinita, irrazionale e trascendente la costruibilità algoritmica.

Un altro genere di considerazioni riguarda la circostanza che la determinazione formale dell’individuale-reale non riguarda unicamente la data individualità in questione, ma coinvolge per principio un insieme infinito di altre entità individuali particolari (razionali). Queste entità razionali, per quanto “oasi sporadiche nell’oceano della continuità trascendente”, sono pur esse infinite e densamente (inestricabilmente) connesse con la compattezza del reale. Ciò significa che la determinazione formale dell’individuo reale non è - in linea di principio - estrapolabile dal contesto d’ordine in cui esso è inserito, ma è inestricabilmente connessa con la totalità attualmente infinita dell’ordinamento reale. In altre parole, la determinazione dell’individuale-reale non può considerarsi avulsa dalla comprensione dell’infinita compattezza e connessione della contingenza reale e della gerarchia astrattiva razionale in esso inclusa.

Tutte queste considerazioni convergono all’evidenza che i procedimenti di simulazione e modellazione algoritmica - cosi come i procedimenti costruttivi in generale - non possono giungere, per principio, alla concretezza trascendente della determinazione reale-individuale.

La constatazione della trascendenza del reale rispetto la computabilità logica è contenuta già nel principio di ragion sufficiente di Leibniz. Così come il suo principio degli indiscernibili esclude la possibilità formale di eguaglianza numerica tra configurazioni reali.

L’individuale-reale non è, per principio, né computabile né riproducibile.

Nel dibattito odierno la dualità reale-virtuale, sostanzialmente fattuale, pare predominante rispetto alle distinzioni categoriali classiche.

L’odierna accezione di virtuale mutua il termine dalla tradizione meccanica dell’età illuministica.

Nel principio dei lavori virtuali di D’Alembert (6), con virtuali si intendono gli spostamenti o le deformazioni (di un sistema materiale rigido o elastico) infinitesime e compatibili con i vincoli al contorno. Da questo principio si evince infine che la configurazione reale è, di caso in caso, una sola e unica composizione - tra quelle potenzialmente infinite - di equilibrio e di congruenza. Il calcolo variazionale si mostrava allora come lo strumento analitico privilegiato per la determinazione della configurazione effettuale entro l’infinito ventaglio della potenzialità.

Con virtualità si intende dunque, originariamente, una categoria modale, e precisamente il potenzialmente reale. Evidentemente oggi il termine mostra una traslazione di senso, circostanza che porta con sé le inevitabili zone di ambiguità.

Oltre l’obiettivismo

Forse oggi soffriamo l’assenza di una consuetudine all’analisi categoriale, che nell’ontologia critica della prima metà del ‘900 aveva raggiunto elevati livelli di raffinatezza.

Probabilmente, per certi argomenti altamente problematici, quali la riproducibilità, la modellabilità, la simulabilità e la computabilità del concreto, così come - a monte - per i problemi concernenti la conoscenza formale in-genere (ossia quella non semplicemente empirico-percettiva), potrebbe essere adeguato e fruttuoso non limitarsi a procedimenti di tipo dimostrativo-computazionale.

Godel, in uno dei suoi ultimi scritti (7), invitava i giovani e i futuri ricercatori a trovare la via d’uscita dai paradossi, dalle indecidibilità e dalle oscurità delle teorie formali, non tanto in progressivi ampliamenti metateorici o complessificazioni computazionali, quanto piuttosto in un rigoroso lavoro immanente di chiarificazione e di elaborazione dei significati fondanti.

Il problema dell’obiettivismo, denunciato programmaticamente nella Crisi di Husserl (8), non si presenta solo nelle scienze empiriche, ma, del tutto coerentemente, anche nelle scienze logiche e matematiche, ossia nelle discipline formali.

Più precisamente, l’obiettivismo si mostra in queste ultime sotto forma del primato della computazione e della dimostrazione formale, ossia di procedimenti che possiamo anche chiamare - oggi - artificiali, in quanto per principio avulsi da ogni riferimento all’intenzionalità.

E in questa prospettiva la distinzione procedurale-intenzionale è ben più fondativa di quella (fattuale) artificiale-naturale.

Ma qui si apre evidentemente un altro orizzonte di tematiche.

 

 

Riferimenti bibliografici

(1) Weyl, Filosofia della matematica e delle scienze naturali, 1949

(2) Husserl, Idee per una fenomenologia pura e per una filosofia fenomenologica, Vol. 1, 1913.

(3) N. Whitehead, La scienza e il mondo moderno, 1925

(4) Cantor, Su una proprietà dell’insieme di tutti i numeri reali algebrici, 1874

(5) Cantor, Fondamenti di una teoria generale delle molteplicità, § 9, 1883

(6) B. Le Ronde d’Alembert, Traité de dynamique, 1743

(7) Gödel, Il moderno sviluppo dei fondamenti della matematica alla luce della filosofia, 1961

(8) Husserl, La crisi delle scienze europee e la fenomenologia trascendentale, 1938


Il doppio click – Seconda parte: il complottismo come scientismo pop, un confronto fra il modello a diffusione e quello a traduzione

Nella prima parte di questa riflessione sul tema del doppio click come atteggiamento blasé nei confronti del mondo, abbiamo associato lo scientismo, ovvero la forma mentis che assegna alla scienza il monopolio della verità, a quanto di più frivolo possa esserci, la pratica del turismo, con il suo portato inevitabilmente classista ed essenzialista[1].

In questa seconda parte, tenteremo di completare questa prima argomentazionecon la pars construens: ovvero, ora che sappiamo distinguere lo scienziato dal sacerdote e dalla guida turistica, come possiamo prendere le distanze da un modo di fare scienza in maniera indifferente e ingenua, e invece affermarne uno responsabile?

Per rispondere possiamo seguire ancora Latour, nel suo confronto fra il modello a diffusione, tipico dello scientismo, a cui oppone quello a traduzione[2].

 

Il modello a diffusione

Questo modello ci è molto familiare e definisce il sapere e la cultura basandosi sul concetto di scoperta. In breve, si ritiene che le discipline scientifiche accrescano di un certo quantitativo le cose conosciute sui fatti del mondo, e quanto più si sarà in possesso di nuove scoperte a proposito della natura di questi fatti, quanto più sarà possibile divulgarli, ovvero diffonderli, presso il pubblico più allargato.

Attraverso la diffusione, questo pubblico può prendere atto e venire a patti col nuovo stato di cose. Stato che, in fondo, potrebbe parlare da sé, mentre basta che sia semplicemente rivelato dagli esperti, di modo che «quando un fatto non viene creduto, quando un’innovazione non viene recepita, quando una teoria viene impiegata in modo del tutto diverso, il modello a diffusione si limita a dire ‘alcuni gruppi fanno resistenza’ … [Quindi] i diffusionisti non fanno altro che aggiungere al ritratto nuovi gruppi sociali passivi che possono rallentare con la loro inerzia la diffusione dell'idea o smorzare gli effetti della tecnica. In altre parole, il modello a diffusione inventa una società per spiegare l'ineguale diffusione di idee e di macchine» (Latour B. (1998), La scienza in azione, Edizioni di Comunità, Roma/Ivrea, p. 183).

Questa, a dire il vero, e l’idea più comune che abbiamo dell’attività del sapere istituzionalizzato, a cui affidiamo un ruolo emancipatorio. Ovvero, pensiamo che al multiculturalismo tipico dei gruppi sociali vada sempre comunque opposto il mononaturalismo offerto dalla ricerca scientifica. L’unica dimensione capace di far convergere le disposizioni delle intelligenze umane su una base di accordo universale, a scapito dei turbamenti politici, sociali, e degli interessi di parte.

Il modello a diffusione è quindi inevitabilmente asimmetrico (sì, classista), perché ogni nuova “scoperta” prevede qualcuno che ancora non la conosce, ma a cui presto deve perentoriamente adeguarsi, pena la sua arretratezza e ignoranza: pensiamo, ad esempio, alla frase-comando «ormai viviamo nell’epoca dell’IA…».

Il progressismo, o l’attitudine al pensiero critico[3] , in realtà, non appartiene solamente agli scienziati col camice bianco, ma è un atteggiamento diffuso trasversalmente, per esempio anche dai complottisti, gli “acerrimi avversari” degli scienziati. «Vi ricordate i bei vecchi tempi, quando i professori universitari potevano guardare dall’alto in basso le persone comuni perché quei buzzurri credevano ingenuamente alla chiesa, la famiglia e la torta di mele? Le cose sono cambiate un sacco, almeno nel mio paese. Adesso sono io quello che crede ingenuamente in alcuni fatti perché sono istruito, mentre gli altri tizi sono troppo poco sofisticati per essere dei creduloni: che cosa è accaduto alla critica quando il mio vicino mi giudica come uno irrimediabilmente ingenuo perché credo che gli Stati Uniti siano stati attaccati dai terroristi? ‘Ma dove vivi? Non lo sai che sono stati il Mossad e la CIA?’» (Latour B. (2004), Why Has Critique Run out of Steam? From Matters of Fact to Matters of Concern, in «Critical Inquiry», 30, University of Chicago, p. 228)

 

Il modello a traduzione

Così, per cercare di appianare le divergenze fra esperti e profani che nascono da un fraintendimento comune, Latour propone il modello a traduzione, per il quale invece, come dice il nome, l’attività della ricerca non ha niente a che vedere con la scoperta. Secondo questo approccio infatti, che si tratti di una nuova interpretazione di un’opera letteraria a partire da un manoscritto, del conteggio della popolazione di microorganismi in una coltura, della somministrazione di un questionario o della rivelazione di particelle subatomiche in un acceleratore, quello che noi facciamo, e che finisce nei nostri articoli scientifici, sono sempre trasformazioni di un determinato contenuto di realtà, sotto forma di testo, grafici, immagini, simboli o diagrammi. Per Latour, la ricerca consiste in un’attività di manipolazione continua delle informazioni, in quanto esse stesse sono il frutto di mediazioni precedenti.

Questo – chiedo scusa per il gioco di parole – cambia tutto. In altre parole, «dire è dire altrimenti. Altrimenti detto è tradurre» (Latour B. (2021), Politiche del design. Semiotica degli artefatti e forme della socialità, Mimesis, Milano, cfr. il capitolo Irriduzioni, p. 254): ogni calcolo, etichettamento, definizione, campionamento, riassunto, misurazione, è un modo per représenter[4]una certa entità in maniera diversa, e secondo il linguaggio proprio dello strumento con cui è rappresentata, in modo da renderla così comparabile, gestibile, associabile, predittiva o vincolante rispetto alle altre entità con cui è messa a confronto.

Perciò, poiché permette di mobilitare risorse, raggruppare alleati e avversari, e definire i campi di lotta, ogni forma di sapere, è prima di tutto una tecnica di governo. Anziché un modo per “osservare” in modo “neutrale” la “natura”.

Prendiamo un esempio, quale i rapporti del IPCC (Intergovernmental Panel on Climate Change) sui cambiamenti climatici: essi non riportano banalmente le prove che il cambiamento climatico è causato dall’attività umana, ma con le loro conclusioni, a cui hanno fatto seguito azioni politiche, questi agiscono come portavoce – come il deputato del nostro collegio o il rappresentante sindacale nel CDA dell’azienda per cui lavoriamo – parlando a nome di tutti i dispositivi che sono serviti come strumenti mediatori del vasto repertorio di capta (presi, anziché dati) per produrre grafici, tabelle e indicazioni testuali, come satelliti, boe oceanografiche, stazioni di rilevamento dell’anidride carbonica, e così, via; tutti finanziati e implementati dagli Stati. Se si tolgono questi ultimi, se si toglie l’organizzazione sociale che foraggia il lavoro di ricerca, esterno all’accademia e agli altri istituti, le prove svaniscono. O meglio, non hanno più di che distinguersi dalle presunte contro-deduzioni degli scettici del clima, che solitamente non dispongono di un paragonabile apparato strumentale. Ma ciononostante, seguendo il positivismo, hanno capito benissimo come servirsi dell’argomento dell’impossibilità di ottenere evidenze verificate per sollevare dubbi e polemiche, con una certa efficacia.

Perciò, quello che cambia di sostanziale nel modello a traduzione è che il mondo scientifico e quello politico non possono più essere visti come due dimensioni in conflitto, da mantenere distinte.

Anzi, più l’istituzione scientifica dispone di mezzi, più essi vengono discussi pubblicamente e definiti nei loro obbiettivi, più l’attività di ricerca sarà presentata come una pratica come le altre, che lavora e costruisce i propri “fatti” (anziché fornici l’accesso diretto a questi fatti), e più sarà in grado di tradurre le nostre volontà con enunciati solidi e legittimati.

Per cui, infine, «se vogliamo che le persone comprendano la scienza, bisogna mostrare come è prodotta» (Intervista rilasciata al Guardian il 06/06/20)

 

 

NOTE

[1] Con essenzialismo, nelle scienze sociali, si indica quel presupposto erroneo per il quale una certa entità possiede una natura – immodificabile, inevitabile e inopinabile – che ne determina il comportamento. Fra gli esempi più celebri in questo senso possiamo citare la teoria della razza di De Gobinau, quella del delinquente nato di Lombroso, e la frenologia di Gall (che pure, in un certo senso è tornata di moda con il pericolosissimo film Pixar Inside Out). Il turismo sarebbe essenzialista perché si basa precisamente sul fatto che «da qualche parte» esistano popolazioni e territori che conservano un’identità “autentica”, cioè naturale e immutabile, venendo così trasformata in un loro destino. Cfr. Barthes R., Miti d’oggi, Einaudi, Torino, 2016. In particolare, il capitolo La Guida Blu.

[2] Cfr Latour B. (1998), La scienza in azione, Edizioni di Comunità, Roma/Ivrea

[3] Con “pensiero critico”, che ereditiamo da Kant, in senso lato intendiamo la concezione per cui esista una verità oggettiva e naturale che ci può essere più o meno evidente in base alla nostra rappresentazione soggettiva e culturale di essa. Si pensi ad esempio, all’enorme successo del grande classico 1984 di George Orwell e della sua importanza per il pensiero politico progressista, in cui il protagonista Winston Smith alla fine si arrende al bipensiero imposto dal Grande Fratello, il quale può imporre a suo piacimento che 2+2 faccia 5. Per un superamento di questa sorta di riduzionismo matematico prêt-à-porter, confronta l’articolo di Benoit Mandelbrot How Long Is the Coast of Britain? Statistical Self-Similarity and Fractional Dimension: https://it.wikipedia.org/wiki/How_Long_Is_the_Coast_of_Britain%3F_Statistical_Self-Similarity_and_Fractional_Dimension

[4] In italiano, a differenza dell’inglese o il francese, abbiamo due sostantivi diversi per indicare la rappresentanza e la rappresentazione, finendo per pensare che si tratti di due attività differenti e separate, dove una ha a che vedere con la mobilitazione politica, e l’altra con la produzione di immagini mentali. Si può dire che l’intera opera di Latour è incentrata precisamente sul rifiuto di questo dualismo.


Antropologia dell’IA - Stereotipi, discriminazioni di genere e razzismi

Da un twitter divenuto virale nel 2019 si è venuti a conoscenza del fatto che Goldman Sachs, una delle più importanti banche d’investimento del mondo, aveva escluso una potenziale cliente dall’accesso a una prestigiosa ed esclusiva Apple card in base a una profilazione erronea e discriminatoria. Il fatto si è saputo perché l’autore del twitter, un danese sviluppatore di software, è il marito della persona a cui era stata negata la card, che lui invece aveva ottenuto pur guadagnando meno di lei. In sostanza, la donna per ragioni opache e non trasparenti era stata considerata non idonea per quel determinato prodotto.

Discriminazioni di genere

Se non ci fosse stato quel twitter non si sarebbe saputo nulla di tutto ciò, ovvero di una sistematica e silenziosa discriminazione di genere. La vicenda rappresenta una plastica esemplificazione della nota metafora del cosiddetto “soffitto di cristallo”: la possibilità che una donna ha di poter scalare il potere o di avere pari opportunità di carriera è spesso preclusa da una sorta di soffitto trasparente, che costituisce una barriera invisibile eppure potente e limitante. Per ragioni imperscrutabili, non esplicitate chiaramente e senza la possibilità di entrare nel merito, gli algoritmi rischiano di attuare politiche discriminatorie, che si supponeva dovessero appartenere al passato e non alle tecnologie del futuro. La rappresentazione, l’interpretazione e la codificazione degli esseri umani attraverso dataset di training e le modalità con cui i sistemi tecnologici raccolgono, etichettano e utilizzano questi materiali sono aspetti decisamente cruciali nel riprodurre stereotipi, pregiudizi, forme di discriminazione di genere o razziale. I bias trovano sempre una strada per inserirsi nel sistema, o meglio in un certo senso i bias fanno parte del sistema. A questo proposito, è noto che fino al 2015 Amazon reclutasse i suoi futuri dipendenti tramite un sistema che si era “allenato” sui curricula, in genere di uomini, ricevuti nei dieci anni precedenti. I modelli avevano quindi imparato a raccomandare gli uomini, autoalimentando e amplificando le disuguaglianze di genere dietro la facciata di una supposta neutralità tecnica. Tanto per fare un esempio, il curriculum di un aspirante dipendente di Amazon veniva scartato se al suo interno conteneva la parola “donna”, perché il sistema aveva imparato a gestire di dati così (Dastin 2018).

Il razzismo dell’IA

L’IA produce e riflette le relazioni sociali, una determinata visione del mondo e, inevitabilmente, i rapporti economici e di potere, visto il notevole capitale in termini finanziari che occorre per investire in essa. Basti pensare che i sistemi di riconoscimento facciale, che contribuiscono fortemente a etichettare la realtà e gli umani, derivano dai primi tentativi sperimentali della Cia e dell’FBI negli anni Sessanta, passando per i database basati sulle immagini dei carcerati, per arrivare all'epoca attuale, dove i principali sistemi di questo tipo sono alimentati da volti e scatti liberamente messi in circolazione sui social (Crawford 2021:105-135). Ovviamente l'accresciuta complessità tecnologica e il suo considerevole impatto sociale hanno fatto emergere anche i tratti più controversi dell’IA, a cominciare dai pregiudizi automaticamente inseriti nei dataset utilizzati per nutrire l'intelligenza artificiale. Si pensi al fatto che c’è stato un lungo dibattito sul riconoscimento facciale, in cui si è visto che è più difficile distinguere i neri, proprio perché i dataset di training si fondano prevalentemente su materiale fotografico di bianchi, raccolto e categorizzato soprattutto da bianchi.

Le differenze razziali, culturali e di genere sono elementi che non si limitano ad affiancarsi o a sommarsi uno sull’altro, ma interagiscono producendo nuove e incomparabili forme di segregazione e di assoggettamento, che si stratificano su vecchi e consumati stereotipi e discriminazioni. A questo riguardo, sui media ha molto circolato la storia di un’afroamericana che non riusciva ad avere il mutuo per acquistare una casa e non si capiva perché, visto che aveva un buon lavoro in una università americana; finché non è apparso chiaro che ciò dipendeva dal quartiere afroamericano in cui abitava e dal suo essere afroamericana (Glantz, Martinez, 2018). In pratica, l’IA acuiva le asimmetrie già esistenti riguardo i singoli gruppi umani a partire dalla loro supposta affidabilità in termini creditizi. Limitando le chance di un futuro migliore si perpetua e “naturalizza” un razzismo esistente e conclamato seppure mai apertamente dichiarato.

Secondo la scienziata esperta in intelligenza artificiale Timnit Gebru e la studiosa di linguistica computazionale Emily Bender un gigante come Google riafferma e ratifica continuamente le disuguaglianze. Ad esempio, il suo programma di riconoscimento facciale è meno accurato nell’identificare le donne e le persone di colore (Hao 2020). Gli algoritmi, concepiti a partire da tecnologie innovative, possono convalidare forme di razzismo istituzionalizzato. Addirittura in uno studio dell’Università del Maryland è stato riscontrato che in alcuni software di riconoscimento facciale le emozioni negative vengono maggiormente attribuite ai neri piuttosto che ai bianchi (Crawford, 2021:197).

Il contesto socio-culturale  dell’IA

Lo sviluppo esponenziale dell’IA ha in qualche maniera obbligato a ragionare su determinati aspetti, come quelli per così dire più umani delle machine learning. Gli stereotipi, le forme di discriminazione e di razzismo infatti vengono automaticamente appresi e inseriti nei dataset, ma questi ovviamente erano e sono già presenti in internet e nella realtà quotidiana al di là della IA. Per cui bisogna tornare a monte, appunto. Di cosa si nutre l’IA? Chi costruisce l’intelligenza artificiale? Perché è ovvio che non si tratta di semplicemente di correggere errori una volta che emergono, come il caso dei curricula di Amazon o della Apple card di Goldman Sachs. Le immagini inserite nei dataset basati sulla visione artificiale per il riconoscimento degli oggetti, nel categorizzare i generi si ritrovano a organizzare, etichettare ad esempio foto in cui gli uomini sono spesso stati fotografati outdoor presi in qualche attività sportiva e con oggetti relativi allo sport e le donne prevalentemente in cucina con qualche utensile relativo al cucinare (Wang, A., Liu, A., Zhang, R., Kleiman, A., Kim, L., Zhao, D.,Shirai, I. Narayanan, A. Russakovsky, O., 2021: 9). Questo dato è di per sé rilevante e in qualche modo va analizzato perché i bias sono già incapsulati nel sistema.

Fei-Fei Li, un’esperta di visione artificiale che si occupa anche di debiasing, come ridurre i bias che i dataset tendono ad inglobare, afferma che le conseguenze della attuale situazione sono “dataset non sufficientemente diversificati, compreso quello di ImageNet [a cui la stessa Li ha lavorato, n.d.a.], esacerbate da algoritmi testati male e decisioni discutibili. Quando internet presenta un’immagine prevalentemente bianca, occidentale e spesso maschile della vita quotidiana, ci resta una tecnologia che fatica a dare un senso a tutti gli altri” (Li, 2024: 253). I dataset riflettono anche una concezione del mondo fortemente ancorata a quella di coloro che ci lavorano.

È interessante sapere che, secondo il Guardian, nel team di Sam Altman il 75% dei dipendenti di OpenAI è uomo (Kassova, 2023). E la domanda che inevitabilmente sorge è: quali sono le conseguenze di una IA sviluppata senza la piena partecipazione delle donne, delle minoranze e di Paesi non occidentali? Perché allo stato attuale è ovvio che la loro mancanza di rappresentanza nel settore tech ha come conseguenza che gli algoritmi funzionano male con coloro che non sono bianchi e maschi.

L’IA e il marchio del capitalismo

Le altre domande altrettanto cruciali sono: per chi è fatta l’IA? Chi possiede i dataset e che uso ne fa? E qua ovviamente entra in gioco anche la democrazia sulla trasparenza e l’etica della non discriminazione. Uno degli elementi chiave riguardo i dati è che sono presi senza contesto e senza consenso. Nick Couldry e Ulises Mejias (2022) fanno un interessante parallelismo tra epoca coloniale e società attuale. Se nell’epoca del colonialismo, il potere agiva in maniera estrattiva, ovvero i colonizzatori spoliavano i paesi colonizzati di materie prime preziose e di forza lavoro (tramite lo schiavismo), i corrispettivi contemporanei per profitto estraggono dati senza chiedere il consenso ai legittimi possessori, come nel caso di Midjourney che, come recentemente emerso in una class action promossa da alcuni artisti americani, ha utilizzato le opere di 16.000 artisti senza chiedere il consenso e aggirando il copyright. I maggiori giganti tecnologici sono costantemente e voracemente in cerca di enormi quantità di dati per alimentare e allenare i sistemi di intelligenza artificiale (Metz, C., Kang, C., Frenkel, S., Thompson, S.A., Grant, N., 2024). Internet è stato concepito da coloro che operano nel settore dell’IA come una sorta di risorsa naturale, disponibile da cui si possono estrarre dati a piacimento. Il colonialismo dei dati è un ordine sociale emergente basato su un nuovo tentativo di impadronirsi delle risorse del mondo a beneficio di alcune élite, come era avvenuto in passato con il “classico” colonialismo. C’è una continuità profonda nei metodi di acquisizione, negli atteggiamenti mentali, nelle forme di esclusione e di preservazione del potere. È incredibile come ciò sia a volte incastonato in qualche biografia emblematica: Elon Musk, ad esempio, ha un padre che è stato proprietario di una miniera di smeraldi in Zambia. In famiglia la forma di colonizzazione si è solo evoluta con i tempi e con le tecnologie, ma il marchio è lo stesso.

L’intelligenza artificiale, come un tempo il colonialismo, genera valore in modo iniquo e asimmetrico, impattando negativamente su molte persone, non importa se le definiamo in termini di razza, classe o genere, o tramite l’intersezione di tutte queste categorie.

E renderla più inclusiva non sarà una battaglia facile.

 

 

RIFERIMENTI BIBLIOGRAFICI

Crawford, K. (2021), Né intelligente né artificiale: il lato oscuro della IA, Il Mulino, Bologna.

Couldry, N., Mejias, U.A. (2022), il prezzo della connessione: Come i dati colonizzano la nostra vita e se ne appropriano per fare soldi, Il Mulino, Bologna.

Dastin, J. (2018), “Amazon Scraps Secret AI Recruiting Tool That Showed Bias against Women”, in Reuters, October 11.

Glantz, A., Martinez of Reveal, E. (2018), “Kept out: How Banks Block People of Color from Homeownership, APnews, February 15.

Hao, K. (2020), “We Read the Paper That Forced Timnit Gebru Out of Google. Here’s What It Says”, in MIT Technology Review, December 4.

Kassova, L. (2023) “Where are All the ‘Godmothers’ of AI? Women’s Voices are not being Heard”, The Guardian, November 25.

Li, F.F, (2024), Tutti i mondi che vedo, Luiss University Press, Roma.

Metz, C., Kang, C., Frenkel, S., Thompson, S.A., Grant, N. (2024), “How Tech Giants Cuts Corners to Harvest Data for A.I.”, The New York Times, April 6.

Telford, T. (2019), “Apple Card algorithm sparks gender bias allegations against Goldman Sachs”, Washington Post, November 11.

Wang, A., Liu, A., Zhang, R., Kleiman, A., Kim, L., Zhao, D., Shirai, I. Narayanan, A. Russakovsky, O., (2021,“A Tool for Misuring and Mitigating Bias in Visual Dataset”, arXiv: 2004.07999v4 [cs.CV] 23 Jul 2021.