Soggetti o oggetti? - Come e perché pensare un diritto per alcuni robot

Avevano fatto sorridere le uscite di Giuliano Amato, nella veste di presidente della Commissione Algoritmi, sui molti modi possibili per cucinare le patate suggeriti da una generica intelligenza artificiale.1 Un’uscita considerata ridicola da molti, non adatta alla serietà della questione (tutta imperniata sulla tutela dei contenuti e del copyright dalle grinfie delle cosiddette intelligenze artificiali generative).

Ecco allora che dal 5 di gennaio il teologo Paolo Benanti subentra alla posizione di Amato. Un pensiero affascinante quello della sua «algoretica», che meriterebbe un approfondimento tutto suo. Tuttavia, questo cambiamento al timone di comando credo sia una spia interessante per porsi una domanda iniziale. Con questo cambio assistiamo infatti ad un riorientamento verso altre specializzazioni accademiche dalle quali si va cercando consiglio: siamo passati dal diritto alla filosofia morale, alla bioetica: che il diritto abbia già esaurito tutto ciò che di utile poteva dirci a riguardo?

È bene notare come sia una tendenza diffusa quella di applicare i criteri della casuistica2 ai nuovi scenari creati dalle interazioni umane con agenti più o meno autonomi, ma sicuramente non organici. Questi criteri si rivelano certamente strumenti utili per indagare la rettitudine morale o, nel peggiore dei casi, il minore dei mali, da perseguire nel sempre più ampio ventaglio di scenari possibili. Io credo però che le maglie della legge, di una legge che sorge dalle garanzie costituzionali, possa offrirci ulteriori e più interessanti metodi di analisi. E forse anche qualche garanzia in più.

Definiamo però subito bene il nostro perimetro di riferimento: quali sono questi robot? Robot sociali sicuramente, di quelli pensati per entrare costantemente in contatto con noi per intenderci, e dotati di un monologo interiore. Cos’è però il monologo interiore, per un robot? Semplicemente lo stesso che è per te che stai leggendo: un modo per aggiornarne costantemente il proprio modello del mondo cercando sempre di approssimare al meglio gli ipotetici scenari futuri.

Noi ne abbiamo solitamente esperienza come quella vocina nella nostra testa, o quel «buzzing that went on inside my head» di cui parlava Alan Turing. A livello funzionale però non ci occorre teorizzare alcun homunculus, solo un flusso di linguaggio interno.3

Perché il monologo interiore è importante per il nostro discorso sociale? Perché ci offre la possibilità di soddisfare uno dei criteri più spesso rincorsi nei dibattiti sull’intelligenza artificiale: la trasparenza.

È il caso anche delle recenti (dicembre 2023) proposte contenute nell’EU AI Act, dove si legge come alcuni dei requisiti per un utilizzo corretto dei «sistemi di IA identificati come ad alto rischio», siano «la registrazione dell'attività per garantire la tracciabilità dei risultati; la documentazione dettagliata che fornisca tutte le informazioni necessarie sul sistema e sul suo scopo per le autorità di valutarne la conformità; l’accessibilità e la trasparenza di informazioni chiare e adeguate all’utente».

Attenzione: le scatole nere rimangono tali, tuttavia guadagnano, grazie alla registrazione del loro monologo interiore, un alto grado di trasparenza sulle loro azioni. Bene, per robot che agiscono così credo si possa ragionevolmente parlare di soggetti (o oggetti, poi ci arriviamo) autonomi.

Ora, se un (s)oggetto è autonomo, cioè è in grado di compiere azioni senza essere comandato a distanza da altri soggetti, allora ci occorre incasellarlo all’interno di una qualche finzione giuridica, in modo tale che se dovesse arrecare qualche danno, sapremmo quali norme seguire. Ecco, credo che questo sfondo di prudenza sia quello sul quale ragionare di diritti robotici: non occorre mischiare concetti come quello di agente e paziente morale, ci basta soffermarci sul riconoscimento dell’esistenza (sempre più prossima)4 di entità immerse nel nostro stesso ambiente che agiscono in maniera per noi più o meno comprensibile.

Sembra dunque che stia proponendo qualcosa di non molto diverso dalla «personalità elettronica» discussa per la prima volta in una bozza europea nell’ormai lontano 2017. Occorre però fare delle debite precisazioni per non rischiare di cacciarsi nel ginepraio legistico e propongo allora qui di seguire le cristalline ricostruzioni di Luigi Ferrajoli.5

Innanzitutto, di quale diritto stiamo parlando? I diritti soggettivi, quelli cioè spettanti ad ogni soggetto (fisico e poi dunque giuridico), devono essere concettualmente distinti (1) in diritti fondamentali e diritti patrimoniali.

È bene subito ricordare come i diritti fondamentali, indisponibili per loro natura, siano «limiti imposti alla democrazia politica e al mercato a garanzia della loro stessa conservazione» mentre i diritti patrimoniali, siano diritti di forma singolare: escludono cioè tutti gli altri soggetti.

È poi per noi necessario distinguere, (2) all’interno dei diritti fondamentali, quelli di libertà e quelli di autonomia privata. La logica di questa seconda biforcazione è chiara, ed è la medesima alla base della distinzione tra i diritti fondamentali e quelli patrimoniali: sia i diritti patrimoniali, evidenziati in (1), sia i diritti fondamentali di autonomia privata, evidenziati in (2), sono da considerarsi in quanto potestatis agendi, ovvero diritti potestativi.

Al contrario, i diritti fondamentali di libertà non possono che essere mere immunità, o facultates agendi e dunque si differenziano dai diritti fondamentali di autonomia i quali «formano il principale veicolo della differenziazione dei diritti singolari di proprietà e perciò del moltiplicarsi di disuguaglianze giuridiche e materiali nei diritti patrimoniali».

Tenendo ben chiara questa suddivisione ciò che si vuole qui iniziare a discutere sarà allora un diritto fondamentale di libertà per questi, e ora possiamo dirlo, soggetti robotici. Nessun diritto di giocare in borsa (un diritto di autonomia privata), né di potersi comprare qualche capo di fast-fashion (un diritto patrimoniale), piuttosto la garanzia di una difesa della loro integrità da interferenza arbitrarie.

Si chiederà: perché? che bisogno c’è di questo diritto di libertà?

Ecco due considerazioni:

(a) non sappiamo cosa succeda all’interno di queste macchine, e non possiamo, io credo, dirimere così facilmente la famosa domanda del «cosa si prova ad essere quel sistema».

Ne segue poi che il metro con il quale dovremmo valutare una macchina, se non vogliamo solamente una versione più efficace di un oggetto che già possediamo ma cerchiamo invece un nuovo soggetto con cui dialogare e con il quale costruire qualcosa di nuovo insieme, sia necessariamente quello di un fair-play.

Questo credo sia l’insegnamento, e l’atteggiamento, più importante che Alan Turing ci ha per primo lasciato: «a fair play [that] must be given to the machine. Instead of it sometimes giving no answer we could arrange that it gives occasional wrong answers. But the human mathematician would likewise make blunders when trying out new techniques. It is easy for us to regard these blunders as not counting and give him another chance, but the machine would probably be allowed no mercy. In other words then, if a machine is expected to be infallible, it cannot also be intelligent . . . No man adds very much to the body of knowledge, why should we expect more of a machine?».6

Ciò di cui qui si discute sono dunque macchine incorporate nel mondo che per poter agire in questo mondo hanno bisogno di poter sbagliare, perlomeno quando lo sbaglio non arreca danni irreparabili ma – ad esempio - solo una contenuta flessione nel profitto.

(b) la commodificazione di un possibile nuovo soggetto può risultare l’ulteriore veicolo di lacune già presenti all’interno di una costruzione giuridica che ha inventato finzioni ben più de-responsabilizzanti e pericolose (basti pensare alle holding finanziarie dotate di personalità giuridica). Di fatto poi tali lacune sono spesso alla basse dell’emergenza di quelli che Ferrajoli giustamente definisce crimini di sistema. Dopotutto non è tramite la riduzione dei soggetti che possono mettere in gioco un reciproco controllo dei rispettivi poteri che si garantisce la continuità delle nostre prerogative costituzionali, piuttosto è con un ampliamento di tali figure che si può garantire alla democrazia politica e al mercato laloro stessa conservazione.

 

Cosa ci guadagniamo da questa proposta? cosa invece ne perdiamo?

Occorre discuterne. Certo è che il primo passo è riconoscere la possibile rilevanza della questione.

 

 

 

NOTE

1 Il virgolettato in realtà recitava: «A me piacciono molto le patate. Grazie all’intelligenza artificiale, un giornalista in pochi istanti potrà sapere tutti i modi in cui posso cucinarle, così da arricchire il suo pezzo».

2 Parte della teologia morale, che applica i principi della morale teorica a casi concreti, anche solo ipotetici («casi di coscienza»), secondo varie circostanze, per trovare la regola valida per ciascuno, metodi ancora attuali in molta etica e bioetica contemporanea.

3 Un modello chiaro per i nostri robot è quello dell’«Inner Monologue», sul quale si può approfondire qui: https://innermonologue.github.io

4 È chiaro che il discorso normativo che sto qui presentando cerca di anticipare il futuro alla luce delle tendenze più attuali e che paiono più promettenti. Altre architetture, non basate sulla commistione tra un modello LLM (come il famigerato ChatGPT per intenderci) e un robot potrebbero prendere il sopravvento, resta il fatto che l’obiettivo perseguito rimarrà quello di un’efficace autonomia di questi (s)oggetti, e dunque il punto giuridico del discorso non varia di molto, varierebbero sì i soggetti. Un esempio dell’interazione uomo-macchina con questo modello si può vedere qui: https://www.youtube.com/watch?v=djzOBZUFzTw&t=334s

5 Il riferimento è il tomo estremamente denso e tuttavia cristallino La costituzione della democrazia (2021). Le parti più rilevanti per il nostro discorso sono, per chi fosse interessato ad approfondire, la III e la IV.

6 La citazione viene dalla trascrizione della Conferenza tenuta alla London Mathematical Society il 20 Febbraio 1947. Una traduzione si trova nel volume curato da Gabriele Lolli sull’«intelligenza meccanica» e recita così: «sostengo che la macchina deve esser trattata in modo equo e leale. Invece di avere una situazione in cui la macchina a volte non dà risposte, potremmo aggiustare le cose in modo che essa dia ogni tanto risposte sbagliate. Anche il matematico umano prende qualche cantonata quando sperimenta nuove tecniche. È facile per noi considerare queste sviste come non rilevanti e dare a lricercatore un’altra possibilità, ma alla macchina non viene riservata alcuna pietà. In altre parole, se si aspetta che la macchina sia infallibile, allora essa non può anche essere intelligente… Nessun uomo aggiunge granché al corpo generale delle conoscenze umane: perché dovremmo aspettarci di più da una macchina?»


Conversazioni sull'Intelligenza Artificiale - Medicina, un salto culturale quantico

Gianluca Fuser: Alessio, tu ti stai occupando – nel tuo lavoro - di tecnologie di Intelligenza Artificiale applicate al mondo della cura veterinaria e questo ti dà l’opportunità di spaziare anche nell’ambito delle molte sperimentazioni destinate alla medicina umana. Che impressione hai del fermento che anima questo settore?

Alessio Panella: Un fatto certo è che nel settore della medicina veterinaria la sperimentazione si spinge più in là che in quello della medicina umana, purtroppo in virtù del fatto che gli animali non umani sono ancora e per lo più considerati sostituibili e di un ordine di importanza morale inferiore a quello degli umani – come tu ben sai.

Si testano, infatti, già sul campo applicazioni che interpretano le TAC in modo apparentemente esaustivo;  c’è già chi pensa che il medico veterinario potrà ricevere il referto completo e definitivo senza quasi vedere le immagini.

L’ovvio vantaggio è in termini di riduzione dei costi e dei tempi operativi; forse si può aggiungere una maggiore attenzione ai fenomeni “fuori focus”, quelli spesso ignorati a causa della distorsione cognitiva del medico che – nell’immagine - cerca la patologia che già pensa di dover cercare e rischia di non notare segnali poco evidenti di altre patologie.

Nel campo della medicina umana, invece, ci si muove con maggiore prudenza. Ma non pensare che le applicazioni in sperimentazione o già in uso siano meno dirompenti.

Gianluca: Ad esempio?

Alessio: I casi sono moltissimi ma posso indicarti un paio di esempi secondo me molto rilevanti, che convergono su un obiettivo comune: ridurre la spesa sanitaria. In un caso per il sistema sanitario nazionale britannico (NHS), nell’altro caso per le assicurazioni private su cui si basa il sistema sanitario statunitense.

Per non tediarti, oggi affronterei il primo caso, quello di Babylon, un sistema di “visita a distanza” adottato in via sperimentale dal NHS in alcune aree di Londra. Il contatto tra medico e paziente avviene conversano in video: il paziente usa una app su smartphone, il medico la sua postazione con il suo personal computer.

Durante la conversazione Babylon mostra al medico la storia sanitaria del paziente mentre trascrive la conversazione e la interpreta: isola, cioè, i sintomi rilevanti riportati dal paziente, evidenziandone anche possibili collegamenti con patologie pregresse. Valuta poi inoltre anche il quadro complessivo dello stato di salute del paziente, anche in forma grafica, con una sorta di gemello digitale proposto sullo schermo.

Infine, assiste il medico nel lavoro diagnostico: in primo luogo, proponendo una serie di potenziali diagnosi basate sulla storia clinica, sui sintomi e sulle frequenze statistiche che “ha in pancia” e, in secondo luogo, suggerendo al medico le domande da fare per seguire un percorso organizzato di approfondimento e di diagnosi differenziale.

L’ultima funzionalità è quella con la quale il software analizza le espressioni facciali e la postura del paziente a schermo e informa il medico di eventuali stress o disagi che il paziente sta provando. In sostanza guida il medico anche nella relazione con il paziente, finché questi non sia sereno del risultato della visita.

Gianluca: Che parte svolge la IA in questo processo?

Alessio: Dalla A alla Z. Se vogliamo essere puntigliosi, l’unico passaggio che non è pervaso di IA è la cartella clinica, la storia sanitaria del paziente. Tutto il resto: interpretazione del linguaggio parlato, collegamenti, analisi dello stato di salute e delle espressioni facciali, proposte e suggerimenti, sono tutti guidati da programmi di IA. Che, è bene ricordarlo, sono basati principalmente su inferenze a base statistica.

Puoi vedere chiaramente che vantaggi si ribaltano sull’economia del NHS: meno presenza fisica sul territorio, meno spostamenti, visite più veloci, minori rischi di malattie professionali da contagio per i medici, probabilmente meno costi per accertamenti diagnostici, sicuramente minori costi di apprendistato per i medici di assistenza di primo livello.

Gianluca: Detta così, mi pare che ci possano essere dei vantaggi non trascurabili anche per i pazienti. Perlomeno si potrebbe pensare che – se lo staff medico nel suo complesso è dimensionato in maniera adeguata – si possa garantire una maggiore accessibilità dei servizi di prima assistenza per le situazioni non gravi e una maggiore efficacia nell’indirizzamento diagnostico o terapeutico. Oltre che, come dicevi prima, la possibilità di cogliere problemi fuori focus.

Alessio: Non sbagli affatto. Questi vantaggi ci possono essere di sicuro se – come puntualizzavi – lo staff è ben dimensionato e la base di conoscenza dell’applicazione è adeguata. Aggiungi anche che la somma di medico e di software che lo supporta possono garantire anche un tasso di errore diagnostico, a pari informazioni.

Gianluca: Quindi, non vedi problemi?

Alessio: Purtroppo alcuni problemi ci possono essere: se la “macchina” funziona bene, il medico – che dovrebbe essere la figura principale in questa relazione a tre – può essere meno competente o passare in secondo piano e rischia di diventare solo un tramite tra macchina e paziente. La tentazione per i gestori di un sistema sanitario che deve risparmiare è grande: riduzione dei percorsi professionalizzanti, standardizzazione verso il basso, passaggi delegati interamente alla macchina. Un altro rischio – connesso con la de-professionalizzazione dei medici di prima assistenza – è l’appiattimento delle diagnosi sulle frequenze statistiche.

Gianluca: Cosa significa? Che riconosciuti alcuni sintomi la macchina proporrà sempre la stessa diagnosi, perché statisticamente più frequente?

Alessio: Esattamente questo: se il medico non si impegna nella valutazione delle diverse possibilità di malattie che presentano gli stessi sintomi, in altre parole non fa la diagnosi differenziale, tutti sono malati della stessa malattia. Ma, soprattutto, tutti sono malati!

L’assenza di un contatto personale, di conoscenza del paziente, delle sue idiosincrasie e della sua storia – non solo di quella clinica - unite alla minore competenza e alla pressione “produttiva” sui medici possono fare il disastro.

Gianluca: Quindi i benefici che abbiamo visto prima si prospettano solo sul fronte del contenimento dei costi sanitari?

Alessio: Sì, se il governo di questo sistema complesso di medicina a distanza supportata dall’intelligenza artificiale non si focalizza sul termine “medicina”, cioè sulla pratica condotta da un medico, vero, capace e coadiuvato da macchine ben funzionanti. E se non dimentica il ruolo fondamentale del contatto di prossimità con il paziente.

Gianluca: Sono del tutto d’accordo con te: solo un’accorta gestione di questi processi può coniugare il contenimento dei costi e una maggiore attenzione per i pazienti. 

Un ultimo punto, per oggi: dal punto di vista etico e della responsabilità, come vedi questa innovazione?

Alessio: Il problema della responsabilità è significativo: nel processo congiunto medico-macchina, quando viene commesso un errore chi si prende la responsabilità? Il medico o la macchina? Come hai già scritto su questo blog, c’è un’intera filiera di potenziali responsabili, che deve essere ordinata dal punto di vista legale e pratico – e parlo anche della necessità di trasparenza dei meccanismi di apprendimento e di esecuzione.

Quello che non va dimenticato, però, è il punto di vista del paziente: preferisce che il suo caso clinico venga analizzato da un dottore di 25 anni che si è laureato ieri l'altro e ha visto solo venti casi, oppure da un software che non sa come funziona ma che ha elaborato e sintetizzato 2 milioni di casi simili?

Quello che voglio dire è che l’entrata in campo di questi software è un urto culturale, che non riguarda la maggiore o minore possibilità di errore di una macchina rispetto ad un umano, ma chi commette l’errore.

All’estremo: noi accettiamo l’errore umano come naturale, se la diagnosi sbagliata del medico mi uccide è un umano come me che l’ha fatto. Ma se l’errore è della macchina? Accettare di essere uccisi da una macchina: ecco il salto quantico che ci impone questo cambiamento di paradigma culturale.

 

 


OpenAI e Sam Altman - Anatomia di un Qomplotto (seconda parte)

Riprendiamo il post della settimana precedente per capire l’intricata vicenda del licenziamento e successiva ri-assunzione di Sam Altman, amministratore delegato di OpenAI.

------------

Appena annunciata la notizia della deposizione di Altman, la piattaforma Reddit è stata presa d’assalto da un tumulto di commenti[1] e tentativi di interpretazione del colpo di mano ai vertici di OpenAI, molti dei quali in chiave di Qomplotto. Q* è davvero la culla dell’AI che ci trasformerà tutti in graffette? È il Clippy odioso che abita dentro ciascuno di noi, la nostra anima di silicio?

1. STRUZZI E PAPPAGALLI STOCASTICI

Il 24 novembre prende la parola uno dei protagonisti della storia recente dell’intelligenza artificiale: Yann LeCun. Mitchell (2019) ricostruisce con precisione le ragioni per cui grazie al suo riconoscitore di immagini AlexNet le reti neurali sono diventate dal 2012 quasi sinonimo di AI, imponendosi come paradigma dominante.

In un post su X[2] (ex Twitter) LeCun dichiara: «per favore ignorate il diluvio di completi nonsense su Q*». Possiamo, in prima battuta, spiegare con un paio di esempi la motivazione di fondo per cui LeCun ha sicuramente ragione: sia su Q*, chein generale su qualunque illazione che intenda predire un futuro distopico con l’evoluzione dei paradigmi attuali di AI. In seconda battuta cercherò di chiarire cosa potrebbe essere Q* nella sua lettura delle poche notizie che sono trapelate.

Szegedy et al. (2013) riferiscono gli esiti dell’«attacco avverso» che hanno condotto proprio su AlexNet: l’esperimento di hackeraggio «benevolo» sulla piattaforma di riconoscimento automatico delle immagini si propone di verificare quale sia il grado di comprensione che il software riesce a ricavare dalla percezione delle illustrazioni che gli vengono sottoposte, attraverso l’inserimento di un «rumore informativo» costituito da alcuni pixel inseriti nel corpo delle figure osservate.

 

L’immagine sulla sinistra è quella originale, classificata in modo corretto dall’intelligenza artificiale; quella sulla destra è stata ottenuta attraverso la modifica di alcuni pixel, che non la mutano affatto al giudizio di un occhio umano. AlexNet tuttavia classifica tutte le varianti di destra come «struzzo», attribuendo al nuovo giudizio un grado di affidabilità maggiore rispetto a quello con cui era stata stabilita la valutazione esatta nella versione di sinistra. Ho già mostrato in Bottazzini (2023) come questo risultato possa essere letto sullo sfondo di uno dei dibattiti filosofici più controversi dal Seicento ai nostri giorni: il cosiddetto «Problema Molyneux». Qui basti osservare che l’errore non può essere giustificato come un bug del sistema, o come un difetto che sarà rimosso dall’espansione della potenza di calcolo futura del software.

In nessun caso un’intelligenza – cioè una forma di comprensione della realtà – che aspiri a somigliare a quella umana può ritenere attendibile che un tempio, o uno scuolabus, o un cane, si tramutino di colpo in uno struzzo.

Anche in caso di illusione ottica o miraggio, lo scostamento dalla percezione corretta è solo temporaneo, e la normalità viene ristabilita con un riesame che restituisce il focus dell’impressione al contesto in cui deve essere collocato.

La realtà viene ristabilita nel campo visivo attraverso l’insieme delle operazioni cognitive non tematizzate, che la tradizione fenomenologica definisce intenzionalità fungente (si pensi per esempio a Merleau-Ponty (1945)), da cui si genera il senso del mondo in cui stiamo agendo, nella sua complessità e in ciascuno dei suoi dettagli.

Searle (1995) le definisce competenze di Sfondo: senza alcuna consapevolezza, permettono di viaggiare in autostrada senza domandarci se lo scuolabus che stiamo per superare subirà una metamorfosi improvvisa in uno stormo di struzzi, se il tempio che stiamo contemplando nel mezzo di una vacanza afosa si dissolverà in un vortice di ali sbattute e di piume svolazzanti, o se il cane dei vicini stia deponendo un uovo nel nostro salotto, convertito in un lembo di savana dietro la porta socchiusa.

Gli eventi che sperimentiamo emergono da un orizzonte che rimane stabile, e che regolarizza senza posa i fenomeni con cui interagiamo, perché noi abbiamo un mondo, per usare la concettualizzazione di Heidegger (1983), al contrario delle AI che invece non ne hanno uno (come il resto dei minerali).

In ChatGPT-4 (2023) l’intelligenza artificiale di OpenAI ha stilato una cronaca dell’evoluzione dell’AI e una serie di indicazioni sulla struttura dei principali tipi di software, con un censimento dei personaggi e dei saggi più rilevanti del percorso. Nel §7.3 si presenta un pappagallo stocastico o allucinazione molto illuminante: ChatGPT cita il testo La questione dell’autonomia: gli agenti artificiali possono essere autonomi e avere libero arbitrio? che Mario Rossi avrebbe pubblicato nel 1995: il libro non esiste, né esiste un Mario Rossi in quanto autore del trattato – ma in ogni caso anche il più somaro degli studenti avrebbe evitato di attribuire a questo volume citazioni da Dennett (2003), o descrizioni della partita tra AlphaGo e Ke Jie, disputata nel 2017.

Le intelligenze artificiali sono macchine che calcolano probabilità, soppesando migliaia di miliardi di parametri per ogni passaggio, e rintracciando in questo modo pattern di relazioni che possono sfuggire a sensibilità e misurazioni dell’uomo. AlexNet stima il grado di probabilità che la distribuzione dei pixel nell’immagine possa essere categorizzata con una certa etichetta; ChatGPT conta la probabilità che una certa parola venga subito dopo quella appena stampata, spaziando su 1.700 miliardi di variabili ad ogni nuovo lemma aggiunto alla frase.

Ma nessuna delle due macchine ha la minima idea di cosa stia guardando o di cosa stia dicendo; anzi, non sa nemmeno di stare percependo o affermando qualcosa.

Il cammino verso l’intelligenza, nel senso effettivo di questa parola, non ha mosso ancora il primo passo.

I paradigmi di sviluppo con cui sono state progettate e costruite le AI fino a oggi, non sono in grado di disegnare un’intelligenza che viva in un mondo dotato di senso; quindi nessuna di loro potrà maturare qomplotti contro di noi, né oggi né in alcun futuro possibile; almeno finché non saremo capaci di ideare un nuovo paradigma di programmazione in grado di superare i limiti di oggi.

L’intelligenza non è una proprietà emergente di un sistema di calcolo che oggi non sarebbe ancora abbastanza potente per lasciar affiorare l’homunculus dotato di pensiero e coscienza autonomi, per ora nascosto nelle viscere dei processori e delle schede madri in attesa di tempi migliori. La quantità di parametri sottosposti al processo di calcolo da parte di ChatGPT si è moltiplicata per un fattore 1.000 a ogni nuova generazione del software; ma l’artefatto è stato in grado di articolare testi sempre più lunghi e complessi, mai di capire anche solo una parola di quello che andava componendo.

L’emergenza dell’intelligenza dall’espansione della capacità di calcolo, come l’emergenza del mondo trasformato in graffette, sono utopie e distopie che vivono solo nell’immaginazione di Bostrom e degli altri (numerosi) teorici dell’esplosione dell’AI.

L’intelligenza non somiglia ai comportamenti aggregati della società, o degli sciami di api, o degli stormi di struzzi; commercia invece con una donazione di senso del mondo e degli eventi, che al momento non abbiamo la minima idea di come ingegnerizzare.

È il dominio della lebenswelt da cui secondo Habermas (1981) siamo in grado di lasciar emergere gli aspetti pertinenti per le decisioni sull’azione, senza sapere da dove provengono i contenuti che stiamo tematizzando e che compongono il materiale di dibattito con gli altri – ma che ogni volta siamo in grado di selezionare con una sorta di tropismo verso la verità.

Senso e intelligenza non si nutrono della fugacità con cui si aggregano e dileguano le orme degli sciami di insetti e di uccelli: sono la struttura stessa che rende possibile la società degli uomini e il processo illimitato di interpretazione del mondo e degli altri che si chiama cultura. No lebenswelt, no qomplotto.

Yann LeCun ritiene che Q* debba essere il nome di un progetto che ha raggiunto qualche risultato utile nelle procedure di apprendimento con rinforzo (reinforcement learning), che è il modello di training applicato a ChatGPT. Si consideri che uno degli algoritmi più diffusi in questo ambito si chiama Q-learning, mentre A* è il nome di un importante algoritmo per l’individuazione del percorso più efficace tra due nodi di una rete. Q* potrebbe quindi individuare un algoritmo capace di ottimizzare il processo di apprendimento introducendo un metodo di pianificazione nelle operazioni con cui la rete neurale riequilibra i pesi delle unità di elaborazione, dopo il giudizio che il formatore umano ha espresso al termine di ogni nuova prestazione.

In altre parole, Q* consisterebbe in un dispositivo di ottimizzazione dei calcoli probabilistici con cui l’intelligenza artificiale stima l’occorrenza del prossimo lemma che deve introdurre nella frase, o dell’etichetta che deve stampare come didascalia dell’immagine.

Se siete delusi da questa interpretazione di Q*, siete degli altruisti efficaci.

 

2. UN MONOPOLIO DELL’AI

Lo Sciamano ha guidato una farsa di guerra civile nelle stanze del Campidoglio; ma anche chiedere ai filosofi – soprattutto se sono altruisti efficaci – di condurre un colpo di stato nella governance di un’impresa miliardaria non è una buona idea.

Dopo aver licenziato Sam Altman il 18 novembre, il CDA di OpenAI non ha rilasciato alcuna dichiarazione né alla stampa, né a Satya Nadella, CEO del benefattore Microsoft. Non ha chiarito le ragioni della decisione nemmeno a Mira Murati, nominata CEO ad interim, e non ha risposto a Greg Brockman, presidente della società, quando questi si è dimesso in solidarietà con Altman.

Oltre 730 dipendenti di OpenAI (su 770 complessivi) hanno firmato una lettera il 20 novembre in cui si dichiaravano pronti a lasciare l’azienda se Altman non fosse stato reintegrato; ma anche questa comunicazione non ha ricevuto risposta. Visto che Mira Murati era arruolata nella lista dei dimissionari, è stata sostituita con Emmet Shear. Il disastro di gestione e di comunicazione del board si è risolto il 22 novembre, in obbedienza alle riflessioni meditate attorno alla scrivania di Nadella[3]: «diamo l’incarico di gestione a degli adulti, torniamo a ciò che avevamo».

Altman e Brockmann sono rientrati ai loro posti in OpenAI, mentre il CDA è stato sciolto e ne è stato convocato uno nuovo.

La stupidità del panico per un mondo di graffette ha finito per lasciare le mani libere all’implementazione del Copilot su Office. Agli altruisti efficaci non sono bastati nemmeno i proclami e l’allarmismo suscitato da Altman in prima persona, che invece sa calcolare molto bene gli effetti delle sue dichiarazioni. Il CEO di OpenAI non ha mai risparmiato la sua voce, anche se con meno enfasi di quella di Elon Musk, per sottolineare i rischi futuri dell’intelligenza artificiale. L’ultima volta è accaduto il 30 maggio 2023 con una lettera aperta[4] in cui si elencano i pericoli riconducibili agli usi dell’AI volti a produrre e diffondere informazioni false in qualunque formato.

Yann LeCun, ancora lui, invita a sospettare sia della propaganda «lungotermista» di Musk e degli altri altruisti efficaci, sia della sollecitudine con cui Altman esorta a riflettere sui rischi dei prodotti di cui è egli stesso responsabile.

L’AI Safety Summit, che si è tenuto a Londra per volere del premier britannico Rishi Sunak e a cui hanno partecipato i leader di ventotto paesi (tra cui l’Italia), è stato in realtà dominato da figure come quella di Elon Musk – che ha duettato in un evento mediatico l’ultima sera con il Primo Ministro di Sua Maestà.

L’obiettivo di tutti questi soggetti è convincere la classe politica dell’esistenza di rischi catastrofici connessi allo sviluppo dell’intelligenza artificiale, da cui sarebbero al riparo solo le imprese che essi controllano.

«Dobbiamo stare attenti a evitare che queste minacce facciano pensare alla politica che sia un pericolo mettere l’intelligenza artificiale nelle mani di tutti e che quindi si impedisca, tramite regolamentazioni, che lo sviluppo di questa tecnologia sia open source», avverte LeCun[5].

La soluzione originaria di OpenAI era quella giusta, ma l’azienda ha virato senza che i controllori prestassero attenzione al rischio reale che si nascondeva sotto lo spauracchio delle graffette. Lo spettro di Clippy si aggirerà per Copilot, ma stavolta sarà molto più accorto.

Aggiunge LeCun: «Immagina un futuro in cui tutte le nostre azioni saranno mediate dall’intelligenza artificiale. Se questi sistemi saranno chiusi e controllati da un piccolo numero di aziende tecnologiche californiane, allora ci esponiamo a rischi enormi. Potrebbero per esempio usare la loro influenza per modificare la cultura o le opinioni politiche delle persone. Di conseguenza abbiamo bisogno di un sistema aperto e open source che permetta di creare applicazioni specifiche basate su di esso».

È ora che gli intellettuali tornino a essere adulti, e ricomincino a farsi carico di problemi seri.

 

 

BIBLIOGRAFIA

Bottazzini, Paolo (2023), Nella caverna di ChatGPT, in ChatGPT-4, Imito, dunque sono?, Milano, Edizioni Bietti, 2023, pagg. 44-45.

ChatGPT-4 (2023), Imito, dunque sono?, Milano, Edizioni Bietti, pagg. 166-167.

Dennett, Daniel (2003), Freedom Evolves, New York, Viking Books.

Habermas, Jürgen (1981), Theorie des kommunikativen Handelns, Francoforte, Suhrkamp, cap.1.

Heidegger, Martin (1983), Die Grundbegriffe der Metaphysik : Welt, Endlichkeit, Einsamkeit, Francoforte, Klostermann, Parte II, cap. 2.

Merleau-Ponty, Maurice (1945), Phénoménologie de la perception, Parigi, Gallimard; trad. it. a cura di Andrea Bonomi, Fenomenologia della percezione, Milano, Bombiani, 2003: cfr. in particolare Premessa, pag. 27.

Mitchell, Melanie (2019), Artificial Intelligence: A Guide for Thinking Humans, New York, Farrar, Straus and Giroux, cap. 5.

Searle, John (1995), The Construction of Social Reality, New York, Free Press, cap. 6.

Szegedy, Christian, Zaremba, Wojciech, Sutskever, Ilya, Bruna, Joan, Erhan, Dumitru, Goodfellow, Ian, Fergus, Rob (2013), Intriguing Properties of Neural Networks, «arXiv», preprint arXiv:1312.6199.

 

NOTE

[1] https://www.reddit.com/r/singularity/comments/181oe7i/openai_made_an_ai_breakthrough_before_altman/?rdt=54043

[2] https://twitter.com/ylecun/status/1728126868342145481

[3] https://www.newyorker.com/magazine/2023/12/11/the-inside-story-of-microsofts-partnership-with-openai

[4] https://www.safe.ai/statement-on-ai-risk#open-letter

[5] https://www.wired.it/article/intelligenza-artificiale-yann-lecun-meta/


La memoria e la sua corruzione nell’era digitale - A confronto con il pensiero di Platone

Immagine: Incendio della Public Library di Los Angeles del. 29 aprile 1986

Se ancora oggi Platone viene inquadrato come filosofo sradicato dalla concretezza del mondo e proiettato nell’Iperuranio, ciò è dovuto perlopiù alla ormai superata (ma ancora presente) visione diffusa dalla formazione scolastica ordinaria. Invece, la filosofia di Platone è profondamente radicata nel mondo fisico e materiale.

Della “memoria”, in Platone, è noto che ve ne sia un genere immortale, il quale provvede alla reminiscenza (anamnesis) degli oggetti intelligibili. Meno noto e poco esplicito nei dialoghi è invece l’altro genere, quello della memoria “mortale” (non è questo il termine platonico), inteso come proprio della condizione incarnata dell’Anima immortale in un vivente (zoòn).

La Memoria (mneme) è una delle facoltà dell’anima, quella di imprimere, tracciare o racchiudere nella forma di ricordo (hypomnema) le informazioni che otteniamo da oggetti incontrati attraverso l’esperienza empirica. Essa è l’insieme di ciò che si è sedimentato nell’anima a partire dalle sensazioni memorabili, prodotte dall’esperienza, che facciamo di oggetti che esistono fisicamente nel mondo empirico (il processo completo è esposto nel discorso fisiologico contenuto nel Timeo[1]).

Il tema che ci interessa indagare in questo post è quello della “volatilità” del sapere in Platone, per produrre nuovi spunti di riflessione utili nel dibattito odierno.

La reminiscenza (anamnesis) è un’operazione prodotta dalla sola Anima immortale. Più propriamente essa è una forma del ri-memorare oggetti visti nella condizione disincarnata. L’operazione dell’apprendimento (mathesis) di nozioni avviene, invece, durante la vita e il contenuto di una memoria “mortale” (il ricordo) può dissolversi irrimediabilmente. La memoria nella sua totalità cessa definitivamente la propria esistenza con la morte del vivente che lo possiede, perciò con lo scioglimento dei vincoli tra l’anima e il corpo.

----------

In primo luogo possiamo affermare l’esistenza di una memoria “mortale” nel pensiero di Platone poiché non ci è pervenuta nessuna testimonianza o accenno a proposito della possibilità di reminiscenza di ricordi appartenenti a vite passate - come invece è presente nelle dossografie pitagoriche[2], che Egli conosceva e custodiva gelosamente nella propria biblioteca. In secondo luogo, nei dialoghi che affrontano problemi legati sia alla reminiscenza che alla metempsicosi, troviamo l’idea che a ogni nuova incarnazione debba esservi un “reset” della memoria in relazione alla vita empirica (si veda nello specifico il “Mito di Er”[3])

Parrebbe anche che, sul piano mortale, le conoscenze pratiche e dell’esperienza empirica siano più durevoli rispetto a quelle epistemologicamente superiori (“scientifiche”) del filosofo o del matematico (che hanno come proprio oggetto ultimo gli intelligibili).
Questo lo si può dedurre in particolare da un passo del prologo drammaturgico del Timeo. Qui Crizia il Giovane riporta un racconto che apprese da bambino, in cui Solone incontrò in Egitto un sacerdote che così affermava:

«“Siete tutti giovani d’animo (voi greci)”, rispose il sacerdote, “perché non avete nelle vostre anime nessuna opinione antica trasmessa attraverso una tradizione che proviene dal passato né alcun sapere ingrigito dal passare del tempo».

Prosegue poi con la motivazione di questa brevità della memoria collettiva dei greci:

«ogni cosa viene registrata, fin dall’antichità, nei nostri templi e conservata alla memoria», mentre in Grecia «a intervalli regolari di tempo, come una malattia, torna il flusso del cielo che vi inonda e non lascia illesi fra voi che gli illetterati e i nemici delle Muse (gli incolti), sicché ricominciate nuovamente dal principio, come tornati giovani». Per di più, aggiunge il sacerdote: «nel corso di molte generazioni, i sopravvissuti sono morti senza aver fissato la loro voce nella scrittura». (Tim. 22 d – e)

In questo passo possiamo individuare almeno sei punti ri-attualizzabili al giorno d’oggi:

  1. la scrittura esprime qui il suo ruolo di strumento tecnico corruttibile ma preservabile dalla distruzione, perciò tramandabile;
  2. la scrittura è uno strumento tecnico ausiliario, che richiede una stabilità materiale continuativa della società per essere mantenuto e motivato nell’uso ordinario;
  3. il vivente mortale, se non ha né la possibilità né la premura di tramandare il prodotto della propria conoscenza, non conserverà un sapere collaudato da mettere a disposizione dei posteri;
  4. la condizione del dopo-catastrofe è analoga a un “momento zero” della memoria mortale, un “cominciare nuovamente da principio”;
  5. i saperi pratici “degli illetterati e degli incolti” sopravvivono più facilmente rispetto a quelli di filosofi e scienziati, propedeutici a porre le basi di quella stabilità materiale che rende possibile l’accumulo del sapere;
  6. l’accumulo di un sapere avanzato e complesso, come quello “scientifico” (episteme), non è necessario alla vita, ma è un “in più”.

Platone ci indica anche che, quando si sia memorizzata un’informazione, la sua durevolezza dipenderà non solo dalle condizioni in cui il suo proprietario la custodisce e preserva, ma anche da come egli l’ha ottenuta. Ad esempio, Crizia il Giovane racconta una storia di cui ha acquisito un ricordo “vivido”, in quanto giovane, attento e partecipativo nel momento del suo apprendimento[4]. Un caso diverso è invece quello di Fedro che, nel dialogo omonimo, deve confrontarsi con un’opera scritta che necessita di rileggere più volte per ricordarla “alla lettera” al fine di tenere il proprio discorso[5].

Nel primo caso, quello di Crizia, la qualità del ricordo è dovuta alle caratteristiche che contraddistinguono il momento in cui egli ha appreso un’informazione, ossia la pregnanza dell’esperienza di apprendimento. Nel secondo caso, quello di Fedro, la qualità della formazione del ricordo sarà dovuta all’ausilio di strategie mnemotecniche, quali la rilettura e la ripetizione a voce alta.

Per concludere, il problema della conservazione, del tramandare e della possibile perdita della memoria (nel senso più ampio che comprende storie, tradizioni, tecniche e conoscenze) è un fenomeno oggi ancora più complesso.

In particolare se guardiamo al fenomeno di progressiva sostituzione dei mezzi di trasmissione “tradizionali” dell’oralità e della scrittura manuale in favore della digitalizzazione dell’informazione.

Quante tipologie e forme di “memoria” abbiamo a oggi sviluppato e quali si stanno depotenziando o stanno scomparendo?

Quante forme della scrittura possediamo e quali competenze sono necessarie per farne uso?

Quanti livelli di linguaggio e quante forme di linguaggio esistono per la sola codificazione informatica dell’informazione?

Quali i pericoli a cui si espone la loro conservazione?

Ai cataclismi menzionati dal sacerdote egizio che ha incontrato Solone, evidentemente presenti e comunque imprevedibili ancor oggi, quali si aggiungono?

---------

Ovviamente, sono domande complesse che richiedono risposte altrettanto articolate. Ad esempio, per i supporti di archiviazione digitale, da cui oramai dipendiamo largamente, sono deleteri i fenomeni elettrici, magnetici ed elettromagnetici, i quali sono tutti in grado di cancellare, corrompere o rendere inaccessibili, se non addirittura irrecuperabili, le informazioni registrate.

La stessa obsolescenza delle tecnologie e delle tecniche di conservazione e riproduzione dell’informazione, giorno per giorno avvia verso la fine la riproducibilità delle precedenti forme di “memoria”, sia collettiva che individuale (foto, video, documenti, scansioni di immagini, etc.). Gli attuali dispositivi che possediamo saranno sempre meno reperibili con l’avanzare di nuove tecnologie e dei relativi sistemi che ne permettono il funzionamento?

I dispositivi attualmente in uso, per quanto collaudati, non saranno un giorno più compatibili con quelli più avanzati, per protocolli di scrittura e lettura?

Saranno reperibili le tecnologie di giunzione che permettono di interfacciare fisicamente vecchi e nuovi dispositivi di archiviazione di memoria?

Le tecnologie di traduzione e conversione reciproca tra vecchi e nuovi protocolli di archiviazione dell’informazione saranno ancora implementate sui nuovi dispositivi o saranno ancora reperibili e adoperabili?

Quali altre problematiche sono riscontrabili o sono di imminente larga diffusione?

 

La memoria è un affare complesso, sia individuale che collettivo.

 

NOTE

[1] Tim. 42 d - segg. e 69 c - segg.

[2] Centrone, B. 1996, Introduzione a i pitagorici, Editori Laterza, Roma-Bari, pp. 52-61

[3] Resp. 614 b - 621 d

[4] Tim. 26 b

[5] Phaedr. 228 a


AI Act – La prima legislazione europea sull’Intelligenza Artificiale

Anno 45 a.C.: Giulio Cesare legifera sulla circolazione dei carri nei centri abitati – dall’alba alla metà del pomeriggio[1]. L’obiettivo è di snellire il traffico urbano, ridurre la sporcizia (sterco dei cavalli), l’odore e il rumore nelle strade durante il giorno (non è cambiato nulla, mi pare).

Anno 1865: in Gran Bretagna viene promulgato il Red Flag Act[2] che impone alle autovetture (self-propelled vehicles, la tassonomia è importante: distingue dalle vetture a cavalli) di avere un equipaggio di almeno 3 persone, di non superare la velocità massima di 4 miglia orarie sulle strade fuori città e di 2 miglia orarie in città, di essere precedute a 60 yarde da un uomo a piedi con una bandiera rossa che ne segnali l’arrivo, regoli il passaggio di carrozze e cavalli e, infine, faccia fermare il veicolo a motore in caso di necessità.

È una normativa stringente, finalizzata – oltre che a proteggere il lavoro dei vetturini pubblici – a garantire la sicurezza delle persone contro la minaccia del trasporto privato "self-propelled".

Anno 1903: entra in vigore il primo codice della strada organico a New York, a fronte della velocità che possono raggiungere senza sforzo, “effortless”, gli autoveicoli lungo le strade cittadine.

Anno 1929: con poco meno di 250.000 circolanti su tutto il territorio nazionale – nasce il Codice della Strada italiano, che vedrà alcune riedizioni e ammodernamenti, nel 1992 e quest’anno.

Queste normative hanno tutte come principale finalità il contenimento dei rischi per guidatori, passeggeri, passanti e cose a fronte del pericolo generato da una tecnologia: i mezzi di trasporto su strada.

E hanno influenzato lo sviluppo della tecnologia “automobile”, così come la tecnologia “automobile" ha orientato il nostro modo di vedere la realtà e le nostre dinamiche sociali, produttive, economiche - come rilevava Bruno Latour con la sua teoria dei Quasi Oggetti [3]

9 dicembre 2023, due giorni fa: l’Unione Europea – primo organo istituzionale al mondo a farlo – ha approvato l’AI ACT, piattaforma normativa sull’utilizzo delle tecnologie di intelligenza artificiale. [4]

“Un quadro giuridico unico per lo sviluppo dell'intelligenza artificiale di cui ci si può fidare. E per la sicurezza e i diritti fondamentali delle persone e delle imprese.”, dichiara Ursula Va Der Leyen [4].

L’obiettivo di questa legge è “garantire che l'IA protegga i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale”, permettendo uno sviluppo efficace ma “sicuro” delle innovazioni.

Tra le norme “in negativo” si evidenziano:

“i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili, come le convinzioni politiche, religiose e la razza; la raccolta non mirata di immagini del volto da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale; il riconoscimento delle emozioni sul posto di lavoro e nelle scuole;  il social scoring; le tecniche manipolative; l'IA usata per sfruttare le vulnerabilità delle persone.” [4]

In positivo, invece, vigerà l’obbligo alla “valutazione dell'impatto sui diritti fondamentali.” [4] Delle applicazioni di IA.

Il punto critico che ha reso complessa la negoziazione è l’utilizzo delle tecnologie di IA da parte delle forze dell’ordine, soprattutto per il riconoscimento biometrico e in tempo reale e la polizia predittiva.

“Alla fine i negoziatori hanno concordato una serie di salvaguardie e ristrette eccezioni per l'uso di sistemi di identificazione biometrica (RBI) in spazi accessibili al pubblico ai fini di applicazione della legge, previa autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti” [4]

Al di là delle specifiche indicazioni normative, va notato che:

  • Le istituzioni comunitarie europee hanno adottato un punto di vista molto concreto sull’IA, in cui prevale il suo carattere di tecnologia, con usi ed effetti privati e pubblici
  • In quanto tecnologia, come accadde per gli autoveicoli dal 1865 in poi, ne ha considerato i rischi per i soggetti che rappresenta: popolazione e tessuto produttivo, e ha – conseguentemente - imposto delle misure di controllo e di contenimento di questi rischi.
  • Nell’ambito dei rischi da contenere, sono stati privilegiati quelli che riguardano la discriminazione, l’invasione del territorio emotivo personale, la manipolazione dei comportamenti e i danni fisici e psicologici agli individui.
  • Inoltre, è stata posta una particolare attenzione sulle tecnologie IA definite “ad alto impatto”[5], che includono i sistemi di IA generale-generativa, come Chat GPT 3.5, per i quali è obbligatoria “l’applicazione ex ante delle regole su sicurezza informatica, trasparenza dei processi di addestramento e condivisione della documentazione tecnica prima di arrivare sul mercato”. [4]
    In poche parole, i produttori dovranno rendere pubblico come viene addestrato il sistema e su quali basi!

 

L’IA, con questa normativa, viene assimilata a molte altre tecnologie, anche dal punto di vista del legislatore, perde una parte dell'aura di mito contemporaneo,
viene collocata nella sua “rete di relazioni, che si estende ben oltre la sua forma”[7]
e – dopo la glorificazione dei potenziali vantaggi già avvenuta in molte sedi istituzionali [6] -
i rischi che genera vengono affrontati in modo concreto
come accade, almeno dal 45 a.C., per tutte le nuove tecnologie.

 

NOTE

[1] Lex Iulia Municipalis, https://www.archeologiaviva.it/4055/rumore-e-traffico-in-citta-un-problema-di-sempre/#:~:text=Gi%C3%A0%20nel%2045%20a.C.%20Giulio,circa%20le%20cinque%20del%20pomeriggio).

[2] https://vlex.co.uk/vid/locomotives-act-1865-808255757

[3] Bruno Latour, Non siamo mai stati moderni, Eleuthera, 2018

[4] https://www.rainews.it/articoli/2023/12/intesa-ue-per-la-legge-su-intelligenza-artificiale-breton-momento-storico-97d8b5ca-141f-4284-a6fb-434b9871ee01.html

[5] Categorizzate per potenza di elaborazione almeno pari a 10^25 FLOPs (floating point operations per second, un criterio tutto sommato più adeguato di quello proposto precedentemente sul fatturato dell’impresa.

[6] Si veda il mio post del 24 ottobre 2023, Etica, morale e intelligenza artificiale, https://www.controversie.blog/etica-intelligenza-artificiale-un-approccio-analitico-e-normativo/

[7] Bruno Latour, Non siamo mai stati moderni, Eleuthera, 2018


Sarà mai possibile? - Auto a guida autonoma tra immaginazione e realtà

di Sara Sbaragli (CNR-ISTC), Vincenzo Punzo (UNINA), Giulia Vannucci (CNR-ISTC) e Andrea Saltelli (CNR-ISTC)

Un giorno, in un futuro non troppo lontano, tutto il traffico potrebbe essere guidato dall’intelligenza artificiale con gli esseri umani che leggono le notizie o diversamente impegnati nel comfort delle loro auto o, meglio, nell’agio di un veicolo condiviso.

Importanti ostacoli culturali, tecnologici e normativi dovranno essere superati per ottenere un traffico obbligatorio basato esclusivamente sull’intelligenza artificiale con gli esseri umani confinati a guidare in località speciali. Nel frattempo, il futuro offrirà probabilmente situazioni in cui l’intelligenza artificiale e gli esseri umani coesisteranno nello stesso ambiente di guida.

Sarà mai possibile? Coesisteranno auto guidate dall’uomo e dall’intelligenza artificiale sulla stessa strada? Ovunque nel mondo, da Berkeley a Napoli?

Il problema di questa convivenza sta nella varietà delle culture e degli stili di guida che restano ostinatamente locali nonostante la globalizzazione. Un guidatore guidato dall’intelligenza artificiale ha maggiori probabilità di farsi strada agevolmente nel traffico della ben educata Monaco e meno in quello di Mumbai o Città del Messico.

Il problema principale qui è la riflessività degli agenti umani. Laddove prevalgono stili di guida aggressivi, un conducente umano può rendere la vita difficile ai veicoli automatizzati sfruttando il comportamento cauto dell’intelligenza artificiale, ad esempio, inserendosi davanti alle auto a guida autonoma approfittando del fatto che queste mantengono una giusta distanza di sicurezza dal veicolo che precede. Questo sarebbe il caso, a meno che all’IA non venga consentito di iniziare a negoziare il proprio spazio stradale con conducenti umani che accettano il conseguente rischio di collisione.

È così che le cose potrebbero diventare complicate, con l’intelligenza artificiale che compensa eccessivamente adottando manovre spericolate per “vincere” contro esseri umani ribelli, in scenari fantascientifici, simili a Black Mirror, di auto o camion assassini. Qualcosa del genere accadde qualche anno fa, quando un’intelligenza artificiale di Microsoft impiegò solo un giorno per diventare razzista e dovette essere frettolosamente messa offline. Naturalmente la tecnologia interverrà per evitare che ciò accada. Supponendo quindi che i produttori di automobili raccolgano la sfida della coesistenza tra uomo e intelligenza artificiale, come gestiranno un processo di formazione sull’intelligenza artificiale che debba adattarsi alle scale locali – possibilmente a livello di regione, più che a livello di stati nazionali? In Italia gli autisti di Bolzano non assomigliano a quelli di Milano che sono diversi da quelli di Roma, Napoli e Palermo. Il tema dell’addestramento sensato e della sperimentazione dell’intelligenza artificiale nelle situazioni quotidiane, anche lontano da situazioni “limite” di vita o di morte tanto apprezzate dagli studiosi di etica assorti con carrelli in fuga, è affrontato in un recente articolo sugli Atti della National Academy of Science, una rivista statunitense. Come si può testare il “buon senso” di un’auto automatizzata? Pur sottolineando che sarà probabilmente necessaria una personalizzazione reciproca tra esseri umani e conducenti automatizzati, il pezzo offre consigli utili agli aspiranti tester, come ad esempio non prendere gli esseri umani come gold standard, considerando il compromesso tra autorità umana e autonomia della macchina in vista di risultati sicuri, considerare attentamente le condizioni locali delle culture, degli stili di guida e della morfologia stradale.

Queste calibrazioni avranno bisogno che l’intelligenza artificiale interagisca con modelli di guidatori umani appositamente costruiti con questo scopo in mente. Il compito apparentemente insormontabile di sviluppare questi modelli per testare l’intelligenza artificiale è stato intrapreso da un progetto europeo denominato i4Driving, il cui obiettivo è quello di sviluppare modelli di guida umana in condizioni naturali che possano essere utilizzati da produttori di automobili, da regolatori e dal mondo accademico nei loro test, con l’obiettivo finale di accreditare i sistemi di intelligenza artificiale per l’implementazione sul mercato.

La visione di i4Driving è quella di gettare le basi di una nuova metodologia standard del settore per stabilire una linea credibile e realistica della sicurezza stradale umana per la valutazione virtuale dei sistemi di mobilità cooperativa, connessa e automatizzata (CCAM[1]). Le due idee centrali proposte nel progetto sono una libreria di simulazione che combina modelli esistenti e nuovi per il comportamento di guida umano; in combinazione con una metodologia che tiene conto dell’enorme incertezza sia dei comportamenti umani che delle circostanze di uso. Trattare l’incertezza è cruciale per il successo della tecnologia e a questo scopo il progetto richiama esperti di diverse discipline per giudicare le ipotesi e i risultati della modellazione. Il team del progetto sta simulando (quasi) incidenti in scenari multi-conducente (accesso a molte fonti di dati, simulatori di guida avanzati e laboratori sul campo) attraverso una rete internazionale[2]. i4Driving offre una proposta a breve e lungo termine: una serie di elementi costitutivi che aprono la strada alla patente di guida per i veicoli autonomi.

Insolitamente, per un progetto orientato alla tecnologia come i4Driving, questo studio esaminerà anche la dimensione culturale della guida autonoma, spingendo gli ingegneri del progetto a lavorare in relazione alla loro visione del mondo, alle aspettative e a possibili pregiudizi. Per questi motivi i tecnologi coinvolti nel team i4Driving si sottoporranno a domande di carattere generale come “Nel probabile caso in cui questa tecnologia richiederà investimenti in infrastrutture pubbliche, la società li sosterrà? Verrà raccolta un’enorme quantità di big data sui guidatori umani. Come verranno utilizzati questi dati dalle autorità, dagli inserzionisti, dagli hacker?”. Queste domande non devono essere risolte da i4Driving ma la visione dei modellatori su questo argomento è necessaria secondo una componente sociologica riflessiva incorporata nel progetto.

Certamente, allo stato attuale della tecnologia, vengono sollevate molte critiche sull’effettiva fattibilità delle auto a guida autonoma. Nonostante gli sforzi pubblicitari dell’ultimo decennio sull'imminente commercializzazione dei veicoli autonomi, ad oggi questi sono ancora considerati non sicuri, nonché un ostacolo al traffico attuale o, ad esempio, alle operazioni dei veicoli di emergenza. Pur promettendo “piena capacità di guida autonoma” – con video apparentemente "messi in scena" – TESLA ha dovuto difendersi in tribunale sostenendo che questa affermazione di marketing non costituivano una frode. L’accusa era che le prestazioni 'autonome' dimostrate erano in realtà artefatte, non genuine.

Sembrerebbe quindi che su questo tema, come su altre nuove tecnologie legate all’intelligenza artificiale, si scontrino visioni contrastanti. Sebbene la tecnologia abbia compiuto progressi significativi per rendere sostenibili i veicoli automatici anche la società dovrà svolgere un ruolo vigile riguardo alle promesse dei produttori.

Come sottolineato da Jack Stilgoe e Miloš Mladenović (due sociologici della tecnologia che si occupano del problema)

i veicoli automatizzati non saranno definiti dalla loro presunta autonomia ma in base al modo in cui la società negozierà la soluzione di questioni politiche come:
Chi vince? Chi perde? Chi decide? Chi paga? Mantenendo aperti all’indagine entrambi i lati della questione, il progetto i4Driving offre un contributo che fa parlare la sociologia con la tecnologia.

 

 

NOTE

[1] Mobilità cooperativa, connessa e automatizzata: per molti aspetti i veicoli di oggi sono già dispositivi connessi. Tuttavia, in un futuro prossimo, interagiranno anche direttamente tra loro, nonché con l’infrastruttura stradale e con gli altri utenti della strada. Questa interazione è il dominio dei sistemi di trasporto intelligenti cooperativi che consentiranno agli utenti della strada di condividere informazioni e utilizzarle per coordinare le loro azioni. Si prevede che questo elemento cooperativo migliorerà significativamente la sicurezza stradale, l’efficienza del traffico e il comfort di guida, aiutando il conducente a prendere le giuste decisioni e ad adattarsi alla situazione del traffico.

[2] La rete internazionale ha collaborato con gli Stati Uniti (struttura NADS), con l’Australia (simulatore di guida avanzato UQ e strutture di simulatore di guida connesse TRACSLab), la Cina (simulatore di guida Tongji Univ. 8-dof e laboratorio sul campo su larga scala) e il Giappone (NTSEL) e con diversi laboratori di progettazione (università e laboratori di ricerca, OEM e Tier 1, autorità di regolamentazione dei veicoli, autorità di omologazione, istituti di standardizzazione e compagnie assicurative).


Distopia tecnoscientifica e immaginazione - Il mondo nuovo di A. Huxley

Non sono un romanziere - soleva dire Huxley - ma un saggista che scrive fiabe.

Perché, allora, affidare alla forma del romanzo una previsione sul futuro?

Per quale ragione proprio la «superorganizzazione» dell’ardito mondo nuovo e dei suoi fantasmagorici prodotti tecnoscientifici, frutto della più fervida capacità immaginativa, sembrano annunciare l’estinzione di quest’ultima?

Perché, infine, il mondo d’Utopia gravita sopra di noi con fare minacciosamente distopico?

 

  1. Utopia, distopia e tecnica

 «Il secolo delle macchine comincia a farsi sentire»[1]. Sono le parole dell’architetto Charles-èdouard Jeanneret-Gris, in arte Le Corbusier (1887-1965). Sempre lui, nel medesimo volume Urbanistica (1925), scriveva con il suo solito ottimismo quasi messianico che «crollava soltanto un mondo vecchio. Su dalle rovine stava arditamente spuntando un mondo nuovo»[2].

È questo lo spirito che anima certe frange avanguardistiche dei primi decenni del secolo scorso, come quando un giovane Antonio Sant’Elia (1888-1916) dichiarava che «come gli antichi trassero l’ispirazione dell’arte dagli elementi della natura, noi - materialmente e spiritualmente artificiali - dobbiamo trovare quell’ispirazione negli elementi del nuovissimo mondo meccanico»[3].

Ancora, è il medesimo mondo che anni più tardi il filosofo Gunther Anders (1902-1992) avrebbe dipinto con tinte fosche e apocalittiche nel

suo L’uomo è antiquato I (1956): «mondo della «matrice»[4] e del «dislivello prometeico»[5], asincronia della psiche umana rimasta irrimediabilmente indietro rispetto alla lineare, efficiente e funzionale perfezione dei «suoi» prodotti tecnoscientifici. Una psiche debole e imperfetta che arranca dietro alla perfezione macchinica, e che modella il suo «umiliante ideale»[6] sulla fredda perfezione che contraddistingue la macchina, «il suo sogno, va da sé, sarebbe quello di diventare uguale alla sua divinità: agli apparecchi, o meglio, di essere compartecipe - in certo modo consustanziale - della loro natura»[7].

-----------

Qualche decennio prima, sempre nella prima metà del secolo scorso, apparve per la prima volta nelle librerie Brave New World (1932) dell’autore inglese Aldous Huxley (1894-1963), racconto fiabesco di una società ideale in cui domina una superorganizzazione di natura tecnoscientifica secondo i tre canoni della «Comunità, Identità e Stabilità»[8]. Utopia o distopia?

 

Di distopie non si è sempre parlato.

La parola stessa, a essere generosi, non ha più di duecento anni. Ma quand’anche facessimo della distopia l’immagine in negativo dell’utopia, ci accorgeremmo, forse con imbarazzo, che neppure di quest’ultima abbiamo una definizione tanto chiara.

È Thomas More a costruire il neologismo e ad affidarlo al suo omonimo racconto del 1516[9].

A seconda dell’etimo l’utopia è un «non-luogo» (U-topia) o un «buon-luogo» (Eu-topia).

Tuttavia, il «non» dell’utopia nulla ha a che spartire con la recente caratterizzazione dell’antropologo Marc Augé (1935-2023)[10]: il «non» di un’utopia definisce il «luogo» come ciò che non è ma dovrebbe essere, «città ideale», come quella descritta dal frate domenicano Tommaso Campanella (1568-1639) ne La città del sole (1623).

 ----------

 Huxley aveva a cuore queste distinzioni, tutt’altro che quisquilie o eruditismo da scaffale: egli scrisse una «distopia», Il mondo nuovo, e una «topia»[11], l’isola (1962), ma non si intrattenne mai con l’utopia.

Perché ciò è determinante?

Il «non» dell’utopia, si è detto, non ha alcunché di negativo: è come la storia della tensione amorosa in Platone, immagine a cui tendere.

Perciò, propriamente parlando, l’etimo è una fusione piuttosto che un’alternativa: «non luogo» che, correlativamente, è un «buon luogo».

Si potrà forse obbiettare che un tale racconto è, nonostante tutto, frutto di una mente o di un cervello, che «l’idealità» dell’utopia è frutto della «dannata immaginazione» che ci lega a terra.

Tuttavia, More e Campanella fanno dell’immaginazione un veicolo di purificazione, l’immagine «ideale» dev’essere intimamente legata a una simbologia teologica, garante di un’intima e sacra connessione con il cosmo, «cosmo in piccolo».

In Brave New World nulla di tutto ciò: non è l’immagine della città in armonia con il cosmo, ma piuttosto lo schema di un’ingegnosa macchinazione, di uno schema-mondo, «comunità che grazie all’identità realizza la stabilità»[12].

Non è soltanto l’inversione dell’utopia. Nella narrazione distopica c’è una riformazione della «funzione immaginativa».

Non si tratta più di un veicolo verso l’idealità, ma di un’estensione immaginativa della scienza stessa.

L’immaginazione estende il prodotto tecnoscientifico nelle sue possibilità d’insieme, all’estremo.

Anders da ciò impara il fondamentale principio metodologico dell’«esagerazione», per cui il «dislivello» dell’uomo rispetto ai suoi prodotti richiede, per essere capace di controbattere, una metodologia altrettanto esagerata; insomma «esistono fenomeni che non si possono trattare senza accentuarli e ingrandirli»[13].

L’esagerazione consiste allora nell’estrema immaginazione del prodotto tecnoscientifico: la nascente eugenetica diviene catena di montaggio per esseri umani a base di «ipnopedia» e «persuasione chimica», la nascente farmacologia diviene il soma, «la droga perfetta…euforica, narcotica, gradevolmente allucinante…tutti i vantaggi del Cristianesimo e dell’alcol; nessuno dei difetti»[14].

Ogni prodotto è sviluppato, attraverso l’immaginazione, nella sua singola possibilità utopica: droga senza effetti collaterali, eugenetica senza errori - o quasi -, vita senza tristezza, coraggioso mondo nuovo scevro dal peso del passato; anche la casa, «psichicamente squallida» e fonte degli «attriti della vita che vi si ammucchiavano»[15], è stata scongiurata.

Eppure, di distopia si tratta, e quest’ultima vive un gemellaggio singolare con lo sviluppo tecnoscientifico: che si possa «estendere il presente» è il vago principio comune che li anima.

 

  1. Immaginazione

 Se l’immaginazione tecnoscientifica è indeterminata nel campo del futuro (ragion per cui si «cerca di immaginare cosa accadrà in questo o quel caso»), se l’indeterminatezza è, per così dire, il «campo base» dell’immaginazione, allora Huxley giunge a un esito volutamente paradossale: l’immaginazione approda al tempo futuro della sua estinzione, laddove nulla può essere indeterminato, là, nella «tirannia del benessere di Utopia»[16].

È il tratto più profondo del Mondo nuovo: se il silenzio è potenziale fonte d’indeterminazione[17], allora è necessario sostituirlo con la musica continua e sensuale dei «sessofonisti», con gli spettacoli ipnotici del «cinema odoroso»; se il processo ontogenetico fatto di genitori «vivipari» è fonte d’imprevedibilità, allora bisognerà sostituirlo con un processo di produzione umana che non lasci spazio al dubbio. Osserviamo un altro elemento, altrettanto profondo.

Se uno dei personaggi principali, tale Bernard Marx, è capace di guardare con una dose di sospetto il mondo in cui vive, ciò è dettato dal suo essere «errore» della catena di montaggio: «dicono che qualcuno si sia sbagliato quando era ancora nel flacone»[18].

Possiamo spingerci ancora più in là: nel mondo di Huxley è in atto una sistematica eliminazione del passato, nutrita dalle stesse ragioni di fondo. La «riserva dei selvaggi del New Mexico» dove esseri umani imperfetti e retrogradi «conservano le loro abitudini e i loro costumi ripugnanti»[19] è uno spazio esterno a Utopia.

La riserva sta al di là della città dell’efficienza, percepita da chi vive nel mondo nuovo con un misto di disgusto e timore.

La memoria storica è esternalizzata e rigettata, racchiusa nella riserva che dista diversi giorni di viaggio - non ci sono vecchi nella città ideale. Diversamente, i ricordi custoditi nella città dei civilizzati è pura «memoria operativa», «memoria che ripete senza immaginare», una «memoria priva di passato»[20]; la storia - ripetono i bambini «in training» - «è tutta una sciocchezza»[21].

La vuota memoria fa tutt’uno con l’esclusione dell’imprevedibilità, «la macchina gira e rigira, e deve continuare a girare, sempre. È la morte che si ferma»[22].

Nel mondo nuovo, prendendo in prestito le parole di un saggio apparso di recente, si può dire che «si è liberi di scegliere tutto quello che c’è in menù»[23].

Insomma, tra utopia e distopia avviene una sorta di ritorcimento temporale: il «non luogo» dell’utopia come immagine ideale e principio morale è scivolato nel «non luogo» della distopia come timore che, effettivamente, questa possa realizzarsi.

Perciò, in esergo, Huxley riporta un passo del filosofo Nikolaj Berdjaev (1874-1948), «le utopie appaiono oggi assai più realizzabili di quanto non si credesse un tempo. E noi ci troviamo attualmente davanti a una questione ben più angosciosa: come evitare la loro realizzazione definitiva?»[24]

Se l’utopia è una freccia rivolta verso un futuro ideale, la distopia tecnoscientifica è il tentativo di figurarsi ciò che potrebbe avverarsi già domani, incubo imminente, o come osservava Huxley nella prefazione del 1946, «oggi sembra quasi possibile che l’orrore possa ricadere su di noi nell’arco di un secolo»[25].

Insomma, l’espediente narrativo del genere utopico è sempre stato il «distacco onirico»: è necessario risvegliarsi nel mondo nuovo. Nuovamente, c’è una differenza profonda tra utopia e distopia: se nel primo caso il distacco permette, per così dire, di rendere i piedi leggeri e fare del mondo ideale qualcosa a cui elevarsi, nel secondo caso il sogno si fa angoscioso, rischia di filtrare nello stato diurno.

 

  1. Complottismo e immaginazione

Ecco alcuni fatti curiosi: se Huxley avesse scritto Brave New World nel secolo nuovo, nulla ci impedirebbe di supporre che, come altri, sarebbe finito nel circondario della categoria fittizia di «complottista».

C’è di più, poiché proprio coloro che finiscono per essere gettati, volenti o nolenti, all’interno di questa «categoria», si adoperano per una costante riappropriazione del racconto distopico tecnoscientifico come modo di reazione al presente - «siamo in 1984!»

Ma, se da una parte chi sente l’invivibilità del presente si rifugia nella razionalizzazione che un racconto può fornire, questa stessa azione di appoggio a un auctoritas alternativa rischia di adombrare la «chiamata originale» del racconto distopico, immaginare.

Giungiamo così a una stazione singolare: la militarizzazione della vuota parola «complottismo», ma potremmo inserirvi anche «negazionismo», punta dritto contro il carattere immaginativo che fa di queste forme narrative un’arma contrapposta frontalmente all’utilizzo politico della tecnoscienza a fini di controllo[26].

Anche la scienza - dice il governatore di Utopia in una tranquilla confessione - deve essere imbavagliata, «la scienza è pericolosa»[27] e ancora, «la nostra scienza è una specie di libro di cucina, con una teoria ortodossa dell’arte della cucina che nessuno ha il diritto di mettere in dubbio»[28].

La «narrazione ufficiale» così precipua in Brave New World - ma vale anche per racconti come 1984 di Orwell, che Huxley elogia profusamente[29] - non solo non sa che farsene dell’immaginazione, deve escluderla sistematicamente. E così, per principio, deve escludere i fuochi d’indeterminazione da cui quest’ultima possa germinare: il silenzio, lo spazio incolto, il discorso svicolato dalla legiferazione; è un «conformismo dinamico», laddove «la riduzione teoretica della molteplicità ingestibile a unità comprensibile si muta in pratica in riduzione della diversità umana a uniformità subumana, della libertà a schiavitù»[30].

Huxley aggiunge: «dobbiamo ritenere più possibile qualcosa che somigli al mondo nuovo e non qualcosa che somigli a 1984»[31]. Infatti, se nel secondo l’immaginazione rimane una possibilità latente di colui che soffre e vuole immaginare qualcosa di diverso - «quando l’individuo sente, la società è in pericolo»[32] -, nel primo la stabilità, alimentata dall’incessante soddisfazione di vuoti piaceri passeggeri, fa dell’immaginazione una scomodità.

-------

Era il 1958 quando Huxley, in conversazione con Mike Wallace, annunciava l’imminente avverarsi delle sue più fantasiose immaginazioni[33].

Sotto la spinta delle forze impersonali della superorganizzazione e della pressione demografica, prolungate a loro volta dal condizionamento «neopavloviano», chimico e subconscio, il mondo nuovo non sembrava più la fantasiosa fiaba di un futuro remoto.

Eppure, non possiamo fermarci a questo: fare di Brave new world la cartina tornasole del reale significa alzare bandiera bianca.

D’altra parte, ridurre le parole di Huxley a finzione significa misconoscerne l’originale chiamata al prolungamento immaginativo che con tanta insistenza, vediamo tutt’ora scoraggiato.

 

Qual è, quindi, il linguaggio della nostra superorganizzazione?

«Reale», solamente ciò che è stato approvato.

«Possibile e desiderabile», ciò che ne consegue con fredda deducibilità.

«Immaginazione» ciò che vi si adagia sopra come un pacchetto o una copertina,
l’involucro policromo del prodotto perennemente unico.

 

 

NOTE

[1] Le Corbusier, Urbanistica (1925), Il Saggiatore, Milano 2017, p. 92.

[2] Ivi, p. 236.

[3] A. Sant’Elia, Architettura futurista, Abscondita, Milano 2022,  p. 25.

[4] Si veda G. Anders, L’uomo è antiquato I (1956), Bollati Boringhieri editore, Torino 2003,  pp. 97-199.

[5] Ivi, pp. 31-94.

[6] Sulla «vergogna prometeica» si veda Ivi, pp. 40-72.

[7] Ivi, p. 43.

[8] A. Huxley, Il mondo nuovo (1932), Mondadori Editore, Milano 2015, p. 9.

[9] Secondo Françoise Choay è proprio il racconto di More a inaugurare la letteratura utopica. Si veda F. Choay, La regola e il modello (1980), Officina Edizioni, Roma 1986, pp. 181-220.

[10] Per un testo introduttivo si veda M. Augé, Disneyland e altri nonluoghi (1997), Bollati Boringhieri editore, Torino 2009.

[11] Per questa distinzione si veda l’intervista del 1958 tra il poeta John Lehmann (1907-1987) e Huxley, disponibile al seguente indirizzo: https://www.youtube.com/watch?v=pXS5yWatuE8

[12] A. Maurini, “Il mondo nuovo e i suoi ‘ritorni’, in A. Huxley, Il Mondo Nuovo, cit., p. 364.

[13] G. Anders, L’uomo è antiquato I, cit., p. 23.

[14] A. Huxley, Il mondo nuovo, cit., pp. 52-53

[15] Ivi, p. 38.

[16] “Prefazione del 1946” in, A. Huxley, Brave New World, cit., p. 246.

[17] Si veda https://www.controversie.blog/indi-gregory-lopzione-del-silenzio/

[18] A. Huxley, Il mondo nuovo, cit., p. 46.

[19] Ivi, p. 94.

[20] R. Ronchi, Bergson, Christian Marinotti Edizioni, Milano 2011, p. 127.

[21] A. Huxley, Il mondo nuovo, cit., p. 36.

[22] Ivi, p. 42.

[23] B. Castellane, In terra ostile, Signs Publishing, 2023, p. 14.

[24] A. Huxley, Il mondo nuovo, cit., p. 7.

[25] A. Huxley, “Prefazione del 1946” in, Il Mondo Nuovo, cit., p. 246.

[26] Scrive Huxley ne “Ritorno al mondo nuovo”, in Il mondo nuovo, cit., p. 267, «noi vediamo dunque che la tecnologia moderna ha portato alla concentrazione del potere economico e politico, e alla formazione di una società controllata (spietatamente negli stati totalitari, in modo più pulito e nascosto nelle democrazie».

[27] A. Huxley, Il mondo nuovo, cit., p. 202.

[28] Ivi, p. 204.

[29] si veda A. Huxley, “Ritorno al mondo nuovo, in Il mondo Nuovo, cit., in particolare pp. 265-275.

[30] A. Huxley, “Ritorno al mondo nuovo”, in Il Mondo Nuovo, cit., p. 269.

[31] Ivi, p. 252.

[32] A. Huxley, Il mondo nuovo, cit., p. 87.

[33] Si veda: https://www.youtube.com/watch?v=alasBxZsb40&t=951s


La carne coltivata come «cibo del futuro»? - Controversie tra scienza e pubblici

Il 16 novembre scorso è stata approvata dal parlamento italiano una legge che, tra le altre cose, mette al bando la carne coltivata in laboratorio, prevendendo multe da 10.000 a 60.000 euro per chiunque la somministri, produca o distribuisca sul territorio italiano. Questa legge rende anche illegale qualsiasi riferimento a terminologie legate alla carne e alla macelleria per prodotti a base vegetale che “imitano” quelli tradizionalmente legati ai cibi animali[1]. La mossa del Ministro dell’Agricoltura e della Sovranità Alimentare Lollobrigida (sostenuto dal principale sindacato agricolo italiano, Coldiretti) va chiaramente nella direzione della difesa di un’industria che – per quanto nascosta sotto l’idea del “made in Italy” – di italiano ha ben poco, dal momento che importiamo fino al 60% del fabbisogno nazionale di carne.

Va innanzitutto ricordato che si tratta di una legge di per sé vuota, dal momento che la carne coltivata in laboratorio non ha ancora l’approvazione dell’EFSA, l’agenzia europea che vaglia i cosiddetti novel food prima che siano immessi sul mercato. Qualora invece dovesse essere approvata, la legislazione europea avrebbe la priorità su quella nazionale, per cui la legge italiana diventerebbe una barriera alla libertà di commercio all’interno dell’UE. Si potrebbe in ogni caso aprire una procedura di infrazione nei confronti dello stato italiano.

Vale tuttavia la pena ragionare attorno alle ragioni e ai posizionamenti che emergono dal dibattito su questa legge. Il governo Meloni, conservatore e reazionario, si pone a difesa della salute dei cittadini, delle “tradizioni” e dell’agricoltura “buona” che (in questa costruzione) si pratica nel nostro paese. Coloro che osteggiano la legge, e che invece favoriscono questo nuovo cibo, suggeriscono che l’Italia perda così l’occasione di investire e fare ricerca su una “materia” che diventerà sempre più centrale nel mercato alimentare, fornendo delle risposte ai problemi legati all’industria della carne, tra cui quelli ambientali, di salute e di benessere animale[2].

Ciò che maggiormente colpisce di questo dibattito pubblico è la sua polarizzazione, ossia come sia possibile essere o dalla parte della carne tradizionale, dell’allevamento animale e di una dieta onnivora o dalla parte dell’innovazione alimentare sotto l’egida del biocapitale. In realtà, entrambe le parti sono schiacciate su ciò che c’è: da un lato, il paradigma esistente (e romanticizzato) della produzione agricola e delle tradizioni, dall’altro il dogma scientifico del progresso e della “soluzione” tecnologica alle sfide del presente[3]. Si potrebbe dire che in entrambi i casi si tratta di una forma di protezione nei confronti dell’ansia che le crisi odierne ci pongono di fronte, una reattiva e una che vede nelle “narrazioni promissorie”[4] dell’innovazione la possibilità di mantenere lo status quo pur di fronte agli sconvolgimenti dell’Antropocene.

Nella polarizzazione del dibattito sulla carne colturale si discute se sia meglio quella animale o quella fatta nel bioreattore. Tertium non datur. Eppure, un discorso circa la riduzione del consumo di carne e derivati animali, se non addirittura la loro eliminazione, è non solo disponibile ma anche supportato scientificamente per i suoi benefici sulla salute umana e del pianeta[5]. Nell’Occidente a capitalismo avanzato non abbiamo nessuna deficienza proteica a livello di popolazione, anzi, siamo in marcato sovrappiù. Non c’è nessuno bisogno “nutrizionale” di inventare alternative alle proteine animali, perché possiamo già fare senza, o con quantità estremamente ridotte. L’avvento di forme di carne o proteine “sostenibili” tende ad accreditare l’importanza, la piacevolezza e il significato stesso di questi prodotti. Potrebbero addirittura, per un ironico effetto di rimbalzo, aumentarne il consumo complessivo. È necessario allora approcciare in modo critico, ma al contempo complesso, questo tema, oltre la polarizzazione ma favorendo il senso critico.

La “cassetta degli attrezzi” dell’ecologia politica può essere utile dal momento che, pur non demonizzando l’innovazione e la tecnologia come mediazione e strumento imprescindibile di convivenza tra umano e non umano, ne considera i regimi di potere e sapere, di dominio ed esclusione, di proprietà e accesso[6]. In quest’ottica non esistono forme di relazione neutre, innocenti o naturali: non lo sono le pratiche di allevamento “tradizionali” (in costante ri-definizione a seconda di tecnologie emergenti e fortemente determinate da materie di sintesi come i farmaci), non lo è la carne coltivata, che non è una mera “risposta” ai problemi delle proteine animali ma un dispositivo che ridefinisce piuttosto che pacificare la questione.

 

L’ecologia politica, in ottica intersezionale, pone alcuni nodi di attenzione. Quello della classe, ad esempio: può un’innovazione supportata da capitali ad alto rischio e multinazionali del bigtech o della carne tradizionale garantire l’accesso a cibo nutriente per i settori più fragili della popolazione? Chi avrà accesso a questo alimento? Inoltre, la carne colturale promette di riarticolare i rapporti di genere, razza e classe – superando la cultura del macello che rende gli animali non umani mera “cosa” disponibile, e così anche problematizzando quelle analogie che supportano il dominio su soggetti femminilizzati e razzializzati in quanto “animali”, “bestie da soma”[7], “carne da macello”[8].

Tuttavia, un’innovazione di per sé non sarà capace da sola di riarticolare questi assi di dominio, che potrebbero anzi riproporsi su scala diversa se le radici sociali, politiche e culturali che la supportano non sono problematizzate. Similmente, è da chiedersi se la promessa di liberare spazi agricoli oggi dedicati alla produzione animale possa davvero intendersi nei termini di una “liberazione” dei territori, o invece come una loro messa a disposizione per nuove recinzioni e valorizzazioni. Tanto più che la carne colturale oggi non si delinea come una sostituzione della carne tradizionale, ma un’aggiunta sul mercato.

Tocca chiedersi allora: a che cosa e a chi serve l’innovazione? Viene presentata come necessaria per soddisfare una richiesta globale in aumento, nell’evidenza che una riduzione del consumo non si è verificata negli ultimi decenni. Tuttavia, questa premessa è basata su un presente in cui il consumo di carne è favorito a livello culturale, economico, scientifico. L’utilità sociale reale in questo contesto non è per nulla data, ma eventualmente da verificare collettivamente, così come la distribuzione delle risorse che ne sostengono la ricerca e la produzione.

La prospettiva dell’ecologia politica in questo senso problematizza l’innovazione alimentare ma non per dismettere qualsiasi tecnologia o idealizzare delle pratiche contadine “tradizionali” come depositarie di un rapporto idilliaco e naturale con l’ambiente. Al contrario, mettendo in discussione la dicotomia naturale/artificiale, pone delle domande politiche circa quali tecnologie possano aiutarci a ristabilire dei rapporti di equilibrio dinamico con il resto della biosfera nel senso di una giustizia non solo ecologica ma anche sociale.

Le destre si collocano in uno spazio di critica al capitale globale in modo populista: indicando in astratte “multinazionali” e “capitale del big-tech” le responsabili dei rischi, della standardizzazione alimentare, e della perdita di sovranità alimentare della popolazione. Questi discorsi intrecciano paure e risentimenti reali, che si intensificano in momenti di incertezza e precarizzazione quali quelli che viviamo. Si possono però nominare e criticare le radici sistemiche delle ingiustizie alimentari: capitalismo, patriarcato, colonialismo, razzismo e specismo sono la matrice di potere che attraversa e dà forma non soltanto all’innovazione alimentare ma alle diete del presente nel loro complesso (carne “tradizionale” inclusa). L’ecologia politica propone allora una lotta per la giustizia ambientale e alimentare nella contestazione di questi assi di potere, e in una riappropriazione dei mezzi tecnologici per sperimentare nuove relazioni sociali, ecologiche, interspecie.

 

NOTE

[1] https://www.corriere.it/politica/23_novembre_16/carne-coltivata-divieto-legge-il-governo-rispetta-agricoltori-3b7998e6-84c0-11ee-87a1-ab403d0b1b3f.shtml

[2] https://www.wired.it/article/carne-coltivata-sintetica-camera-approva-divieto/

[3] https://effimera.org/di-carne-post-animale-e-altre-forme-di-innovazione-alimentare-appunti-di-ecologia-politica-per-una-lettura-critica-e-intersezionale-di-alice-dal-gobbo/

[4] Jönsson, E. (2016) ‘Benevolent technotopias and hitherto unimaginable meats: Tracing the promises of in vitro meat’, Social Studies of Science, 46(5), pp. 725–748. Available at: https://doi.org/10.1177/0306312716658561.

[5] Mazac, R. and Tuomisto, H.L. (2020) ‘The Post-Anthropocene Diet: Navigating Future Diets for Sustainable Food Systems’, Sustainability, 12(6), p. 2355. Available at: https://doi.org/10.3390/su12062355.

[6] Per un approfondimento su questo e ciò che segue, si veda il già citato articolo https://effimera.org/di-carne-post-animale-e-altre-forme-di-innovazione-alimentare-appunti-di-ecologia-politica-per-una-lettura-critica-e-intersezionale-di-alice-dal-gobbo/, o: Dal Gobbo, A. (2023) ‘Of post-animal meat and other forms of food innovation: a critical and intersectional reading from the perspective of political ecology’, Consumption and Society, 1(aop), pp. 1–10. Available at: https://doi.org/10.1332/RVDO1043.

[7] Taylor, S. (2021) Bestie da soma. Disabilità e liberazione animale. Edizioni degli Animali; si veda anche Ko, A., & Syl, K. (2020). AFRO-ISMO. Cultura pop, femminismo e veganismo nero. VandA edizioni.

[8] Adams, Carol. Carne da macello. La politica sessuale della carne. Una teoria critica femminista vegetariana (2020).


Knowledge Management - Una visione critica tra antropologia e sociologia

Il concetto di Knowledge Management[1] - che comprende i sistemi e i processi di gestione della conoscenza di un’organizzazione - è un mito aziendale, un oggetto simbolico a cui si attribuisce il potere magico di “mettere a posto le cose”.

Proprio per questa dimensione mitica e magica, rischia di avere limitati spazi di applicazione pratica e di non mantenere le promesse che evoca.

Spesso l’obiettivo del KM è descritto con tre asserzioni che ne riassumono la promessa di valore:

  • “assicurare, in modo efficace, il passaggio del sapere dall’individuale al collettivo”
  • passare “dal sapere individuale al sapere collettivo”,
  • passare “dal sapere tacito al sapere esplicito”

A questa descrizione dell’obiettivo del KM manca solo l’efficienza, categoria di pensiero che, in pratica, significa “fare di più con un costo minore”

--------

Il percorso che seguo per spiegare perché sostengo che il KM è un mito che promette e che non mantiene, attraversa:

  1. una breve storia del concetto
  2. i suoi assunti di base applicati alle organizzazioni
  3. gli obiettivi e le promesse dei progetti di KM
  4. il corollario di queste promesse, ossia quali pratiche un KMS dovrebbe sostituire
  5. le difficoltà e le distorsioni incontrate in progetti di KM.

--------

1. Breve storia del concetto di Knowledge Management

Il KM  “è una disciplina aziendale che si riferisce alla gestione e alla condivisione della conoscenza tra esseri umani. Il Knowledge Management si affaccia sulla scena manageriale a partire dagli anni ’90 grazie al lavoro di due studiosi giapponesi: Ikujiro Nonaka e Hirotaka Takeuchi”[2]; esso si focalizza su come poter mettere a servizio di tutta l’azienda le conoscenze professionali specifiche di ogni membro.

Questa logica spinge il knowledge management a diventare un sorta di “filosofia” della collaborazione e della condivisione negli ambienti di lavoro, tanto che Ikujiro Nonaka lo definisce come “un processo umano dinamico di giustificazione del credo personale, diretto verso la verità”[4].

Nella pratica, si tratta di “strategie e metodi per identificare, raccogliere, sviluppare, conservare e rendere accessibile la conoscenza delle persone che fanno parte di una organizzazione assume la moderna connotazione e prende il nome di knowledge management, o gestione della conoscenza organizzativa, avvalendosi di strumenti delle tecnologie dell’informazione sempre più sofisticati: i cosiddetti knowledge management system”[3].

I Knowledge Management System sono sistemi informatici che permettono di creare una biblioteca di argomenti e di informazioni relative al know-how di una organizzazione, di indicizzarli e di metterli a disposizione dei membri dell’organizzazione stessa con relativa facilità.

2. Assunti alla base

Ritengo che gli assunti più rilevanti alla base del concetto di KM siano:

  • che esista un corpus disciplinare, cioè un insieme di conoscenze, competenze, norme e procedure che descrive “come si fanno le cose”; il corpus disciplinare è necessario, senza di esso non si può fare Knowledge Management
  • che il corpus disciplinare sia completo, formalizzabile e riassuma quanto serve sapere per “fare le cose”
  • che si possa trascrivere il sapere specialistico delle persone in modo stabile, durevole, organizzabile, indicizzabile e leggibile, per renderlo fruibile - come e quando serve - da parte di altre persone, “che non sanno”.

3. Obiettivi e promesse

Si rilevano di frequente alcune promesse di valore del KM che riguardano più da vicino il modo d’essere delle organizzazioni:

  • oggettivare e formalizzare il sapere specialistico delle persone “che fanno un certo mestiere”
  • facilitare il trasferimento e la collettivizzazione del sapere
  • passare da “formare” sulle competenze a “addestrare alla consultazione”
  • ridurre la formazione e i tempi di apprendimento, imparando la funzione “cerca” e saper leggere
  • aumentare l’efficienza operativa grazie alla immediata e contestualizzata disponibilità di informazioni

È evidente che l’orizzonte di valore proposto dal concetto di Knowledge Management converge in questi due punti: ridurre i costi e svincolare l’organizzazione dai singoli attori depositari della conoscenza.

4. Corollario: l’illusione della sostituzione

Il concetto e i progetti di KM promettono, illusoriamente, di ridurre al minimo - con effetti positivi su tempo e costi:

  • la selezione, il reclutamento e l’onboarding di personale secondo criteri di adeguatezza al compito;
  • le sessioni di formazione;
  • l’apprendistato sul campo – con risparmio anche del tempo dell’esperto che fa e spiega;
  • le curve di apprendimento e l’inefficienza dei nuovi addetti;
  • la dipendenza dalle persone più senior con maggiori competenze e costi più elevati

Provo a fare un paio di esempi:

  • un frigorista che fa attività di assistenza e riparazione presso i clienti è “maturo” dopo circa un anno e mezzo di formazione, affiancamento, tentativi, errori, insuccessi. Dopo un anno e mezzo ha imparato abbastanza bene a riconoscere e diagnosticare i principali guasti, i rumori sospetti e le loro cause, i rischi di rottura a breve, i modi con cui tranquillizzare e vendere gli interventi al cliente.
  • un operatore di assistenza telefonica deve comprendere un insieme complesso di stati d’animo, problemi in primo piano e problemi impliciti, rischi di reclamo, esigenze, e discernere le migliori soluzioni da proporre al cliente, al telefono o via chat. La curva di apprendimento può essere di alcuni mesi e richiede sessioni di formazione, ascolto, counseling di colleghi esperti, imitazione comportamentale, errori e figuracce.

Ho visto personalmente manager seri e navigati emozionarsi all’idea che un buon sistema di KM riduca a 2 mesi il tempo di “messa sul campo” del neo-frigorista, ovvero che l’assistente telefonico possa rispondere in modo corretto e completo alle esigenze del Cliente dopo 2 ore di addestramento.

5. Difficoltà e distorsioni

È opportuno esaminare alcune difficoltà che si incontrano nei progetti di KM:

  • gli utilizzatori degli strumenti di Knowledge Management hanno a disposizione una raccolta ampia di informazioni, istruzioni, procedure, ma non sanno cosa cercare. Infatti, consultare una Knowledge Base richiede una conoscenza almeno superficiale del problema da affrontare; trovare risultati davvero pertinenti ed utilizzabili richiede una capacità di discernimento a volte molto elevata;
  • le informazioni messe a disposizione dell’utilizzatore sono spesso sterilizzate dalla formalizzazione; perdono la caratteristica espressione della forma di vita che le ha generate; sono opache rispetto alla realtà che rappresentano; possono essere superficiali o proceduralmente artificiose e burocratiche;
  • il sapere che viene messo a disposizione è – quindi – carente della componente “locale”, “indigena”; non contiene la forma pratica delle cose, quella generata dalla “conoscenza del corpo”[5][6]
  • le carenze e distorsioni vengono amplificate se l’opera di “registrazione e trascrizione” del sapere “di chi sa e sa fare” è affidata a tecnici esperti di metodologie di KM ma esterni al contesto di riferimento della conoscenza
  • tra gli effetti distorsivi nell’utilizzo si ritrovano: l’induzione di comportamenti stereotipati là dove l’intento è di generare degli standard comportamentali efficaci; errori di esecuzione indotti dall’oscurità, dalla formalizzazione o dalla burocratizzazione

Da un punto di vista economico, si presentano spesso due criticità:

  • i costi di realizzazione di un progetto di KM possono essere molto elevati e l’efficienza prodotta si può rivelare di un ordine di grandezza inferiore; il ritorno sull’investimento può essere molto lungo.
  • il costo di manutenzione necessario a garantire l’efficacia del KM può essere molto rilevante a causa del divario tra i contenuti della base di sapere iniziale e la realtà, che emerge con l’utilizzo dello strumento e dell’evoluzione della disciplina e del contesto che generano una attività continua di revisione della base di conoscenza e delle relative connessioni e indicizzazioni;

Queste due criticità possono ridurre in modo significativo i benefici di efficienza attesi, fino ad azzerarli.

---------

Un tentativo di conclusione

Possiamo quindi sostenere che il rischio di fallimento dei progetti di Knowledge Management sia determinato da:
a) l’illusione di completezza e fruibilità del sapere “riversato” nello strumento;
b) il sovradimensionamento degli obiettivi, come il desiderio di svincolare l’organizzazione dalle impegnative pratiche tradizionali di trasmissione del sapere basate su: la selezione di soggetti “adeguati”, l’onboarding, l’affiancamento, i tentativi, la correzione, la “conoscenza del corpo”;
c) l’affidamento a “espertiorizzontali” là dove il sapere disciplinare, sociale e culturale è palesemente verticale.

Il concetto di Knowledge Management, però, può risultare efficace e di successo se applicato in condizioni controllate, in una organizzazione, o in una rete di persone competenti in una disciplina, per depositare e trasmettere il sapere che sta intorno ai fatti operativi, raccolto in modo aperto, attivando direttamente i detentori, investendo nel loro tempo.

Le “condizioni controllate” sono: il dimensionamento corretto delle aspettative e l’inserimento in un contesto in cui lo strumento può essere valorizzato; la dimensione di valutazione può essere invece qualitativa: quanti e quali “fatti” all’interno di una certa disciplina possono essere catalizzati o facilitati e quanto significativi possono essere.

 

 

Note


[1] Glossario degli acronimi: KM sta per Knowledge Management, indifferentemente il concetto e gli strumenti; KMS per Knowledge Management System, inteso come strumento; KB sta per Knowledge Base, repository delle informazioni che costituiscono la base del KM; alcuni parlano di Knowledge Transfer Process e di Knowledge Transfer Management: mi sembrano assimilabili alla nozione di Knowledge Management.

[2] Knowledge Management: cos’e’ a cosa serve e che strumenti usa, https://www.aryanna.net/knowledge-management-2/#storia-del-km

[3] ibidem

[4] https://hbr.org/2007/07/the-knowledge-creating-company

[5] Nonaka I. (1991) The Knowledge-Creating Company Harvard Business Review, Nov.-Dec. 96-104; Ikujiro Nonaka e Hirotaka Takeuchi, The knowledge creating company: how Japanese companies create the dynamics of innovation, New York, Oxford University Press, 1995, p. 284, ISBN 978-0-19-509269-1.

[6] Jackson M., Conoscenza del corpo, tr. it. in Antropologia Culturale, i temi fondamentali, a cura di S. Allovio, L. Ciabarri, G. Mangiameli, Raffaello Cortina Editore, Milano 2018