Conversazioni sull'Intelligenza Artificiale - Medicina, un salto culturale quantico
Gianluca Fuser: Alessio, tu ti stai occupando – nel tuo lavoro - di tecnologie di Intelligenza Artificiale applicate al mondo della cura veterinaria e questo ti dà l’opportunità di spaziare anche nell’ambito delle molte sperimentazioni destinate alla medicina umana. Che impressione hai del fermento che anima questo settore?
Alessio Panella: Un fatto certo è che nel settore della medicina veterinaria la sperimentazione si spinge più in là che in quello della medicina umana, purtroppo in virtù del fatto che gli animali non umani sono ancora e per lo più considerati sostituibili e di un ordine di importanza morale inferiore a quello degli umani – come tu ben sai.
Si testano, infatti, già sul campo applicazioni che interpretano le TAC in modo apparentemente esaustivo; c’è già chi pensa che il medico veterinario potrà ricevere il referto completo e definitivo senza quasi vedere le immagini.
L’ovvio vantaggio è in termini di riduzione dei costi e dei tempi operativi; forse si può aggiungere una maggiore attenzione ai fenomeni “fuori focus”, quelli spesso ignorati a causa della distorsione cognitiva del medico che – nell’immagine - cerca la patologia che già pensa di dover cercare e rischia di non notare segnali poco evidenti di altre patologie.
Nel campo della medicina umana, invece, ci si muove con maggiore prudenza. Ma non pensare che le applicazioni in sperimentazione o già in uso siano meno dirompenti.
Gianluca: Ad esempio?
Alessio: I casi sono moltissimi ma posso indicarti un paio di esempi secondo me molto rilevanti, che convergono su un obiettivo comune: ridurre la spesa sanitaria. In un caso per il sistema sanitario nazionale britannico (NHS), nell’altro caso per le assicurazioni private su cui si basa il sistema sanitario statunitense.
Per non tediarti, oggi affronterei il primo caso, quello di Babylon, un sistema di “visita a distanza” adottato in via sperimentale dal NHS in alcune aree di Londra. Il contatto tra medico e paziente avviene conversano in video: il paziente usa una app su smartphone, il medico la sua postazione con il suo personal computer.
Durante la conversazione Babylon mostra al medico la storia sanitaria del paziente mentre trascrive la conversazione e la interpreta: isola, cioè, i sintomi rilevanti riportati dal paziente, evidenziandone anche possibili collegamenti con patologie pregresse. Valuta poi inoltre anche il quadro complessivo dello stato di salute del paziente, anche in forma grafica, con una sorta di gemello digitale proposto sullo schermo.
Infine, assiste il medico nel lavoro diagnostico: in primo luogo, proponendo una serie di potenziali diagnosi basate sulla storia clinica, sui sintomi e sulle frequenze statistiche che “ha in pancia” e, in secondo luogo, suggerendo al medico le domande da fare per seguire un percorso organizzato di approfondimento e di diagnosi differenziale.
L’ultima funzionalità è quella con la quale il software analizza le espressioni facciali e la postura del paziente a schermo e informa il medico di eventuali stress o disagi che il paziente sta provando. In sostanza guida il medico anche nella relazione con il paziente, finché questi non sia sereno del risultato della visita.
Gianluca: Che parte svolge la IA in questo processo?
Alessio: Dalla A alla Z. Se vogliamo essere puntigliosi, l’unico passaggio che non è pervaso di IA è la cartella clinica, la storia sanitaria del paziente. Tutto il resto: interpretazione del linguaggio parlato, collegamenti, analisi dello stato di salute e delle espressioni facciali, proposte e suggerimenti, sono tutti guidati da programmi di IA. Che, è bene ricordarlo, sono basati principalmente su inferenze a base statistica.
Puoi vedere chiaramente che vantaggi si ribaltano sull’economia del NHS: meno presenza fisica sul territorio, meno spostamenti, visite più veloci, minori rischi di malattie professionali da contagio per i medici, probabilmente meno costi per accertamenti diagnostici, sicuramente minori costi di apprendistato per i medici di assistenza di primo livello.
Gianluca: Detta così, mi pare che ci possano essere dei vantaggi non trascurabili anche per i pazienti. Perlomeno si potrebbe pensare che – se lo staff medico nel suo complesso è dimensionato in maniera adeguata – si possa garantire una maggiore accessibilità dei servizi di prima assistenza per le situazioni non gravi e una maggiore efficacia nell’indirizzamento diagnostico o terapeutico. Oltre che, come dicevi prima, la possibilità di cogliere problemi fuori focus.
Alessio: Non sbagli affatto. Questi vantaggi ci possono essere di sicuro se – come puntualizzavi – lo staff è ben dimensionato e la base di conoscenza dell’applicazione è adeguata. Aggiungi anche che la somma di medico e di software che lo supporta possono garantire anche un tasso di errore diagnostico, a pari informazioni.
Gianluca: Quindi, non vedi problemi?
Alessio: Purtroppo alcuni problemi ci possono essere: se la “macchina” funziona bene, il medico – che dovrebbe essere la figura principale in questa relazione a tre – può essere meno competente o passare in secondo piano e rischia di diventare solo un tramite tra macchina e paziente. La tentazione per i gestori di un sistema sanitario che deve risparmiare è grande: riduzione dei percorsi professionalizzanti, standardizzazione verso il basso, passaggi delegati interamente alla macchina. Un altro rischio – connesso con la de-professionalizzazione dei medici di prima assistenza – è l’appiattimento delle diagnosi sulle frequenze statistiche.
Gianluca: Cosa significa? Che riconosciuti alcuni sintomi la macchina proporrà sempre la stessa diagnosi, perché statisticamente più frequente?
Alessio: Esattamente questo: se il medico non si impegna nella valutazione delle diverse possibilità di malattie che presentano gli stessi sintomi, in altre parole non fa la diagnosi differenziale, tutti sono malati della stessa malattia. Ma, soprattutto, tutti sono malati!
L’assenza di un contatto personale, di conoscenza del paziente, delle sue idiosincrasie e della sua storia – non solo di quella clinica - unite alla minore competenza e alla pressione “produttiva” sui medici possono fare il disastro.
Gianluca: Quindi i benefici che abbiamo visto prima si prospettano solo sul fronte del contenimento dei costi sanitari?
Alessio: Sì, se il governo di questo sistema complesso di medicina a distanza supportata dall’intelligenza artificiale non si focalizza sul termine “medicina”, cioè sulla pratica condotta da un medico, vero, capace e coadiuvato da macchine ben funzionanti. E se non dimentica il ruolo fondamentale del contatto di prossimità con il paziente.
Gianluca: Sono del tutto d’accordo con te: solo un’accorta gestione di questi processi può coniugare il contenimento dei costi e una maggiore attenzione per i pazienti.
Un ultimo punto, per oggi: dal punto di vista etico e della responsabilità, come vedi questa innovazione?
Alessio: Il problema della responsabilità è significativo: nel processo congiunto medico-macchina, quando viene commesso un errore chi si prende la responsabilità? Il medico o la macchina? Come hai già scritto su questo blog, c’è un’intera filiera di potenziali responsabili, che deve essere ordinata dal punto di vista legale e pratico – e parlo anche della necessità di trasparenza dei meccanismi di apprendimento e di esecuzione.
Quello che non va dimenticato, però, è il punto di vista del paziente: preferisce che il suo caso clinico venga analizzato da un dottore di 25 anni che si è laureato ieri l'altro e ha visto solo venti casi, oppure da un software che non sa come funziona ma che ha elaborato e sintetizzato 2 milioni di casi simili?
Quello che voglio dire è che l’entrata in campo di questi software è un urto culturale, che non riguarda la maggiore o minore possibilità di errore di una macchina rispetto ad un umano, ma chi commette l’errore.
All’estremo: noi accettiamo l’errore umano come naturale, se la diagnosi sbagliata del medico mi uccide è un umano come me che l’ha fatto. Ma se l’errore è della macchina? Accettare di essere uccisi da una macchina: ecco il salto quantico che ci impone questo cambiamento di paradigma culturale.
Claude Bernard e Georges Canguilhem - Una controversia ancora viva (?)
CLAUDE BERNARD – LA VITA DIMENTICATA NEL LABORATORIO
Nel 1813 a Saint-Julien, paesino non troppo distante da Lione nasceva Claude Bernard. Come Semmelweis, di cui già si è parlato in questo blog, fu una delle figure più importanti per la medicina del XIX secolo.
Anch’egli dovette scontrarsi con una fetta della società del suo tempo, ma diversamente dal medico ungherese Bernard ricercò tutta la vita di fondare una medicina che fosse scientifica e si basasse sugli andamenti regolari e costanti della fisiologia.
Giunto a Parigi nel 1839 per proporre una sua pièce teatrale, Bernard comprese che quella strada non faceva per lui. Si risolse quindi a studiare medicina nella capitale francese, avendo già trascorso diversi anni come aiutante in una farmacia.
Agli inizi della sua carriera conobbe lo studioso di fisiologia Francois Magendie (detentore della cattedra di Medicina al Collège de France dal 1830 al 1855). La fisiologia al tempo era una massa informe di conoscenze derivate da esperimenti e osservazioni senza una sistematizzazione. Magendie poteva permettersi di operare in un piccolo laboratorio al College de France. Lui, vitalista eterodosso, manteneva a guida l’idea di un corpo umano soggetto alla forza vitale, ma non si lasciava intimorire nel dichiarare la necessità di aprire (il corpo) alla sperimentazione.
Bernard seguiva questo suo maestro, ma rivendicava la necessità di un passaggio ulteriore che Magendie, definito da Bernard un empirista radicale, non faceva. Per Magendie infatti l’esigenza scientifica era quella di alterare e osservare i fenomeni. Bernard voleva di più, voleva spiegare.
«Magendie si comportava da empirico ed era solito dire: perturba i fenomeni, ossia sperimenta e limitati a controllare i fenomeni senza spiegare nulla. Non era ancora il metodo sperimentale completo, perché tale metodo sperimentale esige delle spiegazioni.»
Bernard era tutt’altro che vitalista. La rivoluzione avvenuta il secolo precedente con Isaac Newton stava dando i suoi frutti anche in chimica proprio in quel periodo. La scienza medica si svolgeva in laboratorio. Lo studio della fisiologia, delle costanti e delle funzioni avrebbe permesso la comprensione della patologia come variazione dallo stato fisiologico.
Hal Hellman, simpatico divulgatore scientifico che ha raccolto parte di questo racconto su Bernard, dice che Bernard fu colui che rese la medicina una scienza basata su esperimenti e fatti.
Bernard fu senz’altro fine sperimentatore e produsse molteplici osservazioni, esperimenti, vivisezioni e il suo lavoro permise alla fisiologia di costruirsi una base feconda su cui svilupparsi.
Egli riconosceva il dolore animale, tuttavia ne giustificava l’uso ai fini del progredire della scienza medica. La funzionalità del sacrificio di un vivente per una causa più grande è un elemento evidente della visione scientifica di Bernard che, di fatto, disconosce il vivente, anche umano.
Bernard butta il vivente fuori dal laboratorio e tiene, per studiarlo, solo il corpo.
Che poi il vivente, una volta uscito dalla porta del laboratorio, rientri dalla finestra nella pratica clinica, non è problema della scienza fisiologica. Questa, infatti, fondava il suo tentativo di essere bella e potente – come si stavano dimostrando al tempo la fisica e la chimica – proprio sul disconoscimento del vivente e sulla pratica sperimentale che questo disconoscimento permette.
GEORGES CANGUILHEM – LA VITA RISCOPERTA NELLA SCIENZA
Circa cent’anni dopo Georges Canguilhem, filosofo abilitato anche alla professione medica, criticherà la visione di Bernard e della fisiologia medica, la quale nel frattempo si era del tutto affermata, insieme allo sguardo “normalizzante” sul vivente.
Canguilhem, erede della lezione di Bergson per cui il vivente è irriducibile, ritiene invece sia necessario recuperare il vitalismo.
Egli risale dalla medicina alla biologia, poiché è nella biologia a lui contemporanea che la medicina trova la sua morale, riducendo – come ha iniziato a fare Bernard - la malattia a un discorso di variazioni di funzioni fisiologiche.
Canguilhem chiama questa riduzione “il dogma dell’identità dei fenomeni fisiologici e dei fenomeni patologici”, che la medicina di Xavier Bichat e Claude Bernard prende dalla fisica newtoniana e condivide con altri campi come la sociologia di Auguste Comte.
Sottolineando, Canguilhem, come concezione di scienza medica – nonostante la consolidata tradizione di successi - dimentichi un dato fondamentale: è perché vi sono malati che c’è una medicina.
Dobbiamo accettare che il vivente sia l’oggetto della biologia. Che sia, sì, soggetto a tutte le leggi fisico-chimiche. Ma, ci ricorda Canguilhem, il mondo della fisica e della chimica non sono mondi esterni al vivente.
Egli è in esse ma non vive in esse. Il vivente vive un ambiente valorizzato, polarizzato e in ultimo significato.
Vive in mezzo a esseri e avvenimenti che diversificano le leggi. Le scienze della vita non possono purificarsi dall’individualità vivente, non devono farlo, altrimenti non avrebbero da dire nulla più della fisica e della chimica.
Così la medicina non può negare il soggetto.
È il malato che chiama il medico. Certo, il medico può – perché la medicina ha una storia – conoscere meglio cosa fa la malattia del malato. Ma, per quante importanti conoscenze possono portare la fisiologia e lo studio delle normali e delle frequenze, salute e malattia appartengono al malato.
Un grande scrittore milanese, gravemente malato e a poco dalla sua morte, dirà “sono insufficientemente umile per accettare ciò che la malattia ha comportato e comporterà”.
Possiamo fare una colpa al malato se si ostina a opporsi alla sua malattia? Vogliamo fare della malattia una colpa e della salute un merito? Definendo normalità e malattia prima di avere incontrato il malato?
La norma, dice Canguilhem, il medico la deriva dal suo malato.
Il malato può preoccuparsi se la sua assicurazione coprirà le spese – tristezza dei nostri tempi – ma “ciò che mi occupa”, dice, “è la mia malattia e il bisogno di guarirne”.
Sarà il soggetto, il malato, l’individuo, a dire della sua ritrovata salute. Sia che vi sia stato dolcemente accompagnato o portato a forza di bisturi e trapano.
CONCLUSIONE
Ciò che rese Semmelweiss un grande medico sono le donne partorienti salvate: la salvezza e il miglioramento di vite personali e di una intera società. Non le medie abbassate, alle quali nemmeno i fautori di quel metodo credevano nel momento in cui li smentivano.
Non è possibile vivere come un ostacolo epistemologico la soggettività del malato.
I medici che accettano questo principio, accettano di reinscrivere la loro scienza in una storia umana. Esercitano la medicina come servizio all’umano nella sua lotta contro ciò che è negativo, contro ciò che è vissuto come malattia.
P.s. il grande scrittore milanese (di Novate Milanese in realtà) citato è Giovanni Testori in una sua intervista al quotidiano La Stampa il 2 gennaio del 1993.
RIFERIMENTI E LETTURE:
Grmek Mirko (a cura), Storia del pensiero medico occidentale, Laterza
Bernard Claude, Introduzione allo studio della medicina sperimentale, Feltrinelli
Hellman Hal, Le dispute della medicina. Dieci casi esemplari, Raffaello Cortina
Canguilhem Georges, Il normale e il patologico, Einaudi
Canguilhem Georges, La conoscenza della vita, Il Mulino
OpenAI e Sam Altman - Anatomia di un Qomplotto (seconda parte)
Riprendiamo il post della settimana precedente per capire l’intricata vicenda del licenziamento e successiva ri-assunzione di Sam Altman, amministratore delegato di OpenAI.
------------
Appena annunciata la notizia della deposizione di Altman, la piattaforma Reddit è stata presa d’assalto da un tumulto di commenti[1] e tentativi di interpretazione del colpo di mano ai vertici di OpenAI, molti dei quali in chiave di Qomplotto. Q* è davvero la culla dell’AI che ci trasformerà tutti in graffette? È il Clippy odioso che abita dentro ciascuno di noi, la nostra anima di silicio?
1. STRUZZI E PAPPAGALLI STOCASTICI
Il 24 novembre prende la parola uno dei protagonisti della storia recente dell’intelligenza artificiale: Yann LeCun. Mitchell (2019) ricostruisce con precisione le ragioni per cui grazie al suo riconoscitore di immagini AlexNet le reti neurali sono diventate dal 2012 quasi sinonimo di AI, imponendosi come paradigma dominante.
In un post su X[2] (ex Twitter) LeCun dichiara: «per favore ignorate il diluvio di completi nonsense su Q*». Possiamo, in prima battuta, spiegare con un paio di esempi la motivazione di fondo per cui LeCun ha sicuramente ragione: sia su Q*, chein generale su qualunque illazione che intenda predire un futuro distopico con l’evoluzione dei paradigmi attuali di AI. In seconda battuta cercherò di chiarire cosa potrebbe essere Q* nella sua lettura delle poche notizie che sono trapelate.
Szegedy et al. (2013) riferiscono gli esiti dell’«attacco avverso» che hanno condotto proprio su AlexNet: l’esperimento di hackeraggio «benevolo» sulla piattaforma di riconoscimento automatico delle immagini si propone di verificare quale sia il grado di comprensione che il software riesce a ricavare dalla percezione delle illustrazioni che gli vengono sottoposte, attraverso l’inserimento di un «rumore informativo» costituito da alcuni pixel inseriti nel corpo delle figure osservate.
L’immagine sulla sinistra è quella originale, classificata in modo corretto dall’intelligenza artificiale; quella sulla destra è stata ottenuta attraverso la modifica di alcuni pixel, che non la mutano affatto al giudizio di un occhio umano. AlexNet tuttavia classifica tutte le varianti di destra come «struzzo», attribuendo al nuovo giudizio un grado di affidabilità maggiore rispetto a quello con cui era stata stabilita la valutazione esatta nella versione di sinistra. Ho già mostrato in Bottazzini (2023) come questo risultato possa essere letto sullo sfondo di uno dei dibattiti filosofici più controversi dal Seicento ai nostri giorni: il cosiddetto «Problema Molyneux». Qui basti osservare che l’errore non può essere giustificato come un bug del sistema, o come un difetto che sarà rimosso dall’espansione della potenza di calcolo futura del software.
In nessun caso un’intelligenza – cioè una forma di comprensione della realtà – che aspiri a somigliare a quella umana può ritenere attendibile che un tempio, o uno scuolabus, o un cane, si tramutino di colpo in uno struzzo.
Anche in caso di illusione ottica o miraggio, lo scostamento dalla percezione corretta è solo temporaneo, e la normalità viene ristabilita con un riesame che restituisce il focus dell’impressione al contesto in cui deve essere collocato.
La realtà viene ristabilita nel campo visivo attraverso l’insieme delle operazioni cognitive non tematizzate, che la tradizione fenomenologica definisce intenzionalità fungente (si pensi per esempio a Merleau-Ponty (1945)), da cui si genera il senso del mondo in cui stiamo agendo, nella sua complessità e in ciascuno dei suoi dettagli.
Searle (1995) le definisce competenze di Sfondo: senza alcuna consapevolezza, permettono di viaggiare in autostrada senza domandarci se lo scuolabus che stiamo per superare subirà una metamorfosi improvvisa in uno stormo di struzzi, se il tempio che stiamo contemplando nel mezzo di una vacanza afosa si dissolverà in un vortice di ali sbattute e di piume svolazzanti, o se il cane dei vicini stia deponendo un uovo nel nostro salotto, convertito in un lembo di savana dietro la porta socchiusa.
Gli eventi che sperimentiamo emergono da un orizzonte che rimane stabile, e che regolarizza senza posa i fenomeni con cui interagiamo, perché noi abbiamo un mondo, per usare la concettualizzazione di Heidegger (1983), al contrario delle AI che invece non ne hanno uno (come il resto dei minerali).
In ChatGPT-4 (2023) l’intelligenza artificiale di OpenAI ha stilato una cronaca dell’evoluzione dell’AI e una serie di indicazioni sulla struttura dei principali tipi di software, con un censimento dei personaggi e dei saggi più rilevanti del percorso. Nel §7.3 si presenta un pappagallo stocastico o allucinazione molto illuminante: ChatGPT cita il testo La questione dell’autonomia: gli agenti artificiali possono essere autonomi e avere libero arbitrio? che Mario Rossi avrebbe pubblicato nel 1995: il libro non esiste, né esiste un Mario Rossi in quanto autore del trattato – ma in ogni caso anche il più somaro degli studenti avrebbe evitato di attribuire a questo volume citazioni da Dennett (2003), o descrizioni della partita tra AlphaGo e Ke Jie, disputata nel 2017.
Le intelligenze artificiali sono macchine che calcolano probabilità, soppesando migliaia di miliardi di parametri per ogni passaggio, e rintracciando in questo modo pattern di relazioni che possono sfuggire a sensibilità e misurazioni dell’uomo. AlexNet stima il grado di probabilità che la distribuzione dei pixel nell’immagine possa essere categorizzata con una certa etichetta; ChatGPT conta la probabilità che una certa parola venga subito dopo quella appena stampata, spaziando su 1.700 miliardi di variabili ad ogni nuovo lemma aggiunto alla frase.
Ma nessuna delle due macchine ha la minima idea di cosa stia guardando o di cosa stia dicendo; anzi, non sa nemmeno di stare percependo o affermando qualcosa.
Il cammino verso l’intelligenza, nel senso effettivo di questa parola, non ha mosso ancora il primo passo.
I paradigmi di sviluppo con cui sono state progettate e costruite le AI fino a oggi, non sono in grado di disegnare un’intelligenza che viva in un mondo dotato di senso; quindi nessuna di loro potrà maturare qomplotti contro di noi, né oggi né in alcun futuro possibile; almeno finché non saremo capaci di ideare un nuovo paradigma di programmazione in grado di superare i limiti di oggi.
L’intelligenza non è una proprietà emergente di un sistema di calcolo che oggi non sarebbe ancora abbastanza potente per lasciar affiorare l’homunculus dotato di pensiero e coscienza autonomi, per ora nascosto nelle viscere dei processori e delle schede madri in attesa di tempi migliori. La quantità di parametri sottosposti al processo di calcolo da parte di ChatGPT si è moltiplicata per un fattore 1.000 a ogni nuova generazione del software; ma l’artefatto è stato in grado di articolare testi sempre più lunghi e complessi, mai di capire anche solo una parola di quello che andava componendo.
L’emergenza dell’intelligenza dall’espansione della capacità di calcolo, come l’emergenza del mondo trasformato in graffette, sono utopie e distopie che vivono solo nell’immaginazione di Bostrom e degli altri (numerosi) teorici dell’esplosione dell’AI.
L’intelligenza non somiglia ai comportamenti aggregati della società, o degli sciami di api, o degli stormi di struzzi; commercia invece con una donazione di senso del mondo e degli eventi, che al momento non abbiamo la minima idea di come ingegnerizzare.
È il dominio della lebenswelt da cui secondo Habermas (1981) siamo in grado di lasciar emergere gli aspetti pertinenti per le decisioni sull’azione, senza sapere da dove provengono i contenuti che stiamo tematizzando e che compongono il materiale di dibattito con gli altri – ma che ogni volta siamo in grado di selezionare con una sorta di tropismo verso la verità.
Senso e intelligenza non si nutrono della fugacità con cui si aggregano e dileguano le orme degli sciami di insetti e di uccelli: sono la struttura stessa che rende possibile la società degli uomini e il processo illimitato di interpretazione del mondo e degli altri che si chiama cultura. No lebenswelt, no qomplotto.
Yann LeCun ritiene che Q* debba essere il nome di un progetto che ha raggiunto qualche risultato utile nelle procedure di apprendimento con rinforzo (reinforcement learning), che è il modello di training applicato a ChatGPT. Si consideri che uno degli algoritmi più diffusi in questo ambito si chiama Q-learning, mentre A* è il nome di un importante algoritmo per l’individuazione del percorso più efficace tra due nodi di una rete. Q* potrebbe quindi individuare un algoritmo capace di ottimizzare il processo di apprendimento introducendo un metodo di pianificazione nelle operazioni con cui la rete neurale riequilibra i pesi delle unità di elaborazione, dopo il giudizio che il formatore umano ha espresso al termine di ogni nuova prestazione.
In altre parole, Q* consisterebbe in un dispositivo di ottimizzazione dei calcoli probabilistici con cui l’intelligenza artificiale stima l’occorrenza del prossimo lemma che deve introdurre nella frase, o dell’etichetta che deve stampare come didascalia dell’immagine.
Se siete delusi da questa interpretazione di Q*, siete degli altruisti efficaci.
2. UN MONOPOLIO DELL’AI
Lo Sciamano ha guidato una farsa di guerra civile nelle stanze del Campidoglio; ma anche chiedere ai filosofi – soprattutto se sono altruisti efficaci – di condurre un colpo di stato nella governance di un’impresa miliardaria non è una buona idea.
Dopo aver licenziato Sam Altman il 18 novembre, il CDA di OpenAI non ha rilasciato alcuna dichiarazione né alla stampa, né a Satya Nadella, CEO del benefattore Microsoft. Non ha chiarito le ragioni della decisione nemmeno a Mira Murati, nominata CEO ad interim, e non ha risposto a Greg Brockman, presidente della società, quando questi si è dimesso in solidarietà con Altman.
Oltre 730 dipendenti di OpenAI (su 770 complessivi) hanno firmato una lettera il 20 novembre in cui si dichiaravano pronti a lasciare l’azienda se Altman non fosse stato reintegrato; ma anche questa comunicazione non ha ricevuto risposta. Visto che Mira Murati era arruolata nella lista dei dimissionari, è stata sostituita con Emmet Shear. Il disastro di gestione e di comunicazione del board si è risolto il 22 novembre, in obbedienza alle riflessioni meditate attorno alla scrivania di Nadella[3]: «diamo l’incarico di gestione a degli adulti, torniamo a ciò che avevamo».
Altman e Brockmann sono rientrati ai loro posti in OpenAI, mentre il CDA è stato sciolto e ne è stato convocato uno nuovo.
La stupidità del panico per un mondo di graffette ha finito per lasciare le mani libere all’implementazione del Copilot su Office. Agli altruisti efficaci non sono bastati nemmeno i proclami e l’allarmismo suscitato da Altman in prima persona, che invece sa calcolare molto bene gli effetti delle sue dichiarazioni. Il CEO di OpenAI non ha mai risparmiato la sua voce, anche se con meno enfasi di quella di Elon Musk, per sottolineare i rischi futuri dell’intelligenza artificiale. L’ultima volta è accaduto il 30 maggio 2023 con una lettera aperta[4] in cui si elencano i pericoli riconducibili agli usi dell’AI volti a produrre e diffondere informazioni false in qualunque formato.
Yann LeCun, ancora lui, invita a sospettare sia della propaganda «lungotermista» di Musk e degli altri altruisti efficaci, sia della sollecitudine con cui Altman esorta a riflettere sui rischi dei prodotti di cui è egli stesso responsabile.
L’AI Safety Summit, che si è tenuto a Londra per volere del premier britannico Rishi Sunak e a cui hanno partecipato i leader di ventotto paesi (tra cui l’Italia), è stato in realtà dominato da figure come quella di Elon Musk – che ha duettato in un evento mediatico l’ultima sera con il Primo Ministro di Sua Maestà.
L’obiettivo di tutti questi soggetti è convincere la classe politica dell’esistenza di rischi catastrofici connessi allo sviluppo dell’intelligenza artificiale, da cui sarebbero al riparo solo le imprese che essi controllano.
«Dobbiamo stare attenti a evitare che queste minacce facciano pensare alla politica che sia un pericolo mettere l’intelligenza artificiale nelle mani di tutti e che quindi si impedisca, tramite regolamentazioni, che lo sviluppo di questa tecnologia sia open source», avverte LeCun[5].
La soluzione originaria di OpenAI era quella giusta, ma l’azienda ha virato senza che i controllori prestassero attenzione al rischio reale che si nascondeva sotto lo spauracchio delle graffette. Lo spettro di Clippy si aggirerà per Copilot, ma stavolta sarà molto più accorto.
Aggiunge LeCun: «Immagina un futuro in cui tutte le nostre azioni saranno mediate dall’intelligenza artificiale. Se questi sistemi saranno chiusi e controllati da un piccolo numero di aziende tecnologiche californiane, allora ci esponiamo a rischi enormi. Potrebbero per esempio usare la loro influenza per modificare la cultura o le opinioni politiche delle persone. Di conseguenza abbiamo bisogno di un sistema aperto e open source che permetta di creare applicazioni specifiche basate su di esso».
È ora che gli intellettuali tornino a essere adulti, e ricomincino a farsi carico di problemi seri.
BIBLIOGRAFIA
Bottazzini, Paolo (2023), Nella caverna di ChatGPT, in ChatGPT-4, Imito, dunque sono?, Milano, Edizioni Bietti, 2023, pagg. 44-45.
ChatGPT-4 (2023), Imito, dunque sono?, Milano, Edizioni Bietti, pagg. 166-167.
Dennett, Daniel (2003), Freedom Evolves, New York, Viking Books.
Habermas, Jürgen (1981), Theorie des kommunikativen Handelns, Francoforte, Suhrkamp, cap.1.
Heidegger, Martin (1983), Die Grundbegriffe der Metaphysik : Welt, Endlichkeit, Einsamkeit, Francoforte, Klostermann, Parte II, cap. 2.
Merleau-Ponty, Maurice (1945), Phénoménologie de la perception, Parigi, Gallimard; trad. it. a cura di Andrea Bonomi, Fenomenologia della percezione, Milano, Bombiani, 2003: cfr. in particolare Premessa, pag. 27.
Mitchell, Melanie (2019), Artificial Intelligence: A Guide for Thinking Humans, New York, Farrar, Straus and Giroux, cap. 5.
Searle, John (1995), The Construction of Social Reality, New York, Free Press, cap. 6.
Szegedy, Christian, Zaremba, Wojciech, Sutskever, Ilya, Bruna, Joan, Erhan, Dumitru, Goodfellow, Ian, Fergus, Rob (2013), Intriguing Properties of Neural Networks, «arXiv», preprint arXiv:1312.6199.
NOTE
[1] https://www.reddit.com/r/singularity/comments/181oe7i/openai_made_an_ai_breakthrough_before_altman/?rdt=54043
[2] https://twitter.com/ylecun/status/1728126868342145481
[3] https://www.newyorker.com/magazine/2023/12/11/the-inside-story-of-microsofts-partnership-with-openai
[4] https://www.safe.ai/statement-on-ai-risk#open-letter
[5] https://www.wired.it/article/intelligenza-artificiale-yann-lecun-meta/
Il dono - Anatomia di una consuetudine, tra libertà e obbligo
Perché ci scambiamo regali? Cosa facciamo, di preciso, quando doniamo? Cosa significa “donare”?
Questi sono interrogativi che ci poniamo di rado, in quanto vediamo l’atto di donare, soprattutto durante una festività, come qualcosa di ovvio e indubitabile; tuttavia, dietro a consuetudini tanto ordinarie e (apparentemente) libere come scambiarci dei regali durante una ricorrenza, esistono meccanismi sotterranei e invisibili, i quali nascondono l’architettura interna di una società.
Per investigare le dinamiche sociali che intervengono nelle pratiche di dono, in questo articolo studieremo le riflessioni di un pensatore di grande importanza: il sociologo francese Marcel Mauss (1872-1950). Esamineremo, in particolare, alcune sezioni di una delle sue opere principali, il Saggio sul dono.
Grazie a questo autore, capiremo come l’habitus di donare non sia solo “nostro”, e che all’interno di altre culture agiscono meccanismi nei quali possiamo identificarci; nel nostro viaggio, pertanto, conosceremo qualcosa di più sia su popolazioni lontane, sia sulla nostra stessa società.
MAUSS E IL “FATTO SOCIALE TOTALE”
Per cogliere al meglio i ragionamenti che analizzeremo a breve, dobbiamo ora soffermarci su un’idea di fondamentale importanza sociologica: il “fatto sociale totale”. Con questo concetto si indica che alcuni organismi sociali sono talmente generali e pervasivi da permettere di spiegare interamente la cultura di un popolo, nonostante siano eventi particolari.
Mauss, nel Saggio sul dono, afferma: «in questi fenomeni sociali “totali”, […], trovano espressione, a un tempo e di colpo, ogni specie di istituzioni: religiose, giuridiche e morali – queste ultime politiche e familiari nello stesso tempo –, nonché economiche […]; senza contare i fenomeni estetici ai quali mettono capo questi fatti e i fenomeni morfologici che queste istituzioni rivelano»[1].
IL SAGGIO SUL DONO
Il Saggio sul dono, testo fondamentale di Mauss, è stato pubblicato sul primo numero della nuova serie dell’Année Sociologique[2], datata 1923-1924.
L’introduzione è intitolata “Del dono e, in particolare, dell’obbligo di ricambiare i regali”, e inizia con un’epigrafe che riporta alcuni versi dell’Havamal, un poema facente parte dell’Edda scandinava[3]; in particolare, le strofe riportate trattano l’importanza di donare per instaurare e mantenere rapporti sociali e d’amicizia. Questo passaggio iniziale permette all’autore di introdurre il tema principale del libro, indicato come “Programma”: «nella civiltà scandinava e in un buon numero di altre, gli scambi e i contratti vengono effettuati sotto forma di donativi, in teoria volontari, in realtà fatti e ricambiati obbligatoriamente»[4]. Infatti, sotto un’apparenza di disinteresse e generosità, al fondo delle pratiche di dono possiamo trovare «finzione, formalismo e menzogna sociale e, […], obbligo e interesse economico»[5].
Inoltre, Mauss specifica il “fatto sociale totale”, mettendo subito in chiaro che il dono è una delle sue manifestazioni.
Tlingit e Haida
Successivamente, l’autore esamina il caso dei Tlingit e degli Haida, due tribù abitanti la zona nord-occidentale del continente americano; presso di loro e in tutta l’area si riscontra un caso molto particolare di prestazione totale sotto forma di doni: il potlatch.
La specificità di questa cerimonia consiste non tanto in distribuzione di ricchezza ma nella sua distruzione, in quanto le popolazioni che praticano riti potlatch gareggiano senza sosta nello sperpero di beni di prestigio, conquistando tanta superiorità sociale quanto più si dimostrano inclini a privarsi di oggetti di valore, in una continua lotta di disfacimento dalla quale si arriverà a decretare il clan superiore, quello con maggior prestigio nella gerarchia sociale.
Tali fenomeni investono la vita collettiva di tutta la tribù e, nel Saggio sul dono, viene puntualizzato che siamo di fronte a «prestazioni totali di tipo agonistico»[6].
Polinesia
Proseguendo nella sua trattazione, Mauss si concentra poi sull’analisi del dono in Polinesia, affermando che in questi territori non esiste un potlatch compiuto come nel nord-ovest americano; ci sono certamente prestazioni sociali totali organizzate secondo dinamiche di dono ma, a suo dire, non sembrano andare oltre questo primo momento, non sfociando mai, cioè, nella competizione agonistica e nella rivalità esagerata.
Tuttavia, qui Mauss sembra trovare la soluzione al perché si debba obbligatoriamente ricambiare i regali ricevuti: lo hau, o «lo spirito della cosa donata»[7]. È importante specificare che in Polinesia gli oggetti personali, i taonga, sono strettamente legati ai proprietari, veicoli della loro forza spirituale o mana. Lo hau, dunque, è un’energia magica di cui tutti i taonga, proprio in virtù della loro stretta connessione col possessore, sono come imbevuti; quando uno di questi beni viene donato, trasmette con sé una parte sostanziale di chi lo regala, in quanto «la cosa ricevuta non è inerte. Anche se abbandonata dal donatore, è ancora qualcosa di lui»[8]. Al ricevente viene pertanto trasferito un vincolo spirituale, un obbligo che lo costringe a ricambiare il dono, pena la distruzione dell’individuo stesso; secondo la credenza maori è proprio lo hau che desidera tornare al suo luogo d’origine, e ciò può avvenire solo attraverso un controdono.
Tali considerazioni ci fanno quindi capire che «nel diritto maori, il vincolo giuridico, vincolo attraverso le cose, è un legame di anime, perché la cosa stessa ha un’anima, appartiene all’anima»[9].
Dare, ricevere, ricambiare
A questo punto dell’opera, Mauss spiega la propria catena “dare, ricevere, ricambiare”. Il fatto totale, a suo dire, non solo implica l’obbligo di ricambiare i regali, ma ne determina altri due, di pari livello: da una parte, l’individuo deve necessariamente donare, mentre, dall’altra, il ricevente è costretto ad accettare il regalo. Infatti, «rifiutarsi di donare, […], così come rifiutare di accettare equivalgono ad una dichiarazione di guerra; è come rifiutare l’alleanza e la comunione»[10].
Tlingit, Haida e Kwakiutl
Tornando ai casi del nord-ovest americano, Mauss approfondisce ora lo studio del potlatch; afferma che presso le popolazioni interessate non esiste forma di scambio diversa da questo cerimoniale di distruzione. In particolare, le tribù prese in esame sono, da una parte, i sopraccitati Tlingit e Haida, abitanti sulle coste canadesi e dell’Alaska, mentre dall’altra vengono analizzati i Kwakiutl, stanziati nella regione canadese della Columbia Britannica e sull’Isola di Vancouver.
Come sappiamo, il potlatch è un esempio di “fatto sociale totale” di tipo agonistico, e viene da Mauss indicato, nei suoi fondamenti, come un semplice sistema di scambio di doni; tuttavia, esso rappresenta un caso etnografico molto interessante, per via della violenza e degli esagerati antagonismi che stimola.
Credito e onore
Per quanto riguarda i meccanismi sociali che sottendono il potlatch, Mauss ne identifica due: il credito e l’onore.
Il primo termine in Europa ha un significato essenzialmente economico ma lo possiamo trovare, con una diversa semantica, anche presso popolazioni e culture non europee. L’autore ritiene che il dono sia collegato al credito, specificando inoltre che «la natura peculiare del dono è […] di obbligare nel tempo»[11]; infatti, i doni non possono essere ricambiati immediatamente (come in un comune scambio di beni) ma in un momento successivo, secondo una dialettica che coinvolge un creditore e un debitore.
La seconda nozione che abbiamo menzionato è quella di onore. Nei potlatch, oltre agli oggetti, vengono messi in gioco il prestigio, la “faccia” di un capo e di tutto il suo clan, in un continuo torneo nel quale «consumazione e distruzione sono veramente senza limiti. In certi potlàc bisogna dare tutto ciò che si possiede, senza conservare niente. Si gareggia nel dimostrarsi i più ricchi e i più follemente prodighi»[12].
Il potlatch in dettaglio
A questo punto, Mauss approfondisce le motivazioni del rituale ed elenca le strutture comunitarie coinvolte. Il potlatch è una cerimonia religiosa, in quanto vengono rappresentati gli dèi e gli antenati attraverso danze e rituali sciamanistici, detiene inoltre un carattere economico, poiché possiamo osservare transazioni di beni di valore anche molto elevato, e costituisce infine un’istituzione di morfologia collettiva, perché i vari gruppi hanno la possibilità di incontrarsi ed esprimere i propri organismi sociali.
L’autore legge poi i dati sul potlatch attraverso la catena “dare, ricevere, ricambiare”, collegandola a tale fenomeno punto per punto.
«L’obbligo di dare è l’essenza del “potlàc”»[13]. Il primo dovere impone a un capo di organizzare questa competizione, sia per i vivi che per i morti, per conservare il proprio rango nella comunità, il suo “blasone”. Invitando gli avversari alla sfida, un leader dimostra la propria forza, in virtù del fatto che «il potlàc, la distribuzione dei beni, è l’atto fondamentale del “riconoscimento” militare, giuridico, economico, religioso»[14]; se un capo non allestisce delle lotte cerimoniali perde il proprio prestigio, l’autorità e l’onore di fronte al suo clan e a quelli rivali. Assumersi questa responsabilità è tassativo: un leader deve invitare gli avversari e dimostrare la propria ricchezza, distribuendola o distruggendola, per elevare la tribù e umiliare i contendenti, «mettendoli all’“ombra del suo nome”»[15]. Se non organizza tali manifestazioni di superiorità, dunque, rischia di perdere tutto ciò che possiede e di non essere riconosciuto all’interno e all’esterno del proprio clan. Mauss racconta che «di uno dei grandi capi mitici, che non usava dare potlàc, si dice che aveva la “faccia marcia”»[16], e precisa che «nel Nord-ovest americano, […], perdere il prestigio è proprio come perdere l’anima: ciò che veramente viene messo in gioco, ciò che si perde al potlàc, o al gioco dei doni, così come in guerra o per una colpa rituale, è la “faccia”, la maschera di danza, il diritto di incarnare uno spirito, di portare un blasone, un totem, è la persona»[17].
«L’obbligo di ricevere non è meno forte. Non si ha il diritto di respingere un dono, di rifiutare il potlàc»[18]. Il secondo anello della catena impone al donatario di accettare l’invito, di partecipare alla gara; una rinuncia dimostrerebbe timore, sottomissione e povertà, ovvero non possedere ricchezze sufficienti per poter entrare nel gioco dei doni. Un rifiuto equivale quindi a una sconfitta totale, con la grave conseguenza di perdere il proprio nome e il proprio potere. Un caso particolare prevede la possibilità per un capo di ricusare un invito senza le pesanti ripercussioni sociali descritte: nel caso in cui abbia offerto, in passato, dei potlatch dai quali ne è uscito vincitore. Tuttavia, tale rinuncia è solo temporanea, in quanto l’individuo che attua questa scelta è comunque obbligato a organizzare feste più ricche di quella che ha respinto.
«L’obbligo di ricambiare è tutto il “potlàc” nella misura in cui non consiste in una mera distruzione»[19]. Il terzo momento chiude il cerchio. Mauss riporta che il potlatch deve essere ricambiato a usura, secondo un tasso di interesse che può raggiungere il 100%. Se un capo non può contraccambiare perde non solo la propria autorità ma anche lo status di uomo libero, poiché «la sanzione dell’obbligo di ricambiare è la schiavitù per debiti»[20].
IL WELFARE SOCIALE COME DONO: UNA CRITICA ALL’HOMO OECONOMICUS
La parte finale del Saggio sul dono si apre con questo ragionamento: «le osservazioni che precedono possono essere estese alle nostre società»[21]; la sezione conclusiva dell’opera è infatti incentrata sull’analisi delle dinamiche di dono all’interno della cultura europea moderna. Secondo Mauss, «una parte considerevole della nostra morale e della nostra stessa vita staziona tuttora nell’atmosfera del dono, dell’obbligo e, insieme, della libertà»[22]; non tutto, pertanto, è ridotto ai soli termini del mercato economico: egli crede che «le cose hanno ancora un valore sentimentale oltre al loro valore venale»[23].
L’autore era socialista e osserva con gioia la realizzazione di ciò che chiama «socialismo di Stato»[24]. Esamina come l’istituzione governativa si prenda cura dei bisogni del lavoratore, spiegando anche questo passaggio storico in un’ottica di dono; infatti, poiché il dipendente, attraverso la propria fatica, ha offerto sé stesso alla comunità e al suo datore di lavoro, è dovere dello Stato ricambiare, in quanto moralmente in debito verso il proprio occupato, attraverso la concessione di «una certa sicurezza durante la vita contro la disoccupazione, la malattia, la vecchiaia, la morte»[25].
Dal punto di vista economico, Mauss riflette inoltre su come il dono sia molto diverso dall’utilitarismo, in quanto ciò che in una comunità è davvero importante non si lascia inquadrare nelle astrazioni e nei calcoli degli economisti. Per esempio, nelle culture indigene studiate nel Saggio esistono sicuramente concetti come quello di valore e di bene prestigioso, ma tali denominazioni non hanno alcuna affinità col sistema di mercato occidentale; oltre a ciò, presso queste popolazioni la circolazione dei beni è legata all’aspetto religioso e mitologico, peculiarità assenti nel nostro sistema di mercato. La polemica di Mauss si concentra così contro l’economicismo che vuole inglobare la totalità del reale. Le considerazioni sul dono e sulle società indigene mostrano l’impossibilità di questo progetto totalizzante: «a più riprese, si è visto quanto il sistema economico dello scambio-dono fosse lontano dal rientrare nel quadro dell’economia cosiddetta naturale, dell’utilitarismo»[26]. L’essere umano come “animale economico” sarebbe una costruzione recente ancora non totalmente realizzata, e lo stesso autore scrive che «l’homo oeconomicus non si trova dietro di noi, ma davanti a noi»[27], aggiungendo che «l’uomo è stato per lunghissimo tempo diverso, e solo da poco è diventato una macchina, anzi una macchina calcolatrice»[28].
In conclusione, secondo Mauss il dono rappresenta il fondamento sociale primitivo, poiché rendeva possibile lo scambio e la reciprocità prima ancora che potesse esistere il mercato propriamente detto; inoltre, il dono è quel fenomeno che, in virtù della sua capacità di instaurare legami, ha permesso di creare delle società pacifiche ed equilibrate, dove si è potuto deporre le armi e avviare processi commerciali, generando così ricchezza e benessere. Mauss ritiene infatti che «le società hanno progredito nella misura in cui esse stesse, i loro sottogruppi e, infine, i loro individui, hanno saputo rendere stabili i loro rapporti, donare, ricevere e, infine, ricambiare.
Per potere commerciare, è stato necessario, innanzitutto, deporre le lance.
Solo allora è stato possibile scambiare i beni e le persone, non più soltanto da clan a clan, ma anche fra tribù e tribù, fra nazione e nazione e – soprattutto – fra individui e individui»[29].
BIBLIOGRAFIA
– Mauss, M., Essais sur le don, Paris, PUF, 1950. Trad. it. Saggio sul dono. Forma e motivo dello scambio nelle società arcaiche, trad. di Franco Zannino, intr. di Marco Aime, Torino, Einaudi, 2002.
PER APPROFONDIRE
– Boas, F., The Social Organization and the Secret Societies of the Kwakiutl Indians, Washington, US National Museum, 1897. Trad. it. L’organizzazione sociale e le società segrete degli indiani Kwakiutl, trad. di Christina Scarmato, pref. e cura di Enrico Comba, Roma, Centro Informazione Stampa Universitaria (CISU), 2001.
NOTE
[1] Marcel Mauss, Saggio sul dono, trad. it., Torino, Einaudi, 2002, p. 5.
[2] Rivista di sociologia fondata da Émile Durkheim (1858-1917), zio di Mauss e anch’egli sociologo.
[3] Edda, canti dell' nell'Enciclopedia Treccani - Treccani - Treccani
[4] Marcel Mauss, op. cit., p. 4.
[5] Ivi, p. 5.
[6] Ivi, p. 10. Corsivi dell’autore.
[7] Ivi, p. 13. Corsivi dell’autore.
[8] Ivi, p. 15.
[9] Ivi, p. 16.
[10] Ivi, p. 17.
[11] Ivi, p. 44.
[12] Ivi, p. 45. Corsivo dell’autore.
[13] Ivi, p. 48. Corsivi dell’autore.
[14] Ivi, p. 50. Corsivo dell’autore.
[15] Ivi, p. 48.
[16] Ibidem. Corsivo dell’autore.
[17] Ibidem. Corsivi dell’autore.
[18] Ivi, p. 50. Corsivi dell’autore.
[19] Ivi, p. 51. Corsivi dell’autore.
[20] Ivi, p. 52.
[21] Ivi, p. 80.
[22] Ibidem.
[23] Ibidem.
[24] Ivi, p. 83.
[25] Ibidem.
[26] Ivi, p. 88.
[27] Ivi, p. 94. Corsivi dell’autore.
[28] Ivi, p. 95.
[29] Ivi, p. 102.
La memoria e la sua corruzione nell’era digitale - A confronto con il pensiero di Platone
Immagine: Incendio della Public Library di Los Angeles del. 29 aprile 1986
Se ancora oggi Platone viene inquadrato come filosofo sradicato dalla concretezza del mondo e proiettato nell’Iperuranio, ciò è dovuto perlopiù alla ormai superata (ma ancora presente) visione diffusa dalla formazione scolastica ordinaria. Invece, la filosofia di Platone è profondamente radicata nel mondo fisico e materiale.
Della “memoria”, in Platone, è noto che ve ne sia un genere immortale, il quale provvede alla reminiscenza (anamnesis) degli oggetti intelligibili. Meno noto e poco esplicito nei dialoghi è invece l’altro genere, quello della memoria “mortale” (non è questo il termine platonico), inteso come proprio della condizione incarnata dell’Anima immortale in un vivente (zoòn).
La Memoria (mneme) è una delle facoltà dell’anima, quella di imprimere, tracciare o racchiudere nella forma di ricordo (hypomnema) le informazioni che otteniamo da oggetti incontrati attraverso l’esperienza empirica. Essa è l’insieme di ciò che si è sedimentato nell’anima a partire dalle sensazioni memorabili, prodotte dall’esperienza, che facciamo di oggetti che esistono fisicamente nel mondo empirico (il processo completo è esposto nel discorso fisiologico contenuto nel Timeo[1]).
Il tema che ci interessa indagare in questo post è quello della “volatilità” del sapere in Platone, per produrre nuovi spunti di riflessione utili nel dibattito odierno.
La reminiscenza (anamnesis) è un’operazione prodotta dalla sola Anima immortale. Più propriamente essa è una forma del ri-memorare oggetti visti nella condizione disincarnata. L’operazione dell’apprendimento (mathesis) di nozioni avviene, invece, durante la vita e il contenuto di una memoria “mortale” (il ricordo) può dissolversi irrimediabilmente. La memoria nella sua totalità cessa definitivamente la propria esistenza con la morte del vivente che lo possiede, perciò con lo scioglimento dei vincoli tra l’anima e il corpo.
----------
In primo luogo possiamo affermare l’esistenza di una memoria “mortale” nel pensiero di Platone poiché non ci è pervenuta nessuna testimonianza o accenno a proposito della possibilità di reminiscenza di ricordi appartenenti a vite passate - come invece è presente nelle dossografie pitagoriche[2], che Egli conosceva e custodiva gelosamente nella propria biblioteca. In secondo luogo, nei dialoghi che affrontano problemi legati sia alla reminiscenza che alla metempsicosi, troviamo l’idea che a ogni nuova incarnazione debba esservi un “reset” della memoria in relazione alla vita empirica (si veda nello specifico il “Mito di Er”[3])
Parrebbe anche che, sul piano mortale, le conoscenze pratiche e dell’esperienza empirica siano più durevoli rispetto a quelle epistemologicamente superiori (“scientifiche”) del filosofo o del matematico (che hanno come proprio oggetto ultimo gli intelligibili).
Questo lo si può dedurre in particolare da un passo del prologo drammaturgico del Timeo. Qui Crizia il Giovane riporta un racconto che apprese da bambino, in cui Solone incontrò in Egitto un sacerdote che così affermava:
«“Siete tutti giovani d’animo (voi greci)”, rispose il sacerdote, “perché non avete nelle vostre anime nessuna opinione antica trasmessa attraverso una tradizione che proviene dal passato né alcun sapere ingrigito dal passare del tempo».
Prosegue poi con la motivazione di questa brevità della memoria collettiva dei greci:
«ogni cosa viene registrata, fin dall’antichità, nei nostri templi e conservata alla memoria», mentre in Grecia «a intervalli regolari di tempo, come una malattia, torna il flusso del cielo che vi inonda e non lascia illesi fra voi che gli illetterati e i nemici delle Muse (gli incolti), sicché ricominciate nuovamente dal principio, come tornati giovani». Per di più, aggiunge il sacerdote: «nel corso di molte generazioni, i sopravvissuti sono morti senza aver fissato la loro voce nella scrittura». (Tim. 22 d – e)
In questo passo possiamo individuare almeno sei punti ri-attualizzabili al giorno d’oggi:
- la scrittura esprime qui il suo ruolo di strumento tecnico corruttibile ma preservabile dalla distruzione, perciò tramandabile;
- la scrittura è uno strumento tecnico ausiliario, che richiede una stabilità materiale continuativa della società per essere mantenuto e motivato nell’uso ordinario;
- il vivente mortale, se non ha né la possibilità né la premura di tramandare il prodotto della propria conoscenza, non conserverà un sapere collaudato da mettere a disposizione dei posteri;
- la condizione del dopo-catastrofe è analoga a un “momento zero” della memoria mortale, un “cominciare nuovamente da principio”;
- i saperi pratici “degli illetterati e degli incolti” sopravvivono più facilmente rispetto a quelli di filosofi e scienziati, propedeutici a porre le basi di quella stabilità materiale che rende possibile l’accumulo del sapere;
- l’accumulo di un sapere avanzato e complesso, come quello “scientifico” (episteme), non è necessario alla vita, ma è un “in più”.
Platone ci indica anche che, quando si sia memorizzata un’informazione, la sua durevolezza dipenderà non solo dalle condizioni in cui il suo proprietario la custodisce e preserva, ma anche da come egli l’ha ottenuta. Ad esempio, Crizia il Giovane racconta una storia di cui ha acquisito un ricordo “vivido”, in quanto giovane, attento e partecipativo nel momento del suo apprendimento[4]. Un caso diverso è invece quello di Fedro che, nel dialogo omonimo, deve confrontarsi con un’opera scritta che necessita di rileggere più volte per ricordarla “alla lettera” al fine di tenere il proprio discorso[5].
Nel primo caso, quello di Crizia, la qualità del ricordo è dovuta alle caratteristiche che contraddistinguono il momento in cui egli ha appreso un’informazione, ossia la pregnanza dell’esperienza di apprendimento. Nel secondo caso, quello di Fedro, la qualità della formazione del ricordo sarà dovuta all’ausilio di strategie mnemotecniche, quali la rilettura e la ripetizione a voce alta.
Per concludere, il problema della conservazione, del tramandare e della possibile perdita della memoria (nel senso più ampio che comprende storie, tradizioni, tecniche e conoscenze) è un fenomeno oggi ancora più complesso.
In particolare se guardiamo al fenomeno di progressiva sostituzione dei mezzi di trasmissione “tradizionali” dell’oralità e della scrittura manuale in favore della digitalizzazione dell’informazione.
Quante tipologie e forme di “memoria” abbiamo a oggi sviluppato e quali si stanno depotenziando o stanno scomparendo?
Quante forme della scrittura possediamo e quali competenze sono necessarie per farne uso?
Quanti livelli di linguaggio e quante forme di linguaggio esistono per la sola codificazione informatica dell’informazione?
Quali i pericoli a cui si espone la loro conservazione?
Ai cataclismi menzionati dal sacerdote egizio che ha incontrato Solone, evidentemente presenti e comunque imprevedibili ancor oggi, quali si aggiungono?
---------
Ovviamente, sono domande complesse che richiedono risposte altrettanto articolate. Ad esempio, per i supporti di archiviazione digitale, da cui oramai dipendiamo largamente, sono deleteri i fenomeni elettrici, magnetici ed elettromagnetici, i quali sono tutti in grado di cancellare, corrompere o rendere inaccessibili, se non addirittura irrecuperabili, le informazioni registrate.
La stessa obsolescenza delle tecnologie e delle tecniche di conservazione e riproduzione dell’informazione, giorno per giorno avvia verso la fine la riproducibilità delle precedenti forme di “memoria”, sia collettiva che individuale (foto, video, documenti, scansioni di immagini, etc.). Gli attuali dispositivi che possediamo saranno sempre meno reperibili con l’avanzare di nuove tecnologie e dei relativi sistemi che ne permettono il funzionamento?
I dispositivi attualmente in uso, per quanto collaudati, non saranno un giorno più compatibili con quelli più avanzati, per protocolli di scrittura e lettura?
Saranno reperibili le tecnologie di giunzione che permettono di interfacciare fisicamente vecchi e nuovi dispositivi di archiviazione di memoria?
Le tecnologie di traduzione e conversione reciproca tra vecchi e nuovi protocolli di archiviazione dell’informazione saranno ancora implementate sui nuovi dispositivi o saranno ancora reperibili e adoperabili?
Quali altre problematiche sono riscontrabili o sono di imminente larga diffusione?
La memoria è un affare complesso, sia individuale che collettivo.
NOTE
[1] Tim. 42 d - segg. e 69 c - segg.
[2] Centrone, B. 1996, Introduzione a i pitagorici, Editori Laterza, Roma-Bari, pp. 52-61
[3] Resp. 614 b - 621 d
[4] Tim. 26 b
[5] Phaedr. 228 a
AI Act – La prima legislazione europea sull’Intelligenza Artificiale
Anno 45 a.C.: Giulio Cesare legifera sulla circolazione dei carri nei centri abitati – dall’alba alla metà del pomeriggio[1]. L’obiettivo è di snellire il traffico urbano, ridurre la sporcizia (sterco dei cavalli), l’odore e il rumore nelle strade durante il giorno (non è cambiato nulla, mi pare).
Anno 1865: in Gran Bretagna viene promulgato il Red Flag Act[2] che impone alle autovetture (self-propelled vehicles, la tassonomia è importante: distingue dalle vetture a cavalli) di avere un equipaggio di almeno 3 persone, di non superare la velocità massima di 4 miglia orarie sulle strade fuori città e di 2 miglia orarie in città, di essere precedute a 60 yarde da un uomo a piedi con una bandiera rossa che ne segnali l’arrivo, regoli il passaggio di carrozze e cavalli e, infine, faccia fermare il veicolo a motore in caso di necessità.
È una normativa stringente, finalizzata – oltre che a proteggere il lavoro dei vetturini pubblici – a garantire la sicurezza delle persone contro la minaccia del trasporto privato "self-propelled".
Anno 1903: entra in vigore il primo codice della strada organico a New York, a fronte della velocità che possono raggiungere senza sforzo, “effortless”, gli autoveicoli lungo le strade cittadine.
Anno 1929: con poco meno di 250.000 circolanti su tutto il territorio nazionale – nasce il Codice della Strada italiano, che vedrà alcune riedizioni e ammodernamenti, nel 1992 e quest’anno.
Queste normative hanno tutte come principale finalità il contenimento dei rischi per guidatori, passeggeri, passanti e cose a fronte del pericolo generato da una tecnologia: i mezzi di trasporto su strada.
E hanno influenzato lo sviluppo della tecnologia “automobile”, così come la tecnologia “automobile" ha orientato il nostro modo di vedere la realtà e le nostre dinamiche sociali, produttive, economiche - come rilevava Bruno Latour con la sua teoria dei Quasi Oggetti [3]
9 dicembre 2023, due giorni fa: l’Unione Europea – primo organo istituzionale al mondo a farlo – ha approvato l’AI ACT, piattaforma normativa sull’utilizzo delle tecnologie di intelligenza artificiale. [4]
“Un quadro giuridico unico per lo sviluppo dell'intelligenza artificiale di cui ci si può fidare. E per la sicurezza e i diritti fondamentali delle persone e delle imprese.”, dichiara Ursula Va Der Leyen [4].
L’obiettivo di questa legge è “garantire che l'IA protegga i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale”, permettendo uno sviluppo efficace ma “sicuro” delle innovazioni.
Tra le norme “in negativo” si evidenziano:
“i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili, come le convinzioni politiche, religiose e la razza; la raccolta non mirata di immagini del volto da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale; il riconoscimento delle emozioni sul posto di lavoro e nelle scuole; il social scoring; le tecniche manipolative; l'IA usata per sfruttare le vulnerabilità delle persone.” [4]
In positivo, invece, vigerà l’obbligo alla “valutazione dell'impatto sui diritti fondamentali.” [4] Delle applicazioni di IA.
Il punto critico che ha reso complessa la negoziazione è l’utilizzo delle tecnologie di IA da parte delle forze dell’ordine, soprattutto per il riconoscimento biometrico e in tempo reale e la polizia predittiva.
“Alla fine i negoziatori hanno concordato una serie di salvaguardie e ristrette eccezioni per l'uso di sistemi di identificazione biometrica (RBI) in spazi accessibili al pubblico ai fini di applicazione della legge, previa autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti” [4]
Al di là delle specifiche indicazioni normative, va notato che:
- Le istituzioni comunitarie europee hanno adottato un punto di vista molto concreto sull’IA, in cui prevale il suo carattere di tecnologia, con usi ed effetti privati e pubblici
- In quanto tecnologia, come accadde per gli autoveicoli dal 1865 in poi, ne ha considerato i rischi per i soggetti che rappresenta: popolazione e tessuto produttivo, e ha – conseguentemente - imposto delle misure di controllo e di contenimento di questi rischi.
- Nell’ambito dei rischi da contenere, sono stati privilegiati quelli che riguardano la discriminazione, l’invasione del territorio emotivo personale, la manipolazione dei comportamenti e i danni fisici e psicologici agli individui.
- Inoltre, è stata posta una particolare attenzione sulle tecnologie IA definite “ad alto impatto”[5], che includono i sistemi di IA generale-generativa, come Chat GPT 3.5, per i quali è obbligatoria “l’applicazione ex ante delle regole su sicurezza informatica, trasparenza dei processi di addestramento e condivisione della documentazione tecnica prima di arrivare sul mercato”. [4]
In poche parole, i produttori dovranno rendere pubblico come viene addestrato il sistema e su quali basi!
L’IA, con questa normativa, viene assimilata a molte altre tecnologie, anche dal punto di vista del legislatore, perde una parte dell'aura di mito contemporaneo,
viene collocata nella sua “rete di relazioni, che si estende ben oltre la sua forma”[7]
e – dopo la glorificazione dei potenziali vantaggi già avvenuta in molte sedi istituzionali [6] -
i rischi che genera vengono affrontati in modo concreto
come accade, almeno dal 45 a.C., per tutte le nuove tecnologie.
NOTE
[1] Lex Iulia Municipalis, https://www.archeologiaviva.it/4055/rumore-e-traffico-in-citta-un-problema-di-sempre/#:~:text=Gi%C3%A0%20nel%2045%20a.C.%20Giulio,circa%20le%20cinque%20del%20pomeriggio).
[2] https://vlex.co.uk/vid/locomotives-act-1865-808255757
[3] Bruno Latour, Non siamo mai stati moderni, Eleuthera, 2018
[4] https://www.rainews.it/articoli/2023/12/intesa-ue-per-la-legge-su-intelligenza-artificiale-breton-momento-storico-97d8b5ca-141f-4284-a6fb-434b9871ee01.html
[5] Categorizzate per potenza di elaborazione almeno pari a 10^25 FLOPs (floating point operations per second, un criterio tutto sommato più adeguato di quello proposto precedentemente sul fatturato dell’impresa.
[6] Si veda il mio post del 24 ottobre 2023, Etica, morale e intelligenza artificiale, https://www.controversie.blog/etica-intelligenza-artificiale-un-approccio-analitico-e-normativo/
[7] Bruno Latour, Non siamo mai stati moderni, Eleuthera, 2018
OpenAI e Sam Altman - Anatomia di un Qomplotto (prima parte)
Si è molto parlato (nelle scorse settimane) del licenziamento di Sam Altman, amministratore delegato di OpenAI, un laboratorio di ricerca sull'intelligenza artificiale costituito dalla società no-profit OpenAI, Inc. e dalla sua sussidiaria for-profit OpenAI, L.P. L'obiettivo dichiarato della sua ricerca sarebbe promuovere e sviluppare un'intelligenza artificiale amichevole (friendly AI) in modo che l'umanità possa trarne beneficio.
Cerchiamo di ricostruire la vicenda.
1. AMERICAN HISTORY Q
Nella cultura americana contemporanea la Q non è una lettera come le altre, perché esercita una forza mitopoietica di cui il resto dell’alfabeto è privo.
Il 6 gennaio 2021 coloro che assaltano la sede del Congresso a Washington brandiscono bandiere con la Q di QAnon: la teoria del complotto universale che per milioni di persone negli USA (e nel resto del mondo) ha trasformato Donald Trump in un supereroe da fumetto contro i poteri occulti del deep state.
Il 22 novembre 2023 la «Reuters» spiega che il licenziamento di Sam Altman da parte del consiglio di amministrazione di OpenAI sarebbe stato giustificato da una lettera di delazione[1], con cui alcuni dipendenti dell’azienda hanno illustrato ai membri del board i pericoli per l’umanità in agguato nelle prossime versioni di ChatGPT.
Il progetto Q* ha appena superato con successo i primi test e si prepara a liberare nel mondo un’AGI – un’intelligenza artificiale generale – armata di una competenza letteraria vasta quanto l’universo, che include le storie sul Golem e sulle altre hybris del genere Frankenstein.
L’assalto al Campidoglio non ha avviato la guerra civile; la minaccia che dai progressi dei software di OpenAI si inneschi l’«esplosione» di un’intelligena artificiale destinata a sostituire l’uomo nel dominio della Terra confida su una probabilità nulla di avverarsi.
La destituzione di Altman, avvenuta il 18 novembre, è un evento simile ad un colpo di stato; anche più di quello tentato dallo Sciamano e dai suoi compagni al Campidoglio nel gennaio 2021, se si considera che OpenAI ha beneficiato di un investimento di 13 miliardi di dollari da parte di Microsoft[2], equivalente al doppio del PIL della Somalia, superiore a quello di un’altra decina di nazioni africane, e pari a quello dell’Armenia, del Madagascar e della Macedonia.
Il finanziamento è in larga parte da ascrivere al rapporto di fiducia tra Kevin Scott, CTO di Microsoft, e Altman; la sua cacciata non è stata preceduta da alcun segnale di crisi, e si è consumata in una fase di espansione e di prosperità dell’azienda.
ChatGPT 3.5 si è laureato nel gennaio 2023 come il servizio internet con la crescita di utenti più veloce di sempre: in soli due mesi dal lancio ha raggiunto la quota di 100 milioni di utenti attivi[3], bruciando in questa competizione il risultato di TikTok (nove mesi) e quello di Instagram (due anni e mezzo).
Il trionfo ha imposto il tema dell’intelligenza artificiale e delle reti neurali all’attenzione del pubblico di massa, ma ha anche riconsegnato a Microsoft una posizione di primato tra le protagoniste dell’innovazione tecnologica.
Il motore di ChatGPT è stato integrato in Bing, e il suo inserimento strutturale nei prodotti di Office (con il marchio «Copilot») è in fase di sperimentazione avanzata.
Trasformerà il rapporto dei colletti bianchi di tutto il pianeta con i loro computer, convertendo in automatico poche idee scarabocchiate con un elenco puntato in un documento di cinque pagine, o in una presentazione Power Point attrezzata di tutto punto; per converso, sarà capace di tradurre il vaniloquio di ore di riunione in un report agile da condividere via mail, e gestirà le operazioni di controllo delle entrate e delle uscite su Excel.
Tuttavia, i burocrati diventeranno ancora più fannulloni, gli impiegati ancora più analfabeti, e Microsoft gioirà sulle disgrazie umane con un valore di mercato anche più immenso di quello attuale.
Quindi siamo di fronte a un caso di «Q di Qomplotto», per usare un’espressione presa in prestito dall’analisi del caso Qanon elaborata da Wu Ming 1 (2023)?
2. INTELLETTUALI E IMPRENDITORI
La stupidità spiega molti più misteri del retropensiero, e persino più della serietà del giornalismo di inchiesta.
Potrà sembrare un paradosso, ma lo scenario dei profitti smisurati e la prospettiva di una nuova forma di dominazione culturale sulla produzione dei contenuti business, sono all’origine del colpo di mano del CDA contro Altman.
La governance di OpenAI presentava fino al 18 novembre una configurazione ereditata dalla missione originaria della società, fondata sulla strategia «open source» di Altman, Elon Musk e Peter Thiel[4]: il metodo per assicurare un progetto di intelligenza artificiale a beneficio dell’umanità, e priva di rischi per il futuro, coincide con lo sviluppo di modelli accessibili a tutti, quindi sottoposti al controllo dell’intera comunità degli esperti. Anche dopo l’uscita di Musk dal consorzio, e la maggiore integrazione in Microsoft dal 2020, il comparto di OpenAI destinato alla produzione di servizi for-profit è rimasto sottoposto allo scrutinio di un consiglio di amministrazione nominato dalla componente no-profit.
Nel novembre 2023 il board annoverava oltre ad Altman altri quattro personaggi: Helen Toner, Ilya Sutskever, Adam D'Angelo, Tasha McCauley. Toner ha maturato una carriera di primo piano nell’ambito delle organizzazioni umanitarie grazie al suo coinvolgimento nel movimento accademico dell’«altruismo efficace»[5], che si richiama alla lezione dei filosofi morali Peter Singer, Toby Ord, William MacAskill, e che esercita un’influenza di ampio respiro sull’upper class americana.
Dai temi della beneficienza e del miglioramento delle condizioni di vita nei Paesi più poveri del pianeta, questa corrente di pensiero è passata alla riflessione sulle professioni meritevoli di essere intraprese, e si è estesa ai «rischi esistenziali» e ai «rischi di catastrofe globale»; con una forte vocazione di futurologia che oscilla tra parossismo e parodia (involontaria) del «principio responsabilità» di Hans Jonas (1979).
In questo contesto viene intercettato l’insegnamento di Nick Bostrom (2014), che arruola tra i propri fedeli anche McCauley e Sustkever, nonostante la loro formazione tecnica di altissimo livello, e li allea alle preoccupazioni di Toner. Le tesi di Bostrom sulle «superintelligenze» sono molto famose, anche grazie alle metafore che ha inventato per rendere più persuasiva la distopia che alimenta la sua ansia: mancano pochi anni all’esplosione delle capacità di raziocinio delle intelligenze artificiali, che travolgeranno quelle naturali per velocità, vastità e precisione di intuizione, quantità di memoria, organizzazione e controllo; ma l’attivazione delle loro facoltà produrrà più conseguenze rovinose per l’umanità rispetto a quelle utili.
Qualunque sia lo scopo cui sarà indirizzata, ciascuna superintelligenza tenderà in modo necessario a perseguire comportamenti utili per la propria sopravvivenza e per il raggiungimento degli obiettivi che compongono la sua ragion d’essere: in primo luogo attraverso l’affinamento della potenza di calcolo e della raccolta di risorse necessarie. Di conseguenza, la macchina cui sarà assegnato, per esempio, il compito di creare graffette, agirà in modo da ottimizzare al massimo l’ambiente a questo scopo, riducendo la Terra intera a un deposito di materiale lavorabile e di graffette già confezionate – genere umano incluso.
L’iperbole di Bostrom potrebbe implicare una critica al modello liberistico della visione del mondo, in cui la razionalità coincide con una subordinazione degli elementi della natura e del lavoro dell’uomo (tutti convertiti in risorse) agli obiettivi di produzione, senza alcun interesse per l’orizzonte di senso in cui il processo dovrebbe essere calato. Questo genere di valutazione può incrociare l’allarme per le conseguenze che l’automazione introdotta dal Copilota nella suite Office potrà determinare nelle facoltà di riflessione, di elaborazione strategica, persino di articolazione linguistica, di gran parte degli impiegati e dei dirigenti del mondo.
Di certo si può paventare una scivolata nel processo di proletarizzazione tecnologica degli individui (di tutte le fasce sociali) impegnati in una professione di tipo intellettuale, almeno nei termini di Stiegler (2012). Ma la furia distopica di Bostrom non si placa a così poco prezzo: brama molto di più di una situazione critica che potrebbe suscitare un dibattito serio; esige che la conversione degli esseri umani nei cervelli in una vasca di Putnam (1981) diventi un canovaccio plausibile, il paradigma delle minacce reali.
Per il CDA di OpenAI il passaggio dal Copilota alle graffette è fin troppo breve; tanto più che Microsoft ha già attentato alla pazienza dell’umanità con Clippy dal 1996 al 2007, il mostruoso assistente di Office a forma di graffetta antropomorfa. È bastato un incidente qualunque nel rapporto tra Altman e Toner per innescare i cinque giorni di crisi che negli uffici di Seattle sono stati battezzati, senza alcun aiuto di copywriting da parte di ChatGPT, il Turkey-Shoot Clusterfuck di OpenAI.
Appena annunciata la notizia della deposizione di Altman, la piattaforma Reddit è stata presa d’assalto da un tumulto di commenti[6] e tentativi di interpretazione del colpo di mano ai vertici di OpenAI, molti dei quali in chiave di Qomplotto. Q* è davvero la culla dell’AI che ci trasformerà tutti in graffette? È il Clippy odioso che abita dentro ciascuno di noi, la nostra anima di silicio?
Lo sapremo a breve, con un nuovo post.
NOTE
[1] https://www.reuters.com/technology/sam-altmans-ouster-openai-was-precipitated-by-letter-board-about-ai-breakthrough-2023-11-22/
[2] https://www.newyorker.com/magazine/2023/12/11/the-inside-story-of-microsofts-partnership-with-openai
[3] https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01/
[4] https://www.nytimes.com/2015/12/12/science/artificial-intelligence-research-center-is-founded-by-silicon-valley-investors.html
[5] https://it.wikipedia.org/wiki/Altruismo_efficace
[6] https://www.reddit.com/r/singularity/comments/181oe7i/openai_made_an_ai_breakthrough_before_altman/?rdt=54043
Sarà mai possibile? - Auto a guida autonoma tra immaginazione e realtà
di Sara Sbaragli (CNR-ISTC), Vincenzo Punzo (UNINA), Giulia Vannucci (CNR-ISTC) e Andrea Saltelli (CNR-ISTC)
Un giorno, in un futuro non troppo lontano, tutto il traffico potrebbe essere guidato dall’intelligenza artificiale con gli esseri umani che leggono le notizie o diversamente impegnati nel comfort delle loro auto o, meglio, nell’agio di un veicolo condiviso.
Importanti ostacoli culturali, tecnologici e normativi dovranno essere superati per ottenere un traffico obbligatorio basato esclusivamente sull’intelligenza artificiale con gli esseri umani confinati a guidare in località speciali. Nel frattempo, il futuro offrirà probabilmente situazioni in cui l’intelligenza artificiale e gli esseri umani coesisteranno nello stesso ambiente di guida.
Sarà mai possibile? Coesisteranno auto guidate dall’uomo e dall’intelligenza artificiale sulla stessa strada? Ovunque nel mondo, da Berkeley a Napoli?
Il problema di questa convivenza sta nella varietà delle culture e degli stili di guida che restano ostinatamente locali nonostante la globalizzazione. Un guidatore guidato dall’intelligenza artificiale ha maggiori probabilità di farsi strada agevolmente nel traffico della ben educata Monaco e meno in quello di Mumbai o Città del Messico.
Il problema principale qui è la riflessività degli agenti umani. Laddove prevalgono stili di guida aggressivi, un conducente umano può rendere la vita difficile ai veicoli automatizzati sfruttando il comportamento cauto dell’intelligenza artificiale, ad esempio, inserendosi davanti alle auto a guida autonoma approfittando del fatto che queste mantengono una giusta distanza di sicurezza dal veicolo che precede. Questo sarebbe il caso, a meno che all’IA non venga consentito di iniziare a negoziare il proprio spazio stradale con conducenti umani che accettano il conseguente rischio di collisione.
È così che le cose potrebbero diventare complicate, con l’intelligenza artificiale che compensa eccessivamente adottando manovre spericolate per “vincere” contro esseri umani ribelli, in scenari fantascientifici, simili a Black Mirror, di auto o camion assassini. Qualcosa del genere accadde qualche anno fa, quando un’intelligenza artificiale di Microsoft impiegò solo un giorno per diventare razzista e dovette essere frettolosamente messa offline. Naturalmente la tecnologia interverrà per evitare che ciò accada. Supponendo quindi che i produttori di automobili raccolgano la sfida della coesistenza tra uomo e intelligenza artificiale, come gestiranno un processo di formazione sull’intelligenza artificiale che debba adattarsi alle scale locali – possibilmente a livello di regione, più che a livello di stati nazionali? In Italia gli autisti di Bolzano non assomigliano a quelli di Milano che sono diversi da quelli di Roma, Napoli e Palermo. Il tema dell’addestramento sensato e della sperimentazione dell’intelligenza artificiale nelle situazioni quotidiane, anche lontano da situazioni “limite” di vita o di morte tanto apprezzate dagli studiosi di etica assorti con carrelli in fuga, è affrontato in un recente articolo sugli Atti della National Academy of Science, una rivista statunitense. Come si può testare il “buon senso” di un’auto automatizzata? Pur sottolineando che sarà probabilmente necessaria una personalizzazione reciproca tra esseri umani e conducenti automatizzati, il pezzo offre consigli utili agli aspiranti tester, come ad esempio non prendere gli esseri umani come gold standard, considerando il compromesso tra autorità umana e autonomia della macchina in vista di risultati sicuri, considerare attentamente le condizioni locali delle culture, degli stili di guida e della morfologia stradale.
Queste calibrazioni avranno bisogno che l’intelligenza artificiale interagisca con modelli di guidatori umani appositamente costruiti con questo scopo in mente. Il compito apparentemente insormontabile di sviluppare questi modelli per testare l’intelligenza artificiale è stato intrapreso da un progetto europeo denominato i4Driving, il cui obiettivo è quello di sviluppare modelli di guida umana in condizioni naturali che possano essere utilizzati da produttori di automobili, da regolatori e dal mondo accademico nei loro test, con l’obiettivo finale di accreditare i sistemi di intelligenza artificiale per l’implementazione sul mercato.
La visione di i4Driving è quella di gettare le basi di una nuova metodologia standard del settore per stabilire una linea credibile e realistica della sicurezza stradale umana per la valutazione virtuale dei sistemi di mobilità cooperativa, connessa e automatizzata (CCAM[1]). Le due idee centrali proposte nel progetto sono una libreria di simulazione che combina modelli esistenti e nuovi per il comportamento di guida umano; in combinazione con una metodologia che tiene conto dell’enorme incertezza sia dei comportamenti umani che delle circostanze di uso. Trattare l’incertezza è cruciale per il successo della tecnologia e a questo scopo il progetto richiama esperti di diverse discipline per giudicare le ipotesi e i risultati della modellazione. Il team del progetto sta simulando (quasi) incidenti in scenari multi-conducente (accesso a molte fonti di dati, simulatori di guida avanzati e laboratori sul campo) attraverso una rete internazionale[2]. i4Driving offre una proposta a breve e lungo termine: una serie di elementi costitutivi che aprono la strada alla patente di guida per i veicoli autonomi.
Insolitamente, per un progetto orientato alla tecnologia come i4Driving, questo studio esaminerà anche la dimensione culturale della guida autonoma, spingendo gli ingegneri del progetto a lavorare in relazione alla loro visione del mondo, alle aspettative e a possibili pregiudizi. Per questi motivi i tecnologi coinvolti nel team i4Driving si sottoporranno a domande di carattere generale come “Nel probabile caso in cui questa tecnologia richiederà investimenti in infrastrutture pubbliche, la società li sosterrà? Verrà raccolta un’enorme quantità di big data sui guidatori umani. Come verranno utilizzati questi dati dalle autorità, dagli inserzionisti, dagli hacker?”. Queste domande non devono essere risolte da i4Driving ma la visione dei modellatori su questo argomento è necessaria secondo una componente sociologica riflessiva incorporata nel progetto.
Certamente, allo stato attuale della tecnologia, vengono sollevate molte critiche sull’effettiva fattibilità delle auto a guida autonoma. Nonostante gli sforzi pubblicitari dell’ultimo decennio sull'imminente commercializzazione dei veicoli autonomi, ad oggi questi sono ancora considerati non sicuri, nonché un ostacolo al traffico attuale o, ad esempio, alle operazioni dei veicoli di emergenza. Pur promettendo “piena capacità di guida autonoma” – con video apparentemente "messi in scena" – TESLA ha dovuto difendersi in tribunale sostenendo che questa affermazione di marketing non costituivano una frode. L’accusa era che le prestazioni 'autonome' dimostrate erano in realtà artefatte, non genuine.
Sembrerebbe quindi che su questo tema, come su altre nuove tecnologie legate all’intelligenza artificiale, si scontrino visioni contrastanti. Sebbene la tecnologia abbia compiuto progressi significativi per rendere sostenibili i veicoli automatici anche la società dovrà svolgere un ruolo vigile riguardo alle promesse dei produttori.
Come sottolineato da Jack Stilgoe e Miloš Mladenović (due sociologici della tecnologia che si occupano del problema)
i veicoli automatizzati non saranno definiti dalla loro presunta autonomia ma in base al modo in cui la società negozierà la soluzione di questioni politiche come:
Chi vince? Chi perde? Chi decide? Chi paga? Mantenendo aperti all’indagine entrambi i lati della questione, il progetto i4Driving offre un contributo che fa parlare la sociologia con la tecnologia.
NOTE
[1] Mobilità cooperativa, connessa e automatizzata: per molti aspetti i veicoli di oggi sono già dispositivi connessi. Tuttavia, in un futuro prossimo, interagiranno anche direttamente tra loro, nonché con l’infrastruttura stradale e con gli altri utenti della strada. Questa interazione è il dominio dei sistemi di trasporto intelligenti cooperativi che consentiranno agli utenti della strada di condividere informazioni e utilizzarle per coordinare le loro azioni. Si prevede che questo elemento cooperativo migliorerà significativamente la sicurezza stradale, l’efficienza del traffico e il comfort di guida, aiutando il conducente a prendere le giuste decisioni e ad adattarsi alla situazione del traffico.
[2] La rete internazionale ha collaborato con gli Stati Uniti (struttura NADS), con l’Australia (simulatore di guida avanzato UQ e strutture di simulatore di guida connesse TRACSLab), la Cina (simulatore di guida Tongji Univ. 8-dof e laboratorio sul campo su larga scala) e il Giappone (NTSEL) e con diversi laboratori di progettazione (università e laboratori di ricerca, OEM e Tier 1, autorità di regolamentazione dei veicoli, autorità di omologazione, istituti di standardizzazione e compagnie assicurative).
Un manager utilitarista - Il management scientifico alla prova dei fatti
Negli ultimi mesi ho modo di vedere l’etica utilitarista messa in opera da parte di un gruppo di manager di un’azienda multinazionale.
Non parlo di attitudini caratteriali o di comportamenti specifici che ognuno di noi può avere, parlo proprio di un’impostazione che permea il pensiero, le parole, le azioni e le decisioni dell’individuo.
Parlo di un qualcosa di sistematico che, se applicato alla conduzione di un’azienda, può a ragion veduta definirsi management scientifico: c’è un metodo standard, c’è uno stile manageriale reiterabile, c’è l’estrema specializzazione del lavoro che – in ultima istanza – porta alla piena fungibilità dello stesso.
E la prima volta che mi capita di osservare una cifra etica così netta e chiara; e la cosa non va sottovalutata, perchè tutta la storia della globalizzazione degli ultimi 250 anni si basa su questa etica.
Volete sapere come me ne sono accorto?
Eccovi alcuni esempi.
Il manager utlitarista presenta i risultati di fine esercizio senza commentare neanche un numero della situazione attuale, e concentra tutto l’intervento sul nuovo livello di aspettative del mercato, sulla propria visione strategica e su cosa fare per migliorare la propensione degli investitori.
Cosa è stato raggiunto o fallito nel passato non conta; conta la decisione, adesso, decontestualizzata dalle ragioni che hanno portato ad un determinato stato dell’arte.
Il passato conta solamente in quanto deve essere rimesso in discussione, ma attenzione: non lo si rimette in discussione, per preconcetto o per dare un messaggio di discontinuità.
Lo si rimette in discussione perché è eticamente giusto farlo, perchè il processo decisionale passa dal discreto al continuo, e l’esistenza stessa dell’individuo è un continuo decidere e rielaborare la decisione.
Non a caso il manager utilitarista dichiara sin dall’inizio che sì, è vero, esiste un piano strategico, ma che poi all’interno di tale piano si può (anzi si deve) cambiare direzione n+1 volte.
Certo che è strano: una scienza basata sulle aspettative e non sulla accumulazione delle esperienze...mai vista!
Ma forse sì, se la si applica al management di azienda può essere sostenibile... sicuramente l’utilitarismo consente di fare un passo avanti rispetto ai nostri stereotipi…
Poi, il manager utilitarista identifica dal mercato i propri collaboratori, manager a riporto diretto, presentandoli come il meglio possibile per l’azienda, e rimuovendoli dopo poche settimane senza neanche sentirsi in dovere di spiegare il perchè e cosa sia cambiato rispetto al loro ingresso di poco tempo prima.
Il fatto che ogni ingresso a quei livelli comporti l’avvio di riorganizzazioni aziendali e di nuove relazioni personali non conta, visto che per lui è uguale essere a capo dell’azienda X o dell’azienda Y, sono invarianti anche i nomi dei propri collaboratori e i diversi possibili set up organizzativi.
Tutto è pienamente fungibile, quando si deve massimizzare l’utilità.
Questa me la spiego facilmente dai... il sapere scientifico deve essere invariante rispetto all’individuo, altrimenti è soggettivo; giusto, giusto, sarà per questo che le organizzazioni del manager utilitarista sono tutte piatte: un vertice (il manager stesso), un “cerchio della fiducia” di poche decine di eletti, e migliaia di persone appiattite.
Ah, un attimo, c’è qualcosa che non torna... la scienza applicata all’azienda prevede una struttura piramidale ben definita, qui invece abbiamo: un triangolo, uno spazio bianco, e un grandissimo trapezio sotto. Che roba è? Mi sembra quasi che si sia passati dalla massimizzazione del profitto di azienda alla massimizzazione del profitto individuale. Ma forse, anzi sicuramente, mi sto sbagliando....
Ancora: il manager utilitarista trasforma in valore economico anche le ultime categorie che erano rimaste non oggetto di scambio: l’ambiente e l’identità sessuale.
Essendoci un legame diretto tra massimizzazione dell’utilità e valore degli scambi, negli ultimi anni si stava osservando un problema abbastanza serio per l’utilitarismo: era finito il genere di item passibili di scambio.
E allora ecco che il manager utilitarista definisce come oggetto di scambio, e quindi portatore di valore da massimizzare, cose che prima non lo erano: l’aria, l’acqua, l’identità di genere, e gli dà un nome: ESG.
L’ossigeno? Lo si produce forestizzando i terreni pastorizi del Paese X, lo si “impacchetta” e lo si vende a lotti virtuali alle aziende che inquinano nel Paese Y.
Il pride? Rappresenta un target di clientela nuovo, interessante: e allora perchè non fare un’analisi delle abitudini di spesa dei partecipanti, venderla al Comune ospitante, che così decide i percorsi dei cortei in modo da ottimizzare la presenza degli esercizi commerciali che rispondono a tali abitudini di spesa?
Tutto è pienamente scambiabile, quando si deve massimizzare l’utilità.
La Data Science applicata al management di azienda, ecco: questo è uno spunto veramente “scientifico”! Certo, il fatto che si basi su una funzione che tende asintoticamente a zero, perchè prima o poi gli oggetti di scambio finiranno veramente, potrebbe far pensare che non mi stessi sbagliando poi tanto con la mia precedente impressione...chissà!
In ultimo: il manager utilitarista ci dice che il futuro della cultura è nel Metaverso e nella Generative AI: nuove esperienze, felicità garantita, poter essere contemporaneamente in più luoghi senza essere realmente da nessuna parte.
Non è ancora chiaro cosa muova il manager utilitarista: forse la massimizzazione dell’utilità e della felicità individuale; forse lo spirito “scientifico”.
Quello che non ho ancora capito è qual’è il vantaggio per il manager utilitarista: mi auguro che lo scopo sia, anche qui, semplicemente quello di avere un nuovo item oggetto di scambio; mi auguro a questo punto che sì, le impressioni che ho manifestato in precedenza fossero corrette, e che ce la caviamo banalmente dicendo che l’utilitarismo applicato in un’azienda “scientificamente” organizzata porta solo alla massimizzazione del valore per un singolo individuo.
Non è bello ma me lo auguro perchè, se così non fosse, se ci fosse qualche altro razionale, gli effetti finali potrebbero essere ben più devastanti.
Definizione operativa - L’importanza delle definizioni, prima di aprir bocca
Assistiamo quotidianamente a conflitti, liti, controversie.
Sia nel mondo della scienza come in quelli di altre professioni o sfere della vita: dibattiti accademici, consigli di amministrazione, talk shows, discussioni in casa e al bar.
Ci si interroga: “la competenza è sotto attacco?”, “la scienza è denigrata? oppure “Hamas è un gruppo terroristico?”, “la violenza sulle donne è in crescita?”.
Queste domande, apparentemente così diverse, hanno in comune lo stesso problema: prima di rispondere (aprir bocca) bisognerebbe definire con chiarezza che cosa si intende per ‘competenza’, ‘scienza’, ‘terrorista’ e ‘violenza’.
Si tratta di un requisito che accomuna sia il mondo della scienza che quello delle professioni o della vita quotidiana.
Ma che cos’è una ‘definizione’? Secondo l’epistemologo e metodologo Marradi (1984), la definizione è un raccordo (un ponte) tra un concetto e un termine. Essa è essenziale perché, purtroppo o per fortuna, il patrimonio terminologico (parole, segni, immagini) è più povero del patrimonio concettuale.
In altre parole, una cultura è solitamente più ricca di concetti che di termini. Infatti, spesso, a 1 termine vengono associati 4-5 concetti/significati. Ad esempio la parola ‘piano’ può indicare uno strumento musicale, un programma, il livello di un’abitazione, il volume (basso) di un suono, l’avverbio ‘lentamente’.
Questo divario comporta il rischio dell’incomprensione, perché a una (stessa) parola o immagine possono venire associati significati diversi: le persone pensano di parlare della stessa cosa (perché usano la stessa parola), ma in realtà parlano di cose diverse. Infatti i concetti hanno un grosso difetto: non si vedono (come i segni) né si sentono (come le parole). Quindi, sapere che cosa ha in testa una persona quando pronuncia o scrive un termine non è sempre facile (anche se il contesto del discorso può aiutare a disambiguare).
--------------
Le definizioni (lessicali) sono quindi quelle proposizioni che troviamo nei dizionari, che descrivono un termine del lessico di una lingua, solitamente associando una lettera dell’alfabeto (a, b, c ...) o un numero (1, 2, 3 …) al significato/concetto del termine stesso.
Tuttavia nella scienza, oltre alla definizione lessicale, agisce anche la definizione operativa.
E’ una delle poche procedure cognitive che distingue (o dovrebbe distinguere) la scienza da qualsiasi altra attività conoscitiva.
Infatti, altre procedure (come formulare ipotesi, campionare, generalizzare, fare confronti, fare previsioni, verificare la veridicità delle affermazioni ecc.) sono presenti anche nel ragionamento di senso-comune.
Ma la definizione operativa no. Essa ci permette di “problematizzare l'osservazione” (Cicourel 1964: 128; 1976: XX), di denaturalizzare il mondo sociale che stiamo indagando in contrasto con il comportamento di colui che lo osserva come naturale, ovvio, dato per scontato, normale. Ovviamente ci sono sempre delle eccezioni: la polizia scientifica (lo dice la parola stessa) usa procedure (per certi versi) assimilabili alle procedure scientifiche.
-----------
Per cui la definizione operativa consiste nel “complesso delle regole che guidano le operazioni con cui lo stato di ciascun caso sulla proprietà X viene rilevato, assegnato a una delle categorie stabilite [...] e registrato nel modo necessario a permettere [...] l’analisi con le tecniche che si intendono usare. Molte di queste regole sono consuetudini che governano in via generale certi aspetti tecnici della ricerca [...] altre regole sono specifiche, e il ricercatore deve ogni volta esplicitarle se vuole trasformare la proprietà X in una variabile della sua ricerca” (Marradi, 1984, p. 23).
Fra queste consuetudini e regole troviamo la definizione lessicale dell’indicatore, le procedure di accesso al campo, gli accorgimenti (garanzie, contratti informali) per superare la diffidenza degli attori, il modo di raccogliere le note etnografiche, le eventuali procedure di controllo della veridicità delle risposte date.
E senza una definizione non possiamo iniziare una ricerca.
Poniamo di voler fare un ricerca sulla povertà a Milano. Vogliamo intervistare 100 poveri. Come li scegliamo?
Occorre quindi PRIMA dare una definizione lessicale di ‘povero’ (chi è un povero? Che cosa fa di una persona un povero? Quali requisiti deve avere una persona per essere considerata povero? Questa procedura si chiama “intensione del concetto”) per POI scegliere i 100 casi, tra tutti i soggetti di Milano che potenzialmente (estensione) hanno i requisiti delineati. Nel delineare i requisiti, si dovrà dare una risposta a domande complesse: chi ha una casa di proprietà, ma è senza lavoro, è povero? Chi ha un lavoro stabile, ma non riesce ad arrivare alla fine del mese, è povero? Chi vive in condizioni di indigenza, ma ha una cospicua somma di denaro da parte, è povero?
Lo stesso dicasi se si vuole fare un’indagine su 100 famiglie di Milano.
Come le scegliamo? Di nuovo, dobbiamo dare una definizione lessicale di ‘famiglia’ (intensione del concetto): chi è oppure cos’è una famiglia? Che cosa costituisce l’essere una famiglia? Quali di queste situazioni chiamereste “famiglia”: una coppia eterosessuale sposata, ma senza figli? Una madre separata, che vive sola con sua figlia? Un gruppo di studenti oppure di religiosi che vivono nella stessa casa? Una coppia eterosessuale non sposata (coppia di fatto)? Una coppia omosessuale che vive da anni nella stessa casa?
--------------
Per cui definire un termine, prima di aprire una qualsiasi discussione su un qualsiasi argomento, diventa essenziale per evitare fraintendimenti, litigare, non comprendersi. Pensiamo a quanti conflitti si sarebbero potuti evitare se si fossero PRIMA definite le parole ‘flessibilità’, ‘valutazione’, ‘merito’ ‘formazione’, ‘innovazione’ o “scientifico”…
Sapendo bene che le definizioni non si danno una volta per sempre, ma possono cambiare nel tempo.
Ad esempio, Cesare Battisti, che (essendo cittadino austriaco, dal momento che gli austriaci a quel tempo governavano legittimamente il Nordest, e diventato dal 1911 al 1914 persino deputato nel parlamento di Vienna) fu catturato mentre combattiva gli austriaci e poi impiccato nel 1916 nel castello di Trento, fu un patriota o un traditore?
E Menachem W. Begin (futuro primo ministro israeliano, assegnatario del Nobel per la pace nel 1978) che nel maggio del 1942 aderì all'Irgun (gruppo paramilitare dedito ad attività terroristica antiaraba e antinglese) del quale divenne il leader, organizzando vari attentati contro militari britannici, culminati con la bomba nel King David Hotel, con novanta morti, e l'assalto alla prigione di Acri? Nel 1948, nonostante la proclamazione dello Stato di Israele, Begin si rifiutò di sciogliere l'Irgun, che si rese responsabile di un massacro nel villaggio palestinese di Deir Yassin, dove morirono un centinaio di civili, tra cui donne e bambini. Begin fu un terrorista oppure un uomo di pace?
E, infine, Yāsser ʿArafāt, combattente e fondatore dell’organizzazione Al-Fatah, dedita alla lotta armata, ma anche assegnatario del Nobel per la pace nel 1994, fu un terrorista o un uomo di pace?
Prima di rispondere, ricorrere alla pratica (scientifica) della definizione operativa potrebbe essere d’aiuto.