OpenAI e Sam Altman - Anatomia di un Qomplotto (seconda parte)

Riprendiamo il post della settimana precedente per capire l’intricata vicenda del licenziamento e successiva ri-assunzione di Sam Altman, amministratore delegato di OpenAI.

------------

Appena annunciata la notizia della deposizione di Altman, la piattaforma Reddit è stata presa d’assalto da un tumulto di commenti[1] e tentativi di interpretazione del colpo di mano ai vertici di OpenAI, molti dei quali in chiave di Qomplotto. Q* è davvero la culla dell’AI che ci trasformerà tutti in graffette? È il Clippy odioso che abita dentro ciascuno di noi, la nostra anima di silicio?

1. STRUZZI E PAPPAGALLI STOCASTICI

Il 24 novembre prende la parola uno dei protagonisti della storia recente dell’intelligenza artificiale: Yann LeCun. Mitchell (2019) ricostruisce con precisione le ragioni per cui grazie al suo riconoscitore di immagini AlexNet le reti neurali sono diventate dal 2012 quasi sinonimo di AI, imponendosi come paradigma dominante.

In un post su X[2] (ex Twitter) LeCun dichiara: «per favore ignorate il diluvio di completi nonsense su Q*». Possiamo, in prima battuta, spiegare con un paio di esempi la motivazione di fondo per cui LeCun ha sicuramente ragione: sia su Q*, chein generale su qualunque illazione che intenda predire un futuro distopico con l’evoluzione dei paradigmi attuali di AI. In seconda battuta cercherò di chiarire cosa potrebbe essere Q* nella sua lettura delle poche notizie che sono trapelate.

Szegedy et al. (2013) riferiscono gli esiti dell’«attacco avverso» che hanno condotto proprio su AlexNet: l’esperimento di hackeraggio «benevolo» sulla piattaforma di riconoscimento automatico delle immagini si propone di verificare quale sia il grado di comprensione che il software riesce a ricavare dalla percezione delle illustrazioni che gli vengono sottoposte, attraverso l’inserimento di un «rumore informativo» costituito da alcuni pixel inseriti nel corpo delle figure osservate.

 

L’immagine sulla sinistra è quella originale, classificata in modo corretto dall’intelligenza artificiale; quella sulla destra è stata ottenuta attraverso la modifica di alcuni pixel, che non la mutano affatto al giudizio di un occhio umano. AlexNet tuttavia classifica tutte le varianti di destra come «struzzo», attribuendo al nuovo giudizio un grado di affidabilità maggiore rispetto a quello con cui era stata stabilita la valutazione esatta nella versione di sinistra. Ho già mostrato in Bottazzini (2023) come questo risultato possa essere letto sullo sfondo di uno dei dibattiti filosofici più controversi dal Seicento ai nostri giorni: il cosiddetto «Problema Molyneux». Qui basti osservare che l’errore non può essere giustificato come un bug del sistema, o come un difetto che sarà rimosso dall’espansione della potenza di calcolo futura del software.

In nessun caso un’intelligenza – cioè una forma di comprensione della realtà – che aspiri a somigliare a quella umana può ritenere attendibile che un tempio, o uno scuolabus, o un cane, si tramutino di colpo in uno struzzo.

Anche in caso di illusione ottica o miraggio, lo scostamento dalla percezione corretta è solo temporaneo, e la normalità viene ristabilita con un riesame che restituisce il focus dell’impressione al contesto in cui deve essere collocato.

La realtà viene ristabilita nel campo visivo attraverso l’insieme delle operazioni cognitive non tematizzate, che la tradizione fenomenologica definisce intenzionalità fungente (si pensi per esempio a Merleau-Ponty (1945)), da cui si genera il senso del mondo in cui stiamo agendo, nella sua complessità e in ciascuno dei suoi dettagli.

Searle (1995) le definisce competenze di Sfondo: senza alcuna consapevolezza, permettono di viaggiare in autostrada senza domandarci se lo scuolabus che stiamo per superare subirà una metamorfosi improvvisa in uno stormo di struzzi, se il tempio che stiamo contemplando nel mezzo di una vacanza afosa si dissolverà in un vortice di ali sbattute e di piume svolazzanti, o se il cane dei vicini stia deponendo un uovo nel nostro salotto, convertito in un lembo di savana dietro la porta socchiusa.

Gli eventi che sperimentiamo emergono da un orizzonte che rimane stabile, e che regolarizza senza posa i fenomeni con cui interagiamo, perché noi abbiamo un mondo, per usare la concettualizzazione di Heidegger (1983), al contrario delle AI che invece non ne hanno uno (come il resto dei minerali).

In ChatGPT-4 (2023) l’intelligenza artificiale di OpenAI ha stilato una cronaca dell’evoluzione dell’AI e una serie di indicazioni sulla struttura dei principali tipi di software, con un censimento dei personaggi e dei saggi più rilevanti del percorso. Nel §7.3 si presenta un pappagallo stocastico o allucinazione molto illuminante: ChatGPT cita il testo La questione dell’autonomia: gli agenti artificiali possono essere autonomi e avere libero arbitrio? che Mario Rossi avrebbe pubblicato nel 1995: il libro non esiste, né esiste un Mario Rossi in quanto autore del trattato – ma in ogni caso anche il più somaro degli studenti avrebbe evitato di attribuire a questo volume citazioni da Dennett (2003), o descrizioni della partita tra AlphaGo e Ke Jie, disputata nel 2017.

Le intelligenze artificiali sono macchine che calcolano probabilità, soppesando migliaia di miliardi di parametri per ogni passaggio, e rintracciando in questo modo pattern di relazioni che possono sfuggire a sensibilità e misurazioni dell’uomo. AlexNet stima il grado di probabilità che la distribuzione dei pixel nell’immagine possa essere categorizzata con una certa etichetta; ChatGPT conta la probabilità che una certa parola venga subito dopo quella appena stampata, spaziando su 1.700 miliardi di variabili ad ogni nuovo lemma aggiunto alla frase.

Ma nessuna delle due macchine ha la minima idea di cosa stia guardando o di cosa stia dicendo; anzi, non sa nemmeno di stare percependo o affermando qualcosa.

Il cammino verso l’intelligenza, nel senso effettivo di questa parola, non ha mosso ancora il primo passo.

I paradigmi di sviluppo con cui sono state progettate e costruite le AI fino a oggi, non sono in grado di disegnare un’intelligenza che viva in un mondo dotato di senso; quindi nessuna di loro potrà maturare qomplotti contro di noi, né oggi né in alcun futuro possibile; almeno finché non saremo capaci di ideare un nuovo paradigma di programmazione in grado di superare i limiti di oggi.

L’intelligenza non è una proprietà emergente di un sistema di calcolo che oggi non sarebbe ancora abbastanza potente per lasciar affiorare l’homunculus dotato di pensiero e coscienza autonomi, per ora nascosto nelle viscere dei processori e delle schede madri in attesa di tempi migliori. La quantità di parametri sottosposti al processo di calcolo da parte di ChatGPT si è moltiplicata per un fattore 1.000 a ogni nuova generazione del software; ma l’artefatto è stato in grado di articolare testi sempre più lunghi e complessi, mai di capire anche solo una parola di quello che andava componendo.

L’emergenza dell’intelligenza dall’espansione della capacità di calcolo, come l’emergenza del mondo trasformato in graffette, sono utopie e distopie che vivono solo nell’immaginazione di Bostrom e degli altri (numerosi) teorici dell’esplosione dell’AI.

L’intelligenza non somiglia ai comportamenti aggregati della società, o degli sciami di api, o degli stormi di struzzi; commercia invece con una donazione di senso del mondo e degli eventi, che al momento non abbiamo la minima idea di come ingegnerizzare.

È il dominio della lebenswelt da cui secondo Habermas (1981) siamo in grado di lasciar emergere gli aspetti pertinenti per le decisioni sull’azione, senza sapere da dove provengono i contenuti che stiamo tematizzando e che compongono il materiale di dibattito con gli altri – ma che ogni volta siamo in grado di selezionare con una sorta di tropismo verso la verità.

Senso e intelligenza non si nutrono della fugacità con cui si aggregano e dileguano le orme degli sciami di insetti e di uccelli: sono la struttura stessa che rende possibile la società degli uomini e il processo illimitato di interpretazione del mondo e degli altri che si chiama cultura. No lebenswelt, no qomplotto.

Yann LeCun ritiene che Q* debba essere il nome di un progetto che ha raggiunto qualche risultato utile nelle procedure di apprendimento con rinforzo (reinforcement learning), che è il modello di training applicato a ChatGPT. Si consideri che uno degli algoritmi più diffusi in questo ambito si chiama Q-learning, mentre A* è il nome di un importante algoritmo per l’individuazione del percorso più efficace tra due nodi di una rete. Q* potrebbe quindi individuare un algoritmo capace di ottimizzare il processo di apprendimento introducendo un metodo di pianificazione nelle operazioni con cui la rete neurale riequilibra i pesi delle unità di elaborazione, dopo il giudizio che il formatore umano ha espresso al termine di ogni nuova prestazione.

In altre parole, Q* consisterebbe in un dispositivo di ottimizzazione dei calcoli probabilistici con cui l’intelligenza artificiale stima l’occorrenza del prossimo lemma che deve introdurre nella frase, o dell’etichetta che deve stampare come didascalia dell’immagine.

Se siete delusi da questa interpretazione di Q*, siete degli altruisti efficaci.

 

2. UN MONOPOLIO DELL’AI

Lo Sciamano ha guidato una farsa di guerra civile nelle stanze del Campidoglio; ma anche chiedere ai filosofi – soprattutto se sono altruisti efficaci – di condurre un colpo di stato nella governance di un’impresa miliardaria non è una buona idea.

Dopo aver licenziato Sam Altman il 18 novembre, il CDA di OpenAI non ha rilasciato alcuna dichiarazione né alla stampa, né a Satya Nadella, CEO del benefattore Microsoft. Non ha chiarito le ragioni della decisione nemmeno a Mira Murati, nominata CEO ad interim, e non ha risposto a Greg Brockman, presidente della società, quando questi si è dimesso in solidarietà con Altman.

Oltre 730 dipendenti di OpenAI (su 770 complessivi) hanno firmato una lettera il 20 novembre in cui si dichiaravano pronti a lasciare l’azienda se Altman non fosse stato reintegrato; ma anche questa comunicazione non ha ricevuto risposta. Visto che Mira Murati era arruolata nella lista dei dimissionari, è stata sostituita con Emmet Shear. Il disastro di gestione e di comunicazione del board si è risolto il 22 novembre, in obbedienza alle riflessioni meditate attorno alla scrivania di Nadella[3]: «diamo l’incarico di gestione a degli adulti, torniamo a ciò che avevamo».

Altman e Brockmann sono rientrati ai loro posti in OpenAI, mentre il CDA è stato sciolto e ne è stato convocato uno nuovo.

La stupidità del panico per un mondo di graffette ha finito per lasciare le mani libere all’implementazione del Copilot su Office. Agli altruisti efficaci non sono bastati nemmeno i proclami e l’allarmismo suscitato da Altman in prima persona, che invece sa calcolare molto bene gli effetti delle sue dichiarazioni. Il CEO di OpenAI non ha mai risparmiato la sua voce, anche se con meno enfasi di quella di Elon Musk, per sottolineare i rischi futuri dell’intelligenza artificiale. L’ultima volta è accaduto il 30 maggio 2023 con una lettera aperta[4] in cui si elencano i pericoli riconducibili agli usi dell’AI volti a produrre e diffondere informazioni false in qualunque formato.

Yann LeCun, ancora lui, invita a sospettare sia della propaganda «lungotermista» di Musk e degli altri altruisti efficaci, sia della sollecitudine con cui Altman esorta a riflettere sui rischi dei prodotti di cui è egli stesso responsabile.

L’AI Safety Summit, che si è tenuto a Londra per volere del premier britannico Rishi Sunak e a cui hanno partecipato i leader di ventotto paesi (tra cui l’Italia), è stato in realtà dominato da figure come quella di Elon Musk – che ha duettato in un evento mediatico l’ultima sera con il Primo Ministro di Sua Maestà.

L’obiettivo di tutti questi soggetti è convincere la classe politica dell’esistenza di rischi catastrofici connessi allo sviluppo dell’intelligenza artificiale, da cui sarebbero al riparo solo le imprese che essi controllano.

«Dobbiamo stare attenti a evitare che queste minacce facciano pensare alla politica che sia un pericolo mettere l’intelligenza artificiale nelle mani di tutti e che quindi si impedisca, tramite regolamentazioni, che lo sviluppo di questa tecnologia sia open source», avverte LeCun[5].

La soluzione originaria di OpenAI era quella giusta, ma l’azienda ha virato senza che i controllori prestassero attenzione al rischio reale che si nascondeva sotto lo spauracchio delle graffette. Lo spettro di Clippy si aggirerà per Copilot, ma stavolta sarà molto più accorto.

Aggiunge LeCun: «Immagina un futuro in cui tutte le nostre azioni saranno mediate dall’intelligenza artificiale. Se questi sistemi saranno chiusi e controllati da un piccolo numero di aziende tecnologiche californiane, allora ci esponiamo a rischi enormi. Potrebbero per esempio usare la loro influenza per modificare la cultura o le opinioni politiche delle persone. Di conseguenza abbiamo bisogno di un sistema aperto e open source che permetta di creare applicazioni specifiche basate su di esso».

È ora che gli intellettuali tornino a essere adulti, e ricomincino a farsi carico di problemi seri.

 

 

BIBLIOGRAFIA

Bottazzini, Paolo (2023), Nella caverna di ChatGPT, in ChatGPT-4, Imito, dunque sono?, Milano, Edizioni Bietti, 2023, pagg. 44-45.

ChatGPT-4 (2023), Imito, dunque sono?, Milano, Edizioni Bietti, pagg. 166-167.

Dennett, Daniel (2003), Freedom Evolves, New York, Viking Books.

Habermas, Jürgen (1981), Theorie des kommunikativen Handelns, Francoforte, Suhrkamp, cap.1.

Heidegger, Martin (1983), Die Grundbegriffe der Metaphysik : Welt, Endlichkeit, Einsamkeit, Francoforte, Klostermann, Parte II, cap. 2.

Merleau-Ponty, Maurice (1945), Phénoménologie de la perception, Parigi, Gallimard; trad. it. a cura di Andrea Bonomi, Fenomenologia della percezione, Milano, Bombiani, 2003: cfr. in particolare Premessa, pag. 27.

Mitchell, Melanie (2019), Artificial Intelligence: A Guide for Thinking Humans, New York, Farrar, Straus and Giroux, cap. 5.

Searle, John (1995), The Construction of Social Reality, New York, Free Press, cap. 6.

Szegedy, Christian, Zaremba, Wojciech, Sutskever, Ilya, Bruna, Joan, Erhan, Dumitru, Goodfellow, Ian, Fergus, Rob (2013), Intriguing Properties of Neural Networks, «arXiv», preprint arXiv:1312.6199.

 

NOTE

[1] https://www.reddit.com/r/singularity/comments/181oe7i/openai_made_an_ai_breakthrough_before_altman/?rdt=54043

[2] https://twitter.com/ylecun/status/1728126868342145481

[3] https://www.newyorker.com/magazine/2023/12/11/the-inside-story-of-microsofts-partnership-with-openai

[4] https://www.safe.ai/statement-on-ai-risk#open-letter

[5] https://www.wired.it/article/intelligenza-artificiale-yann-lecun-meta/


AI Act – La prima legislazione europea sull’Intelligenza Artificiale

Anno 45 a.C.: Giulio Cesare legifera sulla circolazione dei carri nei centri abitati – dall’alba alla metà del pomeriggio[1]. L’obiettivo è di snellire il traffico urbano, ridurre la sporcizia (sterco dei cavalli), l’odore e il rumore nelle strade durante il giorno (non è cambiato nulla, mi pare).

Anno 1865: in Gran Bretagna viene promulgato il Red Flag Act[2] che impone alle autovetture (self-propelled vehicles, la tassonomia è importante: distingue dalle vetture a cavalli) di avere un equipaggio di almeno 3 persone, di non superare la velocità massima di 4 miglia orarie sulle strade fuori città e di 2 miglia orarie in città, di essere precedute a 60 yarde da un uomo a piedi con una bandiera rossa che ne segnali l’arrivo, regoli il passaggio di carrozze e cavalli e, infine, faccia fermare il veicolo a motore in caso di necessità.

È una normativa stringente, finalizzata – oltre che a proteggere il lavoro dei vetturini pubblici – a garantire la sicurezza delle persone contro la minaccia del trasporto privato "self-propelled".

Anno 1903: entra in vigore il primo codice della strada organico a New York, a fronte della velocità che possono raggiungere senza sforzo, “effortless”, gli autoveicoli lungo le strade cittadine.

Anno 1929: con poco meno di 250.000 circolanti su tutto il territorio nazionale – nasce il Codice della Strada italiano, che vedrà alcune riedizioni e ammodernamenti, nel 1992 e quest’anno.

Queste normative hanno tutte come principale finalità il contenimento dei rischi per guidatori, passeggeri, passanti e cose a fronte del pericolo generato da una tecnologia: i mezzi di trasporto su strada.

E hanno influenzato lo sviluppo della tecnologia “automobile”, così come la tecnologia “automobile" ha orientato il nostro modo di vedere la realtà e le nostre dinamiche sociali, produttive, economiche - come rilevava Bruno Latour con la sua teoria dei Quasi Oggetti [3]

9 dicembre 2023, due giorni fa: l’Unione Europea – primo organo istituzionale al mondo a farlo – ha approvato l’AI ACT, piattaforma normativa sull’utilizzo delle tecnologie di intelligenza artificiale. [4]

“Un quadro giuridico unico per lo sviluppo dell'intelligenza artificiale di cui ci si può fidare. E per la sicurezza e i diritti fondamentali delle persone e delle imprese.”, dichiara Ursula Va Der Leyen [4].

L’obiettivo di questa legge è “garantire che l'IA protegga i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale”, permettendo uno sviluppo efficace ma “sicuro” delle innovazioni.

Tra le norme “in negativo” si evidenziano:

“i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili, come le convinzioni politiche, religiose e la razza; la raccolta non mirata di immagini del volto da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale; il riconoscimento delle emozioni sul posto di lavoro e nelle scuole;  il social scoring; le tecniche manipolative; l'IA usata per sfruttare le vulnerabilità delle persone.” [4]

In positivo, invece, vigerà l’obbligo alla “valutazione dell'impatto sui diritti fondamentali.” [4] Delle applicazioni di IA.

Il punto critico che ha reso complessa la negoziazione è l’utilizzo delle tecnologie di IA da parte delle forze dell’ordine, soprattutto per il riconoscimento biometrico e in tempo reale e la polizia predittiva.

“Alla fine i negoziatori hanno concordato una serie di salvaguardie e ristrette eccezioni per l'uso di sistemi di identificazione biometrica (RBI) in spazi accessibili al pubblico ai fini di applicazione della legge, previa autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti” [4]

Al di là delle specifiche indicazioni normative, va notato che:

  • Le istituzioni comunitarie europee hanno adottato un punto di vista molto concreto sull’IA, in cui prevale il suo carattere di tecnologia, con usi ed effetti privati e pubblici
  • In quanto tecnologia, come accadde per gli autoveicoli dal 1865 in poi, ne ha considerato i rischi per i soggetti che rappresenta: popolazione e tessuto produttivo, e ha – conseguentemente - imposto delle misure di controllo e di contenimento di questi rischi.
  • Nell’ambito dei rischi da contenere, sono stati privilegiati quelli che riguardano la discriminazione, l’invasione del territorio emotivo personale, la manipolazione dei comportamenti e i danni fisici e psicologici agli individui.
  • Inoltre, è stata posta una particolare attenzione sulle tecnologie IA definite “ad alto impatto”[5], che includono i sistemi di IA generale-generativa, come Chat GPT 3.5, per i quali è obbligatoria “l’applicazione ex ante delle regole su sicurezza informatica, trasparenza dei processi di addestramento e condivisione della documentazione tecnica prima di arrivare sul mercato”. [4]
    In poche parole, i produttori dovranno rendere pubblico come viene addestrato il sistema e su quali basi!

 

L’IA, con questa normativa, viene assimilata a molte altre tecnologie, anche dal punto di vista del legislatore, perde una parte dell'aura di mito contemporaneo,
viene collocata nella sua “rete di relazioni, che si estende ben oltre la sua forma”[7]
e – dopo la glorificazione dei potenziali vantaggi già avvenuta in molte sedi istituzionali [6] -
i rischi che genera vengono affrontati in modo concreto
come accade, almeno dal 45 a.C., per tutte le nuove tecnologie.

 

NOTE

[1] Lex Iulia Municipalis, https://www.archeologiaviva.it/4055/rumore-e-traffico-in-citta-un-problema-di-sempre/#:~:text=Gi%C3%A0%20nel%2045%20a.C.%20Giulio,circa%20le%20cinque%20del%20pomeriggio).

[2] https://vlex.co.uk/vid/locomotives-act-1865-808255757

[3] Bruno Latour, Non siamo mai stati moderni, Eleuthera, 2018

[4] https://www.rainews.it/articoli/2023/12/intesa-ue-per-la-legge-su-intelligenza-artificiale-breton-momento-storico-97d8b5ca-141f-4284-a6fb-434b9871ee01.html

[5] Categorizzate per potenza di elaborazione almeno pari a 10^25 FLOPs (floating point operations per second, un criterio tutto sommato più adeguato di quello proposto precedentemente sul fatturato dell’impresa.

[6] Si veda il mio post del 24 ottobre 2023, Etica, morale e intelligenza artificiale, https://www.controversie.blog/etica-intelligenza-artificiale-un-approccio-analitico-e-normativo/

[7] Bruno Latour, Non siamo mai stati moderni, Eleuthera, 2018


OpenAI e Sam Altman - Anatomia di un Qomplotto (prima parte)

Si è molto parlato (nelle scorse settimane) del licenziamento di Sam Altman, amministratore delegato di OpenAI, un laboratorio di ricerca sull'intelligenza artificiale costituito dalla società no-profit OpenAI, Inc. e dalla sua sussidiaria for-profit OpenAI, L.P. L'obiettivo dichiarato della sua ricerca sarebbe promuovere e sviluppare un'intelligenza artificiale amichevole (friendly AI) in modo che l'umanità possa trarne beneficio.

Cerchiamo di ricostruire la vicenda.

1. AMERICAN HISTORY Q

Nella cultura americana contemporanea la Q non è una lettera come le altre, perché esercita una forza mitopoietica di cui il resto dell’alfabeto è privo.

Il 6 gennaio 2021 coloro che assaltano la sede del Congresso a Washington brandiscono bandiere con la Q di QAnon: la teoria del complotto universale che per milioni di persone negli USA (e nel resto del mondo) ha trasformato Donald Trump in un supereroe da fumetto contro i poteri occulti del deep state.

Il 22 novembre 2023 la «Reuters» spiega che il licenziamento di Sam Altman da parte del consiglio di amministrazione di OpenAI sarebbe stato giustificato da una lettera di delazione[1], con cui alcuni dipendenti dell’azienda hanno illustrato ai membri del board i pericoli per l’umanità in agguato nelle prossime versioni di ChatGPT.

Il progetto Q* ha appena superato con successo i primi test e si prepara a liberare nel mondo un’AGI – un’intelligenza artificiale generale – armata di una competenza letteraria vasta quanto l’universo, che include le storie sul Golem e sulle altre hybris del genere Frankenstein.

L’assalto al Campidoglio non ha avviato la guerra civile; la minaccia che dai progressi dei software di OpenAI si inneschi l’«esplosione» di un’intelligena artificiale destinata a sostituire l’uomo nel dominio della Terra confida su una probabilità nulla di avverarsi.

La destituzione di Altman, avvenuta il 18 novembre, è un evento simile ad un colpo di stato; anche più di quello tentato dallo Sciamano e dai suoi compagni al Campidoglio nel gennaio 2021, se si considera che OpenAI ha beneficiato di un investimento di 13 miliardi di dollari da parte di Microsoft[2], equivalente al doppio del PIL della Somalia, superiore a quello di un’altra decina di nazioni africane, e pari a quello dell’Armenia, del Madagascar e della Macedonia.

Il finanziamento è in larga parte da ascrivere al rapporto di fiducia tra Kevin Scott, CTO di Microsoft, e Altman; la sua cacciata non è stata preceduta da alcun segnale di crisi, e si è consumata in una fase di espansione e di prosperità dell’azienda.

ChatGPT 3.5 si è laureato nel gennaio 2023 come il servizio internet con la crescita di utenti più veloce di sempre: in soli due mesi dal lancio ha raggiunto la quota di 100 milioni di utenti attivi[3], bruciando in questa competizione il risultato di TikTok (nove mesi) e quello di Instagram (due anni e mezzo).

Il trionfo ha imposto il tema dell’intelligenza artificiale e delle reti neurali all’attenzione del pubblico di massa, ma ha anche riconsegnato a Microsoft una posizione di primato tra le protagoniste dell’innovazione tecnologica.

Il motore di ChatGPT è stato integrato in Bing, e il suo inserimento strutturale nei prodotti di Office (con il marchio «Copilot») è in fase di sperimentazione avanzata.

Trasformerà il rapporto dei colletti bianchi di tutto il pianeta con i loro computer, convertendo in automatico poche idee scarabocchiate con un elenco puntato in un documento di cinque pagine, o in una presentazione Power Point attrezzata di tutto punto; per converso, sarà capace di tradurre il vaniloquio di ore di riunione in un report agile da condividere via mail, e gestirà le operazioni di controllo delle entrate e delle uscite su Excel.

Tuttavia, i burocrati diventeranno ancora più fannulloni, gli impiegati ancora più analfabeti, e Microsoft gioirà sulle disgrazie umane con un valore di mercato anche più immenso di quello attuale.

Quindi siamo di fronte a un caso di «Q di Qomplotto», per usare un’espressione presa in prestito dall’analisi del caso Qanon elaborata da Wu Ming 1 (2023)?

 

2. INTELLETTUALI E IMPRENDITORI

La stupidità spiega molti più misteri del retropensiero, e persino più della serietà del giornalismo di inchiesta.

Potrà sembrare un paradosso, ma lo scenario dei profitti smisurati e la prospettiva di una nuova forma di dominazione culturale sulla produzione dei contenuti business, sono all’origine del colpo di mano del CDA contro Altman.

La governance di OpenAI presentava fino al 18 novembre una configurazione ereditata dalla missione originaria della società, fondata sulla strategia «open source» di Altman, Elon Musk e Peter Thiel[4]: il metodo per assicurare un progetto di intelligenza artificiale a beneficio dell’umanità, e priva di rischi per il futuro, coincide con lo sviluppo di modelli accessibili a tutti, quindi sottoposti al controllo dell’intera comunità degli esperti. Anche dopo l’uscita di Musk dal consorzio, e la maggiore integrazione in Microsoft dal 2020, il comparto di OpenAI destinato alla produzione di servizi for-profit è rimasto sottoposto allo scrutinio di un consiglio di amministrazione nominato dalla componente no-profit.

Nel novembre 2023 il board annoverava oltre ad Altman altri quattro personaggi: Helen Toner, Ilya Sutskever, Adam D'Angelo, Tasha McCauley. Toner ha maturato una carriera di primo piano nell’ambito delle organizzazioni umanitarie grazie al suo coinvolgimento nel movimento accademico dell’«altruismo efficace»[5], che si richiama alla lezione dei filosofi morali Peter Singer, Toby Ord, William MacAskill, e che esercita un’influenza di ampio respiro sull’upper class americana.

Dai temi della beneficienza e del miglioramento delle condizioni di vita nei Paesi più poveri del pianeta, questa corrente di pensiero è passata alla riflessione sulle professioni meritevoli di essere intraprese, e si è estesa ai «rischi esistenziali» e ai «rischi di catastrofe globale»; con una forte vocazione di futurologia che oscilla tra parossismo e parodia (involontaria) del «principio responsabilità» di Hans Jonas (1979).

In questo contesto viene intercettato l’insegnamento di Nick Bostrom (2014), che arruola tra i propri fedeli anche McCauley e Sustkever, nonostante la loro formazione tecnica di altissimo livello, e li allea alle preoccupazioni di Toner. Le tesi di Bostrom sulle «superintelligenze» sono molto famose, anche grazie alle metafore che ha inventato per rendere più persuasiva la distopia che alimenta la sua ansia: mancano pochi anni all’esplosione delle capacità di raziocinio delle intelligenze artificiali, che travolgeranno quelle naturali per velocità, vastità e precisione di intuizione, quantità di memoria, organizzazione e controllo; ma l’attivazione delle loro facoltà produrrà più conseguenze rovinose per l’umanità rispetto a quelle utili.

Qualunque sia lo scopo cui sarà indirizzata, ciascuna superintelligenza tenderà in modo necessario a perseguire comportamenti utili per la propria sopravvivenza e per il raggiungimento degli obiettivi che compongono la sua ragion d’essere: in primo luogo attraverso l’affinamento della potenza di calcolo e della raccolta di risorse necessarie. Di conseguenza, la macchina cui sarà assegnato, per esempio, il compito di creare graffette, agirà in modo da ottimizzare al massimo l’ambiente a questo scopo, riducendo la Terra intera a un deposito di materiale lavorabile e di graffette già confezionate – genere umano incluso.

L’iperbole di Bostrom potrebbe implicare una critica al modello liberistico della visione del mondo, in cui la razionalità coincide con una subordinazione degli elementi della natura e del lavoro dell’uomo (tutti convertiti in risorse) agli obiettivi di produzione, senza alcun interesse per l’orizzonte di senso in cui il processo dovrebbe essere calato. Questo genere di valutazione può incrociare l’allarme per le conseguenze che l’automazione introdotta dal Copilota nella suite Office potrà determinare nelle facoltà di riflessione, di elaborazione strategica, persino di articolazione linguistica, di gran parte degli impiegati e dei dirigenti del mondo.

Di certo si può paventare una scivolata nel processo di proletarizzazione tecnologica degli individui (di tutte le fasce sociali) impegnati in una professione di tipo intellettuale, almeno nei termini di Stiegler (2012). Ma la furia distopica di Bostrom non si placa a così poco prezzo: brama molto di più di una situazione critica che potrebbe suscitare un dibattito serio; esige che la conversione degli esseri umani nei cervelli in una vasca di Putnam (1981) diventi un canovaccio plausibile, il paradigma delle minacce reali.

Per il CDA di OpenAI il passaggio dal Copilota alle graffette è fin troppo breve; tanto più che Microsoft ha già attentato alla pazienza dell’umanità con Clippy dal 1996 al 2007, il mostruoso assistente di Office a forma di graffetta antropomorfa. È bastato un incidente qualunque nel rapporto tra Altman e Toner per innescare i cinque giorni di crisi che negli uffici di Seattle sono stati battezzati, senza alcun aiuto di copywriting da parte di ChatGPT, il Turkey-Shoot Clusterfuck di OpenAI.

Appena annunciata la notizia della deposizione di Altman, la piattaforma Reddit è stata presa d’assalto da un tumulto di commenti[6] e tentativi di interpretazione del colpo di mano ai vertici di OpenAI, molti dei quali in chiave di Qomplotto. Q* è davvero la culla dell’AI che ci trasformerà tutti in graffette? È il Clippy odioso che abita dentro ciascuno di noi, la nostra anima di silicio?

 

Lo sapremo a breve, con un nuovo post.

 

NOTE

[1] https://www.reuters.com/technology/sam-altmans-ouster-openai-was-precipitated-by-letter-board-about-ai-breakthrough-2023-11-22/

[2] https://www.newyorker.com/magazine/2023/12/11/the-inside-story-of-microsofts-partnership-with-openai

[3] https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01/

[4] https://www.nytimes.com/2015/12/12/science/artificial-intelligence-research-center-is-founded-by-silicon-valley-investors.html

[5] https://it.wikipedia.org/wiki/Altruismo_efficace

[6] https://www.reddit.com/r/singularity/comments/181oe7i/openai_made_an_ai_breakthrough_before_altman/?rdt=54043


Sarà mai possibile? - Auto a guida autonoma tra immaginazione e realtà

di Sara Sbaragli (CNR-ISTC), Vincenzo Punzo (UNINA), Giulia Vannucci (CNR-ISTC) e Andrea Saltelli (CNR-ISTC)

Un giorno, in un futuro non troppo lontano, tutto il traffico potrebbe essere guidato dall’intelligenza artificiale con gli esseri umani che leggono le notizie o diversamente impegnati nel comfort delle loro auto o, meglio, nell’agio di un veicolo condiviso.

Importanti ostacoli culturali, tecnologici e normativi dovranno essere superati per ottenere un traffico obbligatorio basato esclusivamente sull’intelligenza artificiale con gli esseri umani confinati a guidare in località speciali. Nel frattempo, il futuro offrirà probabilmente situazioni in cui l’intelligenza artificiale e gli esseri umani coesisteranno nello stesso ambiente di guida.

Sarà mai possibile? Coesisteranno auto guidate dall’uomo e dall’intelligenza artificiale sulla stessa strada? Ovunque nel mondo, da Berkeley a Napoli?

Il problema di questa convivenza sta nella varietà delle culture e degli stili di guida che restano ostinatamente locali nonostante la globalizzazione. Un guidatore guidato dall’intelligenza artificiale ha maggiori probabilità di farsi strada agevolmente nel traffico della ben educata Monaco e meno in quello di Mumbai o Città del Messico.

Il problema principale qui è la riflessività degli agenti umani. Laddove prevalgono stili di guida aggressivi, un conducente umano può rendere la vita difficile ai veicoli automatizzati sfruttando il comportamento cauto dell’intelligenza artificiale, ad esempio, inserendosi davanti alle auto a guida autonoma approfittando del fatto che queste mantengono una giusta distanza di sicurezza dal veicolo che precede. Questo sarebbe il caso, a meno che all’IA non venga consentito di iniziare a negoziare il proprio spazio stradale con conducenti umani che accettano il conseguente rischio di collisione.

È così che le cose potrebbero diventare complicate, con l’intelligenza artificiale che compensa eccessivamente adottando manovre spericolate per “vincere” contro esseri umani ribelli, in scenari fantascientifici, simili a Black Mirror, di auto o camion assassini. Qualcosa del genere accadde qualche anno fa, quando un’intelligenza artificiale di Microsoft impiegò solo un giorno per diventare razzista e dovette essere frettolosamente messa offline. Naturalmente la tecnologia interverrà per evitare che ciò accada. Supponendo quindi che i produttori di automobili raccolgano la sfida della coesistenza tra uomo e intelligenza artificiale, come gestiranno un processo di formazione sull’intelligenza artificiale che debba adattarsi alle scale locali – possibilmente a livello di regione, più che a livello di stati nazionali? In Italia gli autisti di Bolzano non assomigliano a quelli di Milano che sono diversi da quelli di Roma, Napoli e Palermo. Il tema dell’addestramento sensato e della sperimentazione dell’intelligenza artificiale nelle situazioni quotidiane, anche lontano da situazioni “limite” di vita o di morte tanto apprezzate dagli studiosi di etica assorti con carrelli in fuga, è affrontato in un recente articolo sugli Atti della National Academy of Science, una rivista statunitense. Come si può testare il “buon senso” di un’auto automatizzata? Pur sottolineando che sarà probabilmente necessaria una personalizzazione reciproca tra esseri umani e conducenti automatizzati, il pezzo offre consigli utili agli aspiranti tester, come ad esempio non prendere gli esseri umani come gold standard, considerando il compromesso tra autorità umana e autonomia della macchina in vista di risultati sicuri, considerare attentamente le condizioni locali delle culture, degli stili di guida e della morfologia stradale.

Queste calibrazioni avranno bisogno che l’intelligenza artificiale interagisca con modelli di guidatori umani appositamente costruiti con questo scopo in mente. Il compito apparentemente insormontabile di sviluppare questi modelli per testare l’intelligenza artificiale è stato intrapreso da un progetto europeo denominato i4Driving, il cui obiettivo è quello di sviluppare modelli di guida umana in condizioni naturali che possano essere utilizzati da produttori di automobili, da regolatori e dal mondo accademico nei loro test, con l’obiettivo finale di accreditare i sistemi di intelligenza artificiale per l’implementazione sul mercato.

La visione di i4Driving è quella di gettare le basi di una nuova metodologia standard del settore per stabilire una linea credibile e realistica della sicurezza stradale umana per la valutazione virtuale dei sistemi di mobilità cooperativa, connessa e automatizzata (CCAM[1]). Le due idee centrali proposte nel progetto sono una libreria di simulazione che combina modelli esistenti e nuovi per il comportamento di guida umano; in combinazione con una metodologia che tiene conto dell’enorme incertezza sia dei comportamenti umani che delle circostanze di uso. Trattare l’incertezza è cruciale per il successo della tecnologia e a questo scopo il progetto richiama esperti di diverse discipline per giudicare le ipotesi e i risultati della modellazione. Il team del progetto sta simulando (quasi) incidenti in scenari multi-conducente (accesso a molte fonti di dati, simulatori di guida avanzati e laboratori sul campo) attraverso una rete internazionale[2]. i4Driving offre una proposta a breve e lungo termine: una serie di elementi costitutivi che aprono la strada alla patente di guida per i veicoli autonomi.

Insolitamente, per un progetto orientato alla tecnologia come i4Driving, questo studio esaminerà anche la dimensione culturale della guida autonoma, spingendo gli ingegneri del progetto a lavorare in relazione alla loro visione del mondo, alle aspettative e a possibili pregiudizi. Per questi motivi i tecnologi coinvolti nel team i4Driving si sottoporranno a domande di carattere generale come “Nel probabile caso in cui questa tecnologia richiederà investimenti in infrastrutture pubbliche, la società li sosterrà? Verrà raccolta un’enorme quantità di big data sui guidatori umani. Come verranno utilizzati questi dati dalle autorità, dagli inserzionisti, dagli hacker?”. Queste domande non devono essere risolte da i4Driving ma la visione dei modellatori su questo argomento è necessaria secondo una componente sociologica riflessiva incorporata nel progetto.

Certamente, allo stato attuale della tecnologia, vengono sollevate molte critiche sull’effettiva fattibilità delle auto a guida autonoma. Nonostante gli sforzi pubblicitari dell’ultimo decennio sull'imminente commercializzazione dei veicoli autonomi, ad oggi questi sono ancora considerati non sicuri, nonché un ostacolo al traffico attuale o, ad esempio, alle operazioni dei veicoli di emergenza. Pur promettendo “piena capacità di guida autonoma” – con video apparentemente "messi in scena" – TESLA ha dovuto difendersi in tribunale sostenendo che questa affermazione di marketing non costituivano una frode. L’accusa era che le prestazioni 'autonome' dimostrate erano in realtà artefatte, non genuine.

Sembrerebbe quindi che su questo tema, come su altre nuove tecnologie legate all’intelligenza artificiale, si scontrino visioni contrastanti. Sebbene la tecnologia abbia compiuto progressi significativi per rendere sostenibili i veicoli automatici anche la società dovrà svolgere un ruolo vigile riguardo alle promesse dei produttori.

Come sottolineato da Jack Stilgoe e Miloš Mladenović (due sociologici della tecnologia che si occupano del problema)

i veicoli automatizzati non saranno definiti dalla loro presunta autonomia ma in base al modo in cui la società negozierà la soluzione di questioni politiche come:
Chi vince? Chi perde? Chi decide? Chi paga? Mantenendo aperti all’indagine entrambi i lati della questione, il progetto i4Driving offre un contributo che fa parlare la sociologia con la tecnologia.

 

 

NOTE

[1] Mobilità cooperativa, connessa e automatizzata: per molti aspetti i veicoli di oggi sono già dispositivi connessi. Tuttavia, in un futuro prossimo, interagiranno anche direttamente tra loro, nonché con l’infrastruttura stradale e con gli altri utenti della strada. Questa interazione è il dominio dei sistemi di trasporto intelligenti cooperativi che consentiranno agli utenti della strada di condividere informazioni e utilizzarle per coordinare le loro azioni. Si prevede che questo elemento cooperativo migliorerà significativamente la sicurezza stradale, l’efficienza del traffico e il comfort di guida, aiutando il conducente a prendere le giuste decisioni e ad adattarsi alla situazione del traffico.

[2] La rete internazionale ha collaborato con gli Stati Uniti (struttura NADS), con l’Australia (simulatore di guida avanzato UQ e strutture di simulatore di guida connesse TRACSLab), la Cina (simulatore di guida Tongji Univ. 8-dof e laboratorio sul campo su larga scala) e il Giappone (NTSEL) e con diversi laboratori di progettazione (università e laboratori di ricerca, OEM e Tier 1, autorità di regolamentazione dei veicoli, autorità di omologazione, istituti di standardizzazione e compagnie assicurative).


Maniac, di Benjamín Labatut - Considerazioni

Quando alla fine della seconda guerra mondia­le John von Neumann concepisce
il MANIAC – un calcolatore universale che doveva, nel­le intenzioni del suo creatore,
«afferrare la scienza alla gola scatenando un potere di cal­colo illimitato»
- sono in pochi a rendersi conto che il mondo sta per cambiare per sem­pre”
[1]

 

Il terzo libro di Benjamín Labatut, pubblicato in Italia per i tipi di Adelphi, cerca di raccontare, come i due che lo hanno preceduto, la società e la tecnologia del presente grazie ad uno sguardo su alcune figure drammatiche, tra cui spiccano John Von Neumann , il creatore del Maniac e Lee Sedol, maestro di Go.

Cos’è il Go? Un gioco millenario diffuso soprattutto in Asia
che il profano può considerare come una sorta di dama
soggetta ad una rapida esplosione combinatoria.
Esplosione combinatoria che si è a lungo tempo considerata
il vero argine contro il riproporsi della capitolazione
nel mondo degli scacchi di Garry Kasparov contro DeepBlue.

 

----------

Il tema di quella che chiamiamo intelligenza artificiale è raccontato dalla prospettiva di Sedol, uno dei due veri protagonisti di questa narrazione, che con una frase esemplifica un atteggiamento molto in voga nei confronti di questi temi: il senso di «impotenza e paura», che esalta quella sensazione di «debolezza e fragilità di noi esseri umani».

Di virgolettati come questi, è bene dirlo, il lettore non ne troverà poi molti, a favore invece di un gusto dell’invenzione tutto modernista dell’esplosione, della frammentazione del racconto.

Una frammentazione che regna in realtà nello sguardo con cui Labatut dipinge l’altro protagonista, John von Neumann, e si eclissa invece nella più piana rappresentazione delle vicende di Sedol.

In questo libro non troviamo l’efficacia evocativa che pervade i bozzetti di figure che ci hanno aiutato a “smettere di capire il mondo”, ma una sorta di hollywoodizzazione della vicenda che rende sicuramente avvincenti alcuni momenti di quella rivoluzione innescata dagli anni ’930, a partire della sommessa presentazione di Kurt Gödel a Könisberg.

Tuttavia, si può dire che la lettura non si conclude avendo capito davvero e a fondo quello che è successo. Von Neumann pare niente più che una scheggia impazzita, intenta a portare a termine ogni progetto che incontra nel suo vagabondaggio nei regni della fisica, della matematica e della biologia. Sedol, al contrario, sembra semplicemente schiacciato da qualcosa di impossibile da comprendere.

L’istrionismo del primo e l’incredulità del secondo risultano allora uniti da uno stesso fatalismo: di fronte ad una abilità dirompente di costruzione del mondo, pare che l’intelligenza che la sottende, questa abilità, non possa essere di questo mondo.

Ne segue, inevitabilmente, che von Neumann, insieme ad altri geniali profughi ungheresi, diventi un «marziano» e Sedol paia affrontare nelle sue iconiche partite il terminale umano di uno dei Grandi Antichi sognati negli incubi di Lovecraft, piuttosto che il risultato di una peculiare modo di ragionare sul mondo (quello di una infallibile computazione).

--------

Cosa resta dunque da fare a questa umanità derelitta?

Arrendersi a queste forme di intelligenza aliena?

No, dice Labatut, perché il «miracolo», come lo ha definito in una recente intervista[2],  può sempre accadere e può sempre dunque stravolgere il domani.

Ma è stato un miracolo, allora, che von Neumann abbia portato a fondo la ricerca sulla bomba H?

È stato un miracolo che la sua teoria dei giochi sia stata «l’architrave della Guerra Fredda», come Labatut fa dire a Oskar Morgenstern?

Oppure è stato un miracolo il tumore alle ossa che a 53 anni ha interrotto le sue azioni su questa terra?

Labatut non sorvola certo su questi fatti storici e morali e anzi fa di essi alcuni snodi cruciali del suo racconto. Tuttavia, possiamo dire che l’inevitabilità di un contrappasso sia la stessa di una decisione presa scientemente e ripetutamente in compagnia dei più disparati generali?

Dove sta, quindi, la responsabilità del singolo?

--------

Ecco, forse preso dal tentativo di rendere il più godibile, e cioè serrata e avvincente, la narrazione, Labatut non si confronta davvero con questa domanda, ma la fa aleggiare nelle decisioni di ogni singolo attore.[3]

A chi legge resta così il compito di soppesare e dare una propria risposta a questa questione e forse, durante questo dibattimento tutto privato, torneranno alla mente le parole con cui Leonardo Sciascia commenta il giudizio di Enrico Fermi sul futuro scomparso Ettore Majorana.

---------

Alla «mancanza di buon senso» rimproverata da Fermi a Majorana, mancanza che non gli avrebbe permesso di inventare la bomba atomica come lui invece aveva fatto, Sciascia propone un’altra visione: «Perché un genio della fisica come Majorana, trovandosi di fronte alla virtuale, anche se non riconosciuta, scoperta della fissione nucleare, non potrebbe aver capito che il fiammifero per accendere l’isola di fulmicotone su cui si trovavano c’era già, ed essersene allontanato – poiché mancava di buon senso – con sgomento, con terrore?».

Rompere la mano che vuol sfregare quel fiammifero allora può diventare il vero segno di un’intelligenza non aliena ma ben radicata nel nostro pianeta. E non è detto che questa intelligenza sia per forza umana.

 

 

NOTE

[1] Dal risvolto di copertina dell’edizione italiana: Maniac, B. Labatut, Adelphi, 2023

[2] L’intervista è quella rilasciata a Fahrenheit, il programma di Rai Radio 3, e il passaggio è nella risposta dell’autore all’ultima domanda della conduttrice. https://www.raiplaysound.it/audio/2023/10/Fahrenheit-del-04102023-24a6d3a6-db42-424b-8941-1ebcb3426e1e.html

[3] Nella stessa intervista prima menzionata Labatut, tuttavia, dice: «People who have great intelligence carry a weight of responsibility but the fact of the matter is that we, as human beings, make the world and it could be made in very different ways, so the responsibility is shared. It’s not something that we can just delegate to others who are smarter than us, who are more intelligent than us, who are more capable than us. I think that there are certain people whose job it is to come up with new things but it's all of our jobs to decide what we do what are the limits»


Etica, morale & Intelligenza Artificiale

L’intelligenza artificiale è una tecnologia “nuova” che sta trovando applicazione in numerosi campi scientifici, industriali, sociali e politici, e – come per ogni nuova tecnologia – nella sua applicazione possono emergere dei problemi di carattere etico e morale.

In questo post:

  • cerco di mettere in rilievo perché sia opportuno dedicare attenzione alla correlazione tra intelligenza artificiale e questioni etiche e morali
  • analizzo due casi concreti di utilizzo di tecnologie intelligenti alla ricerca di spunti di riflessione
  • provo a rappresentare un esempio di catena di responsabilità nella realizzazione di questo tipo di tecnologie
  • e, infine, traggo delle conclusioni di ordine morale – che mi piacerebbe che fossero normative

 Per definire convenzionalmente e localmente – giusto per la lettura di questo post – l’Intelligenza Artificiale, mi attengo a questa coppia di definizioni, la prima di “intelligenza”,  di E. Scribano, in un suo libro su Descartes, da me modificata in senso più generale, e la seconda di “artificiale”, dal Dizionario Treccani:

  • intelligenza: il vivente è una macchina intelligente, se traduciamo questo termine nell'insieme dei comportamenti causati da stati fisici che consentono al corpo vivente di reagire all'ambiente in modo funzionale a degli obiettivi [1], tenendo conto dell'esperienza passata [2]
  • artificiale: fatto, ottenuto con arte

Allo stesso livello di generalità prendiamo in considerazione la definizione che si trova sul sito di un gigante delle tecnologie, la Oracle Corporation:

Intelligenza Artificiale (I.A.): sistemi o macchine che imitano l'intelligenza umana per eseguire certe attività e che sono in grado di migliorarsi continuamente in base alle informazioni raccolte [3]

 

PERCHÈ PARLARE DI ETICA E DI MORALE ASSOCIATE ALL’IA?

La riflessione può nascere in un contesto molto familiare, la guida di una automobile con un sistema intelligente anti-collisione: il sistema ha provocato la frenata, ha letteralmente “inchiodato” la macchina in mezzo al Carrobbio [4], senza che il guidatore (io) capisse perché o potesse intervenire. La ragione della frenata era un gatto che era passato a pochi centimetri dal sensore radar e che, senza anti-collisione, forse non avrei risparmiato.

Le lateralità di questo salvataggio di un gatto del Carrobio sono state, per fortuna, senza conseguenze:

1) il cane di famiglia è finito a gambe all’aria nel bagagliaio

2) l’auto che mi seguiva ha inchiodato a sua volta evitando il tamponamento

Non si può negare, osservando questo caso banale, che un problema morale nell’utilizzo di tecnologie intelligenti c’è.

C’è ed è pervasivo: nel 2022 gli investimenti per l’IA sono di 500 milioni di euro in Italia [5] e di più di 90 miliardi di dollari nel mondo[6].

C’è e prende diverse direzioni: gli investimenti in Italia sono destinati all’Elaborazione Intelligente di Dati (34%), alla Comprensione del Linguaggio Naturale (28%), ai Sistemi di Supporto alla Decisione (19%), alla Visione Computerizzata (10%) e all’Automazione Robotica dei Processi.[7]

Il caso della frenata, del gatto del Carrobbio e del cane di famiglia si colloca tra Visione Computerizzata, Elaborazione Intelligente di Dati e Automazione dei Processi.

Inoltre, lo sviluppo delle tecnologie di IA è sostenuto dalle Istituzioni: ad esempio, lo Stato italiano ha elaborato un Programma Strategico per gli anni 2022 – 2024, focalizzato su Talenti (da creare o trattenere), Competenze (da generare) e Applicazioni, nel privato e nella Pubblica Amministrazione. [8]

Le Istituzioni non nascondono il problema morale e alcune preoccupazioni; tra il 2019 e il 2022, l’Unione Europea ha varato 3 deliberazioni [9] che cercano di normare le implicazioni etiche della nuova tecnologia: le “Linee Guida per una IA affidabile” si focalizzano sulla robustezza, sul rispetto della sicurezza degli esseri umani (escludendo il gatto del Carrobbio, il cane di famiglia e altri viventi non umani), della trasparenza, della privacy, della non-discriminazione, del benessere ambientale e sociale, e sulla attribuzione di responsabilità per le azioni delle tecnologie; un Atto per l’Intelligenza Artificiale, che delinea l’approccio corretto per lo sviluppo e l’applicazione; una proposta per stabilire delle norme di responsabilità civile in caso di danni.

Il problema morale è enfatizzato dal comportamento delle Aziende: più di un terzo delle Aziende che utilizzano IA non ritiene rilevante il tema etico, il 40% lo prende in considerazione in termini futuri o in modo destrutturato; solo il 21% ha una strategia definita[10] .

-------

L’APPROCCIO DEL PARLAMENTO EUROPEO

Una pubblicazione del Parlamento Europeo, su rischi e vantaggi dell’Intelligenza Artificiale, esprime la visione dell’Istituzione che legifera per l’EU sull’IA:

“L’intelligenza artificiale può consentire lo sviluppo di una nuova generazione di prodotti e servizi, anche in settori in cui le aziende europee sono già in una posizione di forza come l’economia circolare, l’agricoltura, la sanità, la moda e il turismo. Può infatti offrire percorsi di vendita più fluidi e ottimizzati, migliorare la manutenzione dei macchinari, aumentare sia la produzione che la qualità, migliorare il servizio al cliente e risparmiare energia.” [11]

“L’intelligenza artificiale potrebbe significare una migliore assistenza sanitaria, automobili e altri sistemi di trasporto più sicuri e anche prodotti e servizi su misura, più economici e più resistenti. Può anche facilitare l’accesso all’informazione, all’istruzione e alla formazione.” [12]

“L’IA aiuta a rendere il posto di lavoro più sicuro, perché il lavoro più pericoloso può essere demandato ai robot, e offrire nuovi posti di lavoro grazie alla crescita delle industrie dell’intelligenza artificiale.”[13]

E stima l’aumento della produttività del lavoro tra l’11% e il 37% entro il 2035. [14]

L’approccio tradisce la visione scientista, positivista ed efficientista –che proviene dalla pratica scientifica e dalle aziende che ricercano efficacia ed efficienza.

Poco viene detto sulle lateralità negative.

Si potrebbe tradurre: benvenuta la nuova tecnologia che aiuta la crescita e il comfort delle persone che già hanno la gran parte delle opportunità e dei privilegi.

---------

DUE CASI CONCRETI ED EMBLEMATICI

Il primo caso esemplare è quello già accennato del radar anti-collisione dell’automobile.

Tra i soggetti potenzialmente coinvolti negli effetti di applicazione ci sono – oltre al gatto del Carrobbio e al cane di famiglia: il guidatore, i passeggeri che possono riportare danni, i passanti che si possono salvare, gli altri automobilisti che hanno tempi di reazione molto minori del sistema e possono subire danni fisici in caso di tamponamento.

Il problema morale, in questo caso, può essere delineato in questi termini:

  • il sistema deve intervenire o solo “avvisare”, cioè, suggerire al guidatore un intervento?
  • Cosa farebbe un umano senza il sistema?
  • Che frequenza e gravità hanno gli effetti collaterali negativi?
  • Per gestire il trade-off tra danni ad un vivente e un altro, si deve fornire al sistema una scala di valore delle categorie di esseri viventi per decidere cosa fare?
  • Quanto deve essere grande e vicina la sagoma rilevata, per attivare la frenata?
  • Si deve lasciare al guidatore la possibilità di disattivare il sistema?
  • Come sono influenzate dalle culture locali, in Europa, in USA, in Cina, le categorie logiche che informano il sistema? John, Hu, Michelle, Stella darebbero le stesse istruzioni alla macchina? E quando Jack usa la macchina di Michelle?

Il secondo contesto che esaminiamo è quello delle applicazioni in campo medico, in particolare dei sistemi intelligenti di supporto alla diagnosi, per i quali KBV Research stima 1,3 miliardi di dollari di spesa all’anno.[15]

Le principali applicazioni diagnostiche, basate sui grandi numeri e sull’analisi statistica, sono rivolte a pratiche come:

  • la diagnosi differenziale – che è discernimento tra diverse possibili patologie con sintomatologie simili
  • la ricerca di pattern fuori focus – cioè, di sintomi, fenomeni, elementi e manifestazioni minori che, se identificati, possono aiutare a diagnosticare patologie che sono fuori dal focus diagnostico principale
  • l’analisi ex-post del tasso di errore diagnostico umano, per esempio a fronte di determinati schemi di sintomi che “puntano” a diverse possibili patologie

per ridurre il tasso di errore diagnostico umano.

Una ragione per cui si investono capitali così ingenti sulle tecnologie diagnostiche intelligenti è, infatti, l’incidenza di errori diagnostici dei medici, che si stima causi alcune migliaia di morti in Italia e decine di migliaia negli USA;[16] oltre al costo sociale, questi errori comportano anche costi finanziari ingenti – in termini di ulteriori esami, ricoveri e, soprattutto, risarcimenti.

Le cause degli errori diagnostici, secondo uno studio congiunto di Sidney University  e University of Newcastle (Aus), sono per il 15% di tipo cognitivo, legate a:

  • uso errato della statistica
  • ancoraggi, ossia collegamenti rigidi tra situazioni sintomatiche e diagnosi
  • errori di framing
  • pletora o carenza di esami
  • fissazione su esperienze di successo
  • cecità attentiva

In questo senso, i tanti sostenitori dell’utilizzo delle tecnologie intelligenti in diagnostica, che si richiamano al concetto di Medicina Basata sulle Evidenze (EBM, Evidence Based Medicine), ritengono che questi sistemi possano supportare il lavoro diagnostico grazie a:

  • l’uso razionale delle informazioni
  • l’interpretazione automatizzata dei dati diagnostici
  • l’uso intensivo delle statistiche, delle frequenze storiche e delle previsioni probabilistiche

Tuttavia, i sistemi di Intelligenza Artificiale cadono spesso in errori (allucinazioni), come è accaduto a ChatGPT quando ha suggerito che si possono ottimamente sostituire i bisturi con i grissini. [17]

Il problema morale sotteso all’uso di queste tecnologie in diagnostica è correlato a:

  • la possibilità di errore sistematico nella progettazione degli algoritmi di apprendimento e di analisi
  • la prevalenza della statistica sull’esperienza, che può influenzare il medico sulle occorrenze più probabili e ad ignorare le possibilità meno frequenti, replicando gli effetti degli errori cognitivi
  • l’effetto black box, ossia l’accettazione acritica di ciò che suggerisce il sistema.

-----------

PROBLEMA DELLA RESPONSABILITÀ

Il problema morale solleva quello della responsabilità, che vede coinvolta una serie di figure professionali quali, p.e.:  il progettista, l’ingegnere della conoscenza che controlla l’apprendimento, il programmatore che “scrive” i meccanismi di autoapprendimento, il produttore, l’acquirente – p.e.: il dipartimento acquisti della struttura sanitaria, l’utilizzatore tecnico e l’utilizzatore finale che prende la decisione diagnostica e alimenta il meccanismo di autoapprendimento.

Ad esempio: in caso di danni ad un paziente derivanti da malfunzionamento o da una distorsione del sistema, a chi va attribuita la responsabilità? A chi l’ha realizzato oppure a chi l’ha istruito? Al produttore che lo vende sulla base di una promessa di valore che volutamente tralascia le negatività? All’acquirente abbagliato dai risparmi? Oppure all’utilizzatore finale che prende per buono acriticamente il responso della “macchina”?

La responsabilità morale – a mio avviso – ricade su tutti i soggetti che hanno trascurato, con motivazioni differenti, i rischi di errore e di lateralità del sistema.

In assenza di una norma che regoli tutte le fasi del processo, è evidente che anche la responsabilità giuridica è difficile da attribuire.

Forse è più facile agire affinché questi errori accadano con minore frequenza, grazie alla consapevolezza sui rischi legati all’utilizzo delle tecnologie e a un grado superiore di responsabilizzazione preventiva di tutti i soggetti.

-----------

CI SONO DELLE CONCLUSIONI?

Posto che quello della IA può essere un cambiamento epocale con enormi caratteri positivi, vorrei delineare delle possibili raccomandazioni generali di ordine morale:

  • non ci si può sottrarre ad una analisi approfondita dei criteri morali che informano i comportamenti delle macchine;
  • va tenuto presente che i modelli di apprendimento sono altrettanto sensibili al problema morale; come vengono addestrate le macchine, quali euristiche adottano, quali modelli di percezione [18] vengono usati, sono fattori determinanti per il comportamento delle tecnologie e per l’orientamento delle decisioni umane;
  • non è il caso di sostituire l’analisi e l’esperienza con i modelli statistici: in diagnostica, p.e., l’IA può egregiamente svolgere funzioni di supporto ma è preferibile che “non prenda decisioni”
  • ci si deve guardare dall’effetto black box, soprattutto se nei sistemi sono incluse funzionalità di apprendimento;
  • non vanno mai dimenticate le lateralità sociali

Ma questo vale per tutte le nuove tecnologie.

 

 

 

 

NOTE

[1] Il testo originale (vedi nota successiva) recitava “alla conservazione della vita”

[2] E. Scribano, Macchine con la mente, Carocci Editore, 2015

[3] https://www.oracle.com/it/artificial-intelligence/what-is-ai/

[4] Il Carrobbio, da quadrivium, è un largo di Milano le cui origini risalgono all'epoca romana. È posto indicativamente alla confluenza fra via Torino, corso di Porta Ticinese, via San Vito, via Cesare Correnti e via del Torchio. Nei dintorni circolano ancora numerosi gatti randagi.

[5] Politecnico di Milano, Osservatori.net - Osservatorio Artificial Intelligence 2023

[6] AI index report 2022, Stanford University

[7] : Politecnico di Milano, Osservatori.net - Osservatorio Artificial Intelligence 2023

[8] Ibidem

[9] Ibidem

[10] Ibidem

[11] Parlamento Europeo - https://www.europarl.europa.eu/news/it/headlines/society/
20200918STO87404/quali-sono-i-rischi-e-i-vantaggi-dell-intelligenza-artificiale

[12] Ibidem

[13] Ibidem

[14] Ibidem

[15] KBV RESEARCH - https://www.kbvresearch.com/artificial-intellgence-diagnostic-market

[16] Morti in ospedale all’anno per errori diagnostici, in Italia: più di 10.000 (M. Motterlini, V. Crupi, Decisioni Mediche, Raffello Cortina Editore, 2005); in Usa: tra 44.000 e 100.000 (Politecnico di Milano, 2002; United States Institute of Medicine, 1999)

[17] Corriere della Sera, 24.01.2023

[18] A breve sarà a disposizione sul blog un articolo di un filosofo orientale che focalizza l’attenzione sulla dimensione epistemologica dell’IA