Si è molto parlato (nelle scorse settimane) del licenziamento di Sam Altman, amministratore delegato di OpenAI, un laboratorio di ricerca sull’intelligenza artificiale costituito dalla società no-profit OpenAI, Inc. e dalla sua sussidiaria for-profit OpenAI, L.P. L’obiettivo dichiarato della sua ricerca sarebbe promuovere e sviluppare un’intelligenza artificiale amichevole (friendly AI) in modo che l’umanità possa trarne beneficio.
Cerchiamo di ricostruire la vicenda.
1. AMERICAN HISTORY Q
Nella cultura americana contemporanea la Q non è una lettera come le altre, perché esercita una forza mitopoietica di cui il resto dell’alfabeto è privo.
Il 6 gennaio 2021 coloro che assaltano la sede del Congresso a Washington brandiscono bandiere con la Q di QAnon: la teoria del complotto universale che per milioni di persone negli USA (e nel resto del mondo) ha trasformato Donald Trump in un supereroe da fumetto contro i poteri occulti del deep state.
Il 22 novembre 2023 la «Reuters» spiega che il licenziamento di Sam Altman da parte del consiglio di amministrazione di OpenAI sarebbe stato giustificato da una lettera di delazione[1], con cui alcuni dipendenti dell’azienda hanno illustrato ai membri del board i pericoli per l’umanità in agguato nelle prossime versioni di ChatGPT.
Il progetto Q* ha appena superato con successo i primi test e si prepara a liberare nel mondo un’AGI – un’intelligenza artificiale generale – armata di una competenza letteraria vasta quanto l’universo, che include le storie sul Golem e sulle altre hybris del genere Frankenstein.
L’assalto al Campidoglio non ha avviato la guerra civile; la minaccia che dai progressi dei software di OpenAI si inneschi l’«esplosione» di un’intelligena artificiale destinata a sostituire l’uomo nel dominio della Terra confida su una probabilità nulla di avverarsi.
La destituzione di Altman, avvenuta il 18 novembre, è un evento simile ad un colpo di stato; anche più di quello tentato dallo Sciamano e dai suoi compagni al Campidoglio nel gennaio 2021, se si considera che OpenAI ha beneficiato di un investimento di 13 miliardi di dollari da parte di Microsoft[2], equivalente al doppio del PIL della Somalia, superiore a quello di un’altra decina di nazioni africane, e pari a quello dell’Armenia, del Madagascar e della Macedonia.
Il finanziamento è in larga parte da ascrivere al rapporto di fiducia tra Kevin Scott, CTO di Microsoft, e Altman; la sua cacciata non è stata preceduta da alcun segnale di crisi, e si è consumata in una fase di espansione e di prosperità dell’azienda.
ChatGPT 3.5 si è laureato nel gennaio 2023 come il servizio internet con la crescita di utenti più veloce di sempre: in soli due mesi dal lancio ha raggiunto la quota di 100 milioni di utenti attivi[3], bruciando in questa competizione il risultato di TikTok (nove mesi) e quello di Instagram (due anni e mezzo).
Il trionfo ha imposto il tema dell’intelligenza artificiale e delle reti neurali all’attenzione del pubblico di massa, ma ha anche riconsegnato a Microsoft una posizione di primato tra le protagoniste dell’innovazione tecnologica.
Il motore di ChatGPT è stato integrato in Bing, e il suo inserimento strutturale nei prodotti di Office (con il marchio «Copilot») è in fase di sperimentazione avanzata.
Trasformerà il rapporto dei colletti bianchi di tutto il pianeta con i loro computer, convertendo in automatico poche idee scarabocchiate con un elenco puntato in un documento di cinque pagine, o in una presentazione Power Point attrezzata di tutto punto; per converso, sarà capace di tradurre il vaniloquio di ore di riunione in un report agile da condividere via mail, e gestirà le operazioni di controllo delle entrate e delle uscite su Excel.
Tuttavia, i burocrati diventeranno ancora più fannulloni, gli impiegati ancora più analfabeti, e Microsoft gioirà sulle disgrazie umane con un valore di mercato anche più immenso di quello attuale.
Quindi siamo di fronte a un caso di «Q di Qomplotto», per usare un’espressione presa in prestito dall’analisi del caso Qanon elaborata da Wu Ming 1 (2023)?
2. INTELLETTUALI E IMPRENDITORI
La stupidità spiega molti più misteri del retropensiero, e persino più della serietà del giornalismo di inchiesta.
Potrà sembrare un paradosso, ma lo scenario dei profitti smisurati e la prospettiva di una nuova forma di dominazione culturale sulla produzione dei contenuti business, sono all’origine del colpo di mano del CDA contro Altman.
La governance di OpenAI presentava fino al 18 novembre una configurazione ereditata dalla missione originaria della società, fondata sulla strategia «open source» di Altman, Elon Musk e Peter Thiel[4]: il metodo per assicurare un progetto di intelligenza artificiale a beneficio dell’umanità, e priva di rischi per il futuro, coincide con lo sviluppo di modelli accessibili a tutti, quindi sottoposti al controllo dell’intera comunità degli esperti. Anche dopo l’uscita di Musk dal consorzio, e la maggiore integrazione in Microsoft dal 2020, il comparto di OpenAI destinato alla produzione di servizi for-profit è rimasto sottoposto allo scrutinio di un consiglio di amministrazione nominato dalla componente no-profit.
Nel novembre 2023 il board annoverava oltre ad Altman altri quattro personaggi: Helen Toner, Ilya Sutskever, Adam D’Angelo, Tasha McCauley. Toner ha maturato una carriera di primo piano nell’ambito delle organizzazioni umanitarie grazie al suo coinvolgimento nel movimento accademico dell’«altruismo efficace»[5], che si richiama alla lezione dei filosofi morali Peter Singer, Toby Ord, William MacAskill, e che esercita un’influenza di ampio respiro sull’upper class americana.
Dai temi della beneficienza e del miglioramento delle condizioni di vita nei Paesi più poveri del pianeta, questa corrente di pensiero è passata alla riflessione sulle professioni meritevoli di essere intraprese, e si è estesa ai «rischi esistenziali» e ai «rischi di catastrofe globale»; con una forte vocazione di futurologia che oscilla tra parossismo e parodia (involontaria) del «principio responsabilità» di Hans Jonas (1979).
In questo contesto viene intercettato l’insegnamento di Nick Bostrom (2014), che arruola tra i propri fedeli anche McCauley e Sustkever, nonostante la loro formazione tecnica di altissimo livello, e li allea alle preoccupazioni di Toner. Le tesi di Bostrom sulle «superintelligenze» sono molto famose, anche grazie alle metafore che ha inventato per rendere più persuasiva la distopia che alimenta la sua ansia: mancano pochi anni all’esplosione delle capacità di raziocinio delle intelligenze artificiali, che travolgeranno quelle naturali per velocità, vastità e precisione di intuizione, quantità di memoria, organizzazione e controllo; ma l’attivazione delle loro facoltà produrrà più conseguenze rovinose per l’umanità rispetto a quelle utili.
Qualunque sia lo scopo cui sarà indirizzata, ciascuna superintelligenza tenderà in modo necessario a perseguire comportamenti utili per la propria sopravvivenza e per il raggiungimento degli obiettivi che compongono la sua ragion d’essere: in primo luogo attraverso l’affinamento della potenza di calcolo e della raccolta di risorse necessarie. Di conseguenza, la macchina cui sarà assegnato, per esempio, il compito di creare graffette, agirà in modo da ottimizzare al massimo l’ambiente a questo scopo, riducendo la Terra intera a un deposito di materiale lavorabile e di graffette già confezionate – genere umano incluso.
L’iperbole di Bostrom potrebbe implicare una critica al modello liberistico della visione del mondo, in cui la razionalità coincide con una subordinazione degli elementi della natura e del lavoro dell’uomo (tutti convertiti in risorse) agli obiettivi di produzione, senza alcun interesse per l’orizzonte di senso in cui il processo dovrebbe essere calato. Questo genere di valutazione può incrociare l’allarme per le conseguenze che l’automazione introdotta dal Copilota nella suite Office potrà determinare nelle facoltà di riflessione, di elaborazione strategica, persino di articolazione linguistica, di gran parte degli impiegati e dei dirigenti del mondo.
Di certo si può paventare una scivolata nel processo di proletarizzazione tecnologica degli individui (di tutte le fasce sociali) impegnati in una professione di tipo intellettuale, almeno nei termini di Stiegler (2012). Ma la furia distopica di Bostrom non si placa a così poco prezzo: brama molto di più di una situazione critica che potrebbe suscitare un dibattito serio; esige che la conversione degli esseri umani nei cervelli in una vasca di Putnam (1981) diventi un canovaccio plausibile, il paradigma delle minacce reali.
Per il CDA di OpenAI il passaggio dal Copilota alle graffette è fin troppo breve; tanto più che Microsoft ha già attentato alla pazienza dell’umanità con Clippy dal 1996 al 2007, il mostruoso assistente di Office a forma di graffetta antropomorfa. È bastato un incidente qualunque nel rapporto tra Altman e Toner per innescare i cinque giorni di crisi che negli uffici di Seattle sono stati battezzati, senza alcun aiuto di copywriting da parte di ChatGPT, il Turkey-Shoot Clusterfuck di OpenAI.
Appena annunciata la notizia della deposizione di Altman, la piattaforma Reddit è stata presa d’assalto da un tumulto di commenti[6] e tentativi di interpretazione del colpo di mano ai vertici di OpenAI, molti dei quali in chiave di Qomplotto. Q* è davvero la culla dell’AI che ci trasformerà tutti in graffette? È il Clippy odioso che abita dentro ciascuno di noi, la nostra anima di silicio?
Lo sapremo a breve, con un nuovo post.
NOTE
[1] https://www.reuters.com/technology/sam-altmans-ouster-openai-was-precipitated-by-letter-board-about-ai-breakthrough-2023-11-22/
[2] https://www.newyorker.com/magazine/2023/12/11/the-inside-story-of-microsofts-partnership-with-openai
[3] https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01/
[4] https://www.nytimes.com/2015/12/12/science/artificial-intelligence-research-center-is-founded-by-silicon-valley-investors.html
[5] https://it.wikipedia.org/wiki/Altruismo_efficace
[6] https://www.reddit.com/r/singularity/comments/181oe7i/openai_made_an_ai_breakthrough_before_altman/?rdt=54043
Autore
-
laureato in filosofia, si occupa di media digitali dal 1999: è co-fondatore di Pquod e SocialGraph, società specializzate nella comunicazione web e nell’analisi di dati. Parallelamente ha svolto attività di docenza sui temi della comunicazione digitale per il Politecnico di Milano, per il Corep presso il Politecnico di Torino, per il Dipartimento di Filosofia dell’Università degli Studi di Milano. Descrive i modelli cognitivi emergenti dai nuovi media nella monografia pubblicata nel 2010: Googlecrazia. Dal febbraio 2011 testimonia la loro evoluzione negli articoli pubblicati sulle testate Linkiesta, pagina99, Gli Stati Generali.
[…] il post della settimana precedente per capire l’intricata vicenda del licenziamento e successiva ri-assunzione di Sam Altman, […]