Le tecnologie non sono neutrali. La lezione dimenticata del determinismo tecnologico

Il determinismo tecnologico (DT), nella sua forma più pura, è un approccio che vede le tecnologie e le innovazioni come indipendenti dalla più ampie dinamiche sociali.

L’idea è che la tecnologia sia il fattore determinate delle vicende umane e gli sviluppi tecnologici non siano guidati dall’attività umana, ma da una logica interna all’innovazione scientifica.

Un esempio è il concetto di blockchain e cryptovalute che, secondo chi li promuove, sono liberi dalla manipolazione del potere istituzionale e generano effetti sociali in modo autonomo; un secondo esempio è la IA che, secondo alcuni sostenitori  in grado aumentare le capacità umane e di rivoluzionare settori quali la finanza, sicurezza nazionale l’assistenza sanitaria ecc.

I principi del DT sono tre:

  • la tecnologia rappresenta una dimensione esterna rispetto alla società, in grado di agire al di fuori di essa;
  • ogni cambiamento tecnologico produce un cambiamento nelle forme di organizzazione e di interazione sociale;
  • la società si adatta alla tecnologia.

Il DT è stato molto criticato dagli Science and Technology Studies (STS), tra la fine degli anni ‘70 e l’inizio degli ’80, , ritenuto un approccio obsoleto, se non addirittura sbagliato, e “ridotto allo status di uno spaventapasseri” (Lynch 2008, 10).

Infatti, sociologicamente parlando, risulta difficile sostenere che le innovazioni tecnologiche riescano a plasmare in maniera univoca la nostra vita quotidiana.

Per cui è più interessante impostare delle analisi in cui, si tiene conto di una serie di dinamiche che le tecnologie innescano, senza però farsi affascinare troppo e senza pensare che queste siano le uniche possibili.

Dunque, è più corretto parlare di tre forme di DT:

  • forte: la tecnologia impatta sulla società e rappresenta il principale motore del cambiamento sociale;
  • media: la tecnologia determina lo sviluppo sociale e le possibilità d’azione dei soggetti;
  • leggera: la tecnologia influenza la società e orienta l’innovazione sociale.

Quindi, cosa possiamo salvare del determinismo tecnologico?

Ciò che di buono ha messo in luce il DT è che le tecnologie non sono neutre, ma producono degli effetti. Ovviamente poi possiamo discutere l’intensità di questi effetti. Ma un approccio sociale alle tecnologie deve partire dall’idea che la tecnologia non sia qualcosa di neutrale. Se così non fosse, le tecnologie sarebbero materia solamente per gli ingegneri o tecnologi. Invece, anche gli scienziati sociali possono dire la loro, partendo proprio dall’idea che la diffusione di una tecnologia è legata al proliferare delle dinamiche d’uso.

Quest’ultima idea è stata evidenziata da un altro approccio alle tecnologie: Social Construction of Technology (SCOT). Una delle lezioni fondamentali dello SCOT è che le tecnologie e i loro effetti, vanno misurate sempre in relazione ad altre cose, come l’infrastruttura esistente in un contesto o i gruppi sociali che entreranno in contatto con la tecnologia. Secondo lo SCOT non c’è niente di predeterminato nelle tecnologie; quindi, una nuova tecnologia all’inizio è caratterizzata da un certo tipo di “flessibilità interpretativa” ovvero un periodo in cui alcuni gruppi sociali si approcciano a una tecnologia e ci vedono alcune cose: per alcuni potrebbe essere utile per i propri fini, mentre per altri potrebbe essere pericolosa. Durante questo periodo entrano in gioco diversi “gruppi sociali pertinenti” che cercano di orientare l’artefatto nella loro direzione in base ai loro interessi.

In questo modo si raggiunge una stabilizzazione della tecnologia, incorniciandola, con uno specifico significato d’uso e una forma in grado di tenere insieme le diverse istanze poste dai vari gruppi.

Dunque, guardare alla tecnologia, come fa il DT, come una variabile indipendente che si origina dall’innovazione scientifica e si “impone” agli attori, determinandone le pratiche, le relazioni e le interazioni, risulta troppo radicale. Non è detto che se la tecnologia funziona in un determinato modo, allora le persone dovranno adattarsi e sforzarsi di far funzionare la tecnologia in quello stesso modo.

Risulta difficile pensare che la tecnologia offra determinati input alla società e che questa non possa far altro che adattarsi passivamente. Certo, le tecnologie non sono neutrali, ma diventano quello che sono nel momento in cui gruppi di utenti se ne appropriano, ad esempio un computer può essere utilizzato per lavoro, per lo studio, per giocare, guardare film ecc.

Il punto è che le tecnologie più diffuse sono quelle che vengono utilizzate nei modi più vari, ognuno le usa in base ai propri interessi, problemi, fini e attività quotidiane, permettono dunque una varietà di usi. Di conseguenza l’innovazione vincente non è tale soltanto perché contiene un elemento tecnico migliore o superiore ad altri, ma perché attraverso quell’elemento tecnico riesce a soddisfare una serie di istanze sociali.

Proviamo ora a fare un passo in avanti, attraverso un altro approccio alla tecnologia, l’Actor Network Theory (ANT), ovvero “un semplice metodo per imparare dagli attori senza imporre loro una definizione a priori circa la loro capacità di costruire il mondo” (Latour 1999, 20). Si tratta di un metodo che guarda alla realtà e agli attori senza partire dal presupposto che questi ultimi abbiano un qualche tipo di agency a priori. Attori umani e non-umani sono ugualmente capaci di dare forma ai processi che conducono all’emergere di un’idea, di una conoscenza o di una tecnologia.

Ma quindi in che modo possiamo descrivere il ruolo che hanno le tecnologie?

Una prima risposta è di guardare come gli oggetti intervengono all’interno delle azioni e delle pratiche e come le trasformano. Una nozione classica dell’ANT, è quella di script, ovvero ciò che è inscritto in un artefatto. L’idea è che nel processo di progettazione vengano inscritte, dai progettisti e designer, delle sceneggiature negli oggetti, dei copioni o delle istruzioni su come questi si devono utilizzare; e sono in grado di delineare ruoli, competenze e possibilità d'azione per chi interagisce con tale oggetto. In altre parole, inscrivono una certa idea di utilizzatore e per farlo introducono nell’oggetto alcune caratteristiche che riguardano le competenze dell’utilizzatore e delineano programmi d’azione e ruoli.

A questo punto potrebbe sembrare che lo script rappresenti solamente una serie prescrizioni e proscrizioni inscritte dal progettista e quindi una sorta di determinismo tecnologico, ma non è così. Il concetto di script è un concetto aperto, non ricade all’interno del determinismo tecnologico, è un partire dal presupposto che gli oggetti hanno una loro agency e contribuiscono in vari modi allo sviluppo di una azione, ma non la determinano mai.

Possiamo identificarne due aspetti. Il primo è l’inscrizione: progettisti e designer che tentano di inscrivere un qualche tipo di comportamento o azione nell’oggetto. In questa concezione l’oggetto un po' scompare. Il secondo è ciò che si ritrova inscritto nell’artefatto, ovvero il modo in cui le competenze, le possibili azioni, i ruoli degli utilizzatori sono effettivamente inscritti nell’artefatto. In questo senso l’oggetto assume una sua autonomia di cui dobbiamo tenere conto, il progetto dei designer non esaurisce le possibilità di un oggetto, ma ha una sua autonomia anche perché poi interagirà con altri oggetti e sarà sempre in trasformazione. In altre parole, si tratta di guardare le affordance (Gibson 1979), ovvero tutte quelle possibilità che gli utenti intravedono negli oggetti a partire dalle loro caratteristiche materiali e che non erano state previste dai progettisti. In questo modo gli utenti hanno l’occasione per fare qualcosa di diverso con l’oggetto che hanno di fronte.

In conclusione, la lezione del determinismo tecnologico è valida ancora oggi con alcune sfumature, ma il punto è che le tecnologie non sono neutrali. Gli STS sostengono la necessità di coltivare un approccio più “simmetrico” ai fenomenti sociali guardando alle tecnologie come pratiche sociali, ovvero si comprende l’utilità, la rilevanza, quando se ne osserva l’uso in contesti concreti. L’idea che sta dietro al concetto di affordance è che tutti quanti gli oggetti abbiamo un loro uso e ci pongono dei vincoli, però possiedono delle caratteristiche materiali che possono essere lette da chi li utilizza come inviti ad un uso diverso. La direzione non è quella di fermarsi a guardare la tecnologia-in-sé, ovvero come qualcosa che funziona ed è efficace indipendentemente dai suoi utilizzatori e contesti d’uso pratici. Piuttosto quello di focalizzarsi sulla tecnologia-in-uso (Orlikowski 1992; 2000; Gherardi 2008), ovvero come gli oggetti vengono ri-significati nella pratica, di conseguenza questi non nascono “efficaci” o “sicuri”, ma lo diventano nel momento in cui una comunità di utilizzatori, in specifici contesti d’uso, li costruisce come tali.

 


RIFERIMENTI

Gherardi S. (2008), La tecnologia come pratica sociale: un quadro interpretativo, in Gherardi S. (a cura di) Apprendimento tecnologico e tecnologie di apprendimento, Il Mulino, pp. 7-44.

Gibson J.G. (1979), Per un approccio ecologico alla percezione visiva, Angeli (ed. It. 1995)

Latour B. (1999), On recalling ANT, in “Actor Network Theory and After”, in J. Law, e J. Hassard  (a cura di), Oxford, Blackwell, pp. 15-25.

Lynch M. (2008), Ideas and perspectives, in E Hackett, O. Amsterdamska, M. Lynch e J. Wajcman (a cura di), The Handbook of Science and Technology Studies, Cambridge, MIT Press, pp. 9-12.

Orlikowski W.J. (1992), The duality of Technology: Rethinking the Concept of Technology in Organization, in “Organizational Science”, Vol. 3, n.3, pp. 398-427.

Orlikowski W.J. (2000), Using Technology and Constituting Structures: A Practice Lens for studying technology in organizations, in “Organization Science”, vol. 11, n.4, pp. 404-428.


Le nuvole scrivono il cielo di Seveso - Il crimine di pace, la scienza e il potere

In questo scritto racconterò brevemente che cosa accadde il 10 luglio 1976 e che cos’era l’Icmesa. In seguito, solleverò  alcuni problemi nati con il disastro che interpellano il rapporto tra produzione industriale, ricerca scientifica, ambiente, salute e popolazione, alternando l’utilizzo di fonti bibliografiche, articoli di cronaca e interviste realizzate durante mia ricerca etnografica a Seveso.

10 luglio 1976, ore 12.37

«Eravamo a pranzo. Era anche una bella giornata di sole. Tutto ad un tratto sentiamo pof. Poi un sibilo forte, come se fosse scoppiata una gomma. Ma più forte, come se ci fosse dell’aria che usciva. Io sono corsa sul balcone e come esco dal balcone davanti ho una casa con un altro mio amico. Anche lui era fuori e faceva così [indica il cielo con il dito]. Mi giro e vedo ‘sta nuvola fantastica, bellissima. Bianca. Proprio di un bianco, proprio bello. Bella, sì1».

Chi era presente quel giorno a Seveso non si aspettava una nuvola così bella e così pericolosa proprio in quel momento. Tuttavia, il sentore che sarebbe potuto accadere qualcosa era nell’aria.

«[Hoffmann e La Roche, N.d.R.] hanno sempre considerato l’incidente del 10 luglio ‘76 come un evento casuale. E io ho sempre detto: vero, nel dire casuale il dieci luglio 1976 alle 12.37. L’impianto era talmente obsoleto, la fabbrica e i relativi controlli erano talmente privi di sistemi di sicurezza che un incidente era nelle corde»2, mi ha raccontato Massimiliano Fratter, sevesino dalla nascita e responsabile del progetto il Ponte della memoria. Non solo il cielo fu scritto dal passaggio delle nuvole velenose, ma il risveglio sensoriale interessò anche l’olfatto. Infatti, Maria racconta che poco dopo aver visto quella nuvola bellissima ha sentito anche l’odore di saponetta, «quell’odore buono di profumo». Quello solito a cui era abituata3. L’Icmesa era soprannominata dagli abitanti della zona la fabbrica dei profumi4 per gli odori che la sua produzione esalava.

Le origini della fabbrica risalivano al 1921. Prima della seconda guerra mondiale l’azienda aveva sede a Napoli. Dopo la distruzione dello stabilimento campano a causa dei bombardamenti, la fabbrica fu trasferita Meda, sotto il controllo del gruppo svizzero Givaudan, che ne deteneva il pacchetto azionario di maggioranza e che a sua volta era stata acquisita dalla multinazionale farmaceutica Hoffmann-La Roche5. La produzione dello stabilimento cominciò tra il 1946 e il 1947 e consisteva nella realizzazione di componenti chimici, alcuni dei quali ad alto tasso di pericolosità. In particolare, dal 1969 il reparto B era stato utilizzato per la fabbricazione del 2,4,5-triclorofenolo (TCF), una sostanza impiegata principalmente per la preparazione di alcuni tipi di erbicidi e per la produzione di esaclorofene, un antibatterico utilizzato in alcuni tipi di cosmetici, di saponette e di disinfettanti6.

Tuttavia, per una parte della popolazione di Seveso, per alcuni medici e giornalisti di cronaca locale, l’Icmesa non solo inquinava da anni e avvelenava gli operai e la gente, ma produceva sostanze pericolose non solo per la cosmesi. La fuoriuscita di diossina sarebbe stata una prova.

L’8 agosto 1976 Pierpaolo Bollani intervista (per il Tempo) Fritz Möri, l’ingegnere che aveva progettato il reattore per la produzione di triclorofenolo. Nelle scettiche parole del tecnico di Losanna rispetto all’eventualità di formazione di TCDD nel reattore “a meno di compiere errori madornali», viene presentata la possibilità «che all’Icmesa in quel reattore, La Roche producesse in realtà altre cose»7. Lo stesso direttore tecnico della Givaudan Jörg Sambeth ha ammesso che l’Icmesa era una dreck fabric, una fabbrica sporca, dove l'impianto veniva fatto funzionare al di sotto di qualsiasi standard ragionevole di sicurezza e dove si portavano avanti due linee di produzione: una feriale, più pulita e probabilmente destinata a usi civili, e una festiva, realizzata a temperature critiche, vicine al punto di combustione e di sintesi della diossina.

Anche se non sapremo mai con certezza che cosa producesse l’Icmesa, quanto è accaduto a Seveso pone delle domande attuali in merito al rapporto tra la produzione industriale – e la correlata ricerca scientifica – e l’ambiente, la salute, la popolazione e la guerra. In un intervento contenuto nell’autoproduzione Topo Seveso. Produzioni di morte, nocività e difesa ipocrita della vita8 viene considerata la sottile separazione tra le «produzioni chimiche per la guerra o per la pace»9 perché «è durante la pace che si prepara e si arma la guerra: sono le stesse aziende che producono materiale da imballaggio, detergenti, disinfettanti, che poi preparano anche la base per le bombe e le altre armi chimiche, così come sono le aziende che producono le pentole e le travi per la costruzione che confezionano anche le armi. E le aziende che producono altro, non direttamente implicabile con la guerra, possono sempre investire nel mercato delle armi, più o meno legalmente»10.

Si tratta di una questione centrale per il momento storico in cui viviamo e che toglie il velo di Maya dalla ricerca scientifica intesa come attività neutrale e ab-solutas. Ci fa interrogare sui programmi di ricerca e applicazione delle istituzioni in cui studiamo e dei luoghi in cui lavoriamo. L’evento straordinario di Seveso amministrato secondo le regole dell’ordinaria amministrazione – come Laura Conti ha evidenziato nel reportage Visto da Seveso11 – ci parla ancora oggi delle relazioni che intercorrono tra industria, tecnologia e ambiente. I termini con cui l’evento del 10 luglio 1976 è stato definito sono numerosi e carichi di significati e orizzonti culturali e politici diversi tra loro: incidente, tragedia, fatto, disastro, catastrofe, crimine.

A mio avviso, il concetto di catastrofe, liberato dal particolare uso linguistico sevesino, è utile per focalizzare alcuni nodi della questione. La catastrofe genera paradossi e campi di forze contradditorie. I conflitti nati dall’evento catastrofico hanno interessato la concezione di progresso, di scienza, di salute e di ambiente di un intero Paese. L’agone tra le differenti e opposte prospettive di trattare l’evento straordinario dell’Icmesa ha avuto luogo nelle strade di Seveso, negli ufficiali comunali e nelle aule del Parlamento, nei centri di ricerca nazionali e internazionali, negli articoli di giornale e nelle fabbriche e ha svelato le forze, gli interessi e le asimmetrie di potere strutturali italiane e globali.

Le catastrofi sono totalizzanti e per questo come scrive Mara Benadusi sono «oggetti antropologici e filosofici “buoni da pensare”»12 . Ponendosi come cesure che differenziano un prima e un dopo temporale e spaziale, investono ogni sfera della vita umana e sociale. Le traiettorie biografiche individuali e collettive sono state catapultate dalla dimensione locale a quella globale. Sandro, un abitante di Seveso incontrato durante il mio lavoro di ricerca etnografico nelle zone del disastro dell’Icmesa, riesce a trasmettere la repentinità dell’evento eccezionale ed emergenziale nella sua uscita dalla dimensione locale della Brianza.

«Questa cosa è sicuramente stata molto importante dal punto di vista comportamentale della popolazione perché eri passato da una emerito sconosciuto a uno stronzo che sta inquinando il mondo. Non so come dire […] È una cosa che magari c'è chissà da quante altre parti. Ma finché non succede il fattaccio, nessuno lo viene a sapere»13.

Bruno Biffi, Cielo VIII, 2013. Ossidazione e acido diretto su lastra di ferro, 280x600mm

Il crimine di pace – come lo ha definito Giulio A. Maccacaro, ha sconvolto le comunità di Seveso, Meda, Desio e Cesano Maderno14. In quei territori approdo delle migrazioni interne dell’Italia del secondo dopoguerra, l’economia di tipo artigianale, l’identità di campanile e i valori del lavoro e della religiosità cristiana cattolica furono sconquassate dalla nube del 10 luglio 1976 e dalle lotte sociali e politiche che seguirono. Bruno Ziglioli scrive:

«La popolazione si riaggregò e si divise su basi completamente diverse: tra gli evacuati della zona A che desideravano rientrare nelle proprie abitazioni e gli abitanti rimasti che temevano di essere esposti al veleno; tra coloro che erano sistemati al residence di Bruzzano (cioè vicino a casa) e quelli che invece erano alloggiati al motel Agip di Assago (molto più distante); tra chi tendeva a minimizzare e chi a enfatizzare il pericolo; tra chi era favorevole all’incenerimento in loco del terreno contaminato e chi invece chiedeva di sperimentare tecniche di decontaminazione meno invasive. Vi furono manifestazioni, proteste, blocchi stradali; gli sfollati rioccuparono a più riprese le case nella zona ad alto inquinamento. Come spesso accade in queste situazioni, si innescò anche la caccia al capro espiatorio: i lavoratori dell’Icmesa, e con loro i sindacati, furono additati da una parte degli abitanti come corresponsabili dell’incidente, perché avrebbero conosciuto e taciuto i rischi del processo produttivo e le scarse condizioni di sicurezza dello stabilimento»15 .

Tuttavia, furono proprio gli operai a interrompere la produzione della fabbrica perché dalla direzione non era arrivata nessuna indicazione chiara. Amedeo Argiuolo, operaio dell’Icmesa, ha raccontato in una recente intervista per il Giorno che «all’inizio, l’azienda tentò di minimizzare. Il reparto B era chiuso, e noi ci chiedevamo perché…i responsabili dell’Icmesa dicevano che era solo un piccolo incidente, che era tutto sotto controllo, anzi aveva mandato qualcuno di noi, solo guanti e mascherine, a fare carotaggi: dicevano che avevano mandato tutti ai laboratori di Basilea e ci avrebbero fatto sapere.  Secondo loro, bisognava continuare a lavorare»16.

Il Consiglio di fabbrica dell’Icmesa ha avuto un ruolo fondamentale per fare emergere la pericolosità dell’accaduto non solo all’interno della fabbrica, ma per la popolazione e il territorio circostante. Alberto, abitante delle zone interessate dal disastro, ricorda che: «Qui [a Seveso] era nato anche un comitato. Si chiamava Comitato tecnico scientifico popolare17 e metteva insieme sia il Consiglio di fabbrica dell’Icmesa che ha avuto un ruolo importante in questa vicenda sia gli scienziati»18 .

Il CTSP con il medico G. A. Maccacaro e la rivista Sapere hanno messo in discussione la “scienza ufficiale” che procedeva a tentoni e in un primo momento aveva tentato di insabbiare e poi di minimizzare l’accaduto. Il CTSP fece un lavoro di informazione e controinformazione teso a prendere sul serio l’evento sevesino, rompendo «i giorni del silenzio» di Icmesa-Givaudan-Hoffman-La Roche e delle istituzioni italiane. Infatti, durante l’Assemblea Popolare del 28 luglio 1976, organizzata dalla Federazione Unitaria di CGIL-CISL-UIL nelle scuole medie di Cesano Maderno, i membri del CTSP  hanno segnalato prima di qualsiasi altro organo ufficiale l’avvelenamento della popolazione e del territorio da parte dell’Icmesa. Gli operai del Consiglio di fabbrica che decisero di chiudere la stabilimento per avere maggiore chiarezza erano una parte fondamentale e attiva nel Comitato. Tra le pagine del numero di Sapere interamente dedicato a Seveso, il Gruppo P.I.A.19  dopo aver ricostruito il ciclo produttivo dell’Icmesa nei minimi dettagli conclude interrogando la differenza tra due tipi antagonisti di “cultura e di progresso” e di scienza. Il Gruppo P.I.A. scrive:

«Chi è spinto dalla molla del profitto e adotta la regola che i guadagni sono privati, mentre le perdite sono pubbliche, persegue lo sviluppo di una cultura basata sulla neutralità ed asetticità della Scienza, sulla sua separazione dalla politica, sugli incentivi per la ricerca che provengono dal profitto e dal potere individuali od oligarchici»20 .

Quanto accaduto a Seveso ha aperto la scatola nera in cui sono inestricabilmente imbricate una concezione della scienza neutrale tesa al progresso scientifico-tecnologico, una visione lineare del progresso e delle scelte economiche e politico-istituzionali. Lo scoppio della scatola-reattore ha portato tutte queste questioni e i loro intrecci fuori dalla fabbrica e ha dato vita a un ciclo di lotte per la salute e per l’ambiente di ampia portata, ancora oggi attuali.

 


NOTE

1          Intervista condotta dall’autrice a Maria, abitante della frazione Baruccana di Seveso, in data 14 settembre 2023.

2          Intervista condotta dall’autrice a Massimiliano Fratter in data 28 luglio 2023. M. Fratter è nato a Seveso, è il responsabile del progetto Il ponte della memoria, ha lavorato all’Ufficio Ecologia del Comune di Seveso e ora è impiegato nella biblioteca dell’omonima città.

3          I riferimenti agli odori insistenti, all’inquinamento del torrente Certesa e alla moria di animali che pascolavano nei prati vicini all’Icmesa possono essere rintracciati nei documenti degli archivi comunali di Meda e di Seveso. Per una loro interpretazione storica, vedi M. Fratter, Seveso. Memorie da sotto il bosco, Milano, Auditorium Edizioni, 2006, pp. 53-75.

4          Il giornalista Daniele Bianchessi nel 1995 ha pubblicato il suo primo libro d’inchiesta intitolato La fabbrica dei profumi. La prima edizione è stata pubblicata da Baldini & Castoldi. Il volume è stato rieditato nel 2016 da Jaca Book.

5          Per un maggiore approfondimento sulla storia e la composizione societaria vedi Camera dei deputati, Senato della Repubblica, Relazione conclusiva, Commissione parlamentare di inchiesta sulla fuga di sostanze tossiche avvenuta il 10 luglio 1976 nello stabilimento ICMESA e sui rischi potenziali per la salute e per l’ambiente derivanti da attività industriali, VII legislatura, doc, XXIII, n. 6, 25 luglio 1978, p. 58; B. Ziglioli, La mina vagante. Il disastro di Seveso e la solidarietà nazionale, Milano, Franco Angeli, 2010, p. 16.

6          Per avere una conoscenza più approfondita dei prodotti dell’Icmesa vedi Camera dei deputati, Senato della Repubblica, Relazione conclusiva, op. cit., pp. 62-64.

7          P. Bollani, Io fabbrico morte. Ecco cosa è successo, «Tempo», 8 agosto 1976, in Giunta regionale della Lombardia, Stampa italiana. 10 luglio 1976, Seveso il dramma della nube tossica, n. 1, p. 24. Per ulteriori informazioni sulla possibili produzioni per la guerra chimica, vedi C. Risé, C. Cederna, V. Bettini, Dietro l’Icmesa in Icmesa. Una rapina di salute, di lavoro e di territorio, Milano, Mazzotta, 1976, pp. 58-69; M. Aloisi [et al.] (a cura di), Seveso. La guerra chimica in Italia, «Quaderni di Triveneto», n. 1, Verona, Bertani, 1976.

8          Aa. Vv., Topo Seveso. Produzioni di morte, nocività e difesa ipocrita della vita, Milano, Autoproduzione, 2007. Vedi, http://tuttaunaltrastoria.info/wp-content/uploads/2022/05/POIDIMANI-Atti_Topo_Seveso.pdf.

9           Ivi, p. 12.

10         Ivi, pp. 11-12.

11         L. Conti, Visto da Seveso. L’evento straordinario e l’ordinaria amministrazione, Milano, Feltrinelli, 1976.

12         M. Benadusi, Antropologia dei disastri. Ricerca, Attivismo, Applicazione. Un’introduzione in Antropologia Pubblica, Vol. 1 n. 1-2, 2015, p. 41.

13         Intervista condotta dall’autrice  a Sandro, abitante della frazione Baruccana di Seveso, condotta nel mese di settembre 2023.

14         Si tratta dei quattro comuni della Brianza maggiormente contaminati.

15         B. Ziglioli, La mina vagante. Il disastro di Seveso e la solidarietà nazionale, Milano, Franco Angeli, 2010, p. 46.

16         https://www.ilgiorno.it/monza-brianza/cronaca/operaio-icmesa-fuoriuscita-diossina-0de68f02

17         Da questo punto, userò l’acronimo CTSP per riferirmi al Comitato tecnico scientifico popolare.

18         Intervista condotta dall’autrice ad Alberto presso la sede del Circolo Legambiente – Laura Conti in data 22 agosto 2023. Quando si è verificato il disastro, Alberto aveva 15 anni e andava a scuola a Cesano Maderno.

19         È il Gruppo di prevenzione e di igiene ambientale del Consiglio di fabbrica della Montedison di Castellanza.

20         Gruppo P.I.A, B. Mazza, V. Scatturin, ICMESA: come e perché in Seveso. Un crimine di pace, «Sapere», n. 796, nov.-dic. 1976, Bari, Dedalo, p. 34.


Immagine analogica ed Intelligenza Artificiale - Due mondi apparentemente distanti

Questo post nasce dal seminario tenuto da Diego Randazzo, artista visivo, sul tema “Immagine analogica ed Intelligenza Artificiale. Due mondi apparentemente distanti”.

Randazzo ha illustrato alcune funzionalità dei sistemi dialogativi di Intelligenza Artificiale text-to-image come, ad esempio Dall-E o Midjourney, nella generazione di immagini partendo da altre immagini o da una serie di specifiche dettate su una linea di comando. 

Queste peculiari funzionalità della IA generativa permettono ad un artista di far generare ai sistemi delle immagini su cui poi intervenire per creare lavori del tutto personali. Oppure, dà la possibilità di generare anche immagini ibride, come, a titolo di esempio, quella di una tavolata che meticci l’Ultima cena di Leonardo da Vinci e le tavole da pranzo di Vanessa Beecroft.

Questi di seguito sono esempi generati in tempo reale durante il seminario:

 

 

 

 

Comando:

Ultima cena di Leonardo, tavola da pranzo Vanessa Beecroft 

 

 

 

 

 

 

 

Comando:

Ultima cena di Leonardo e Les Demoiselles D'Avignon di Picasso 

 

 

 

 

 

Comando:

Un Pollock ed un Mondrian

 

 

 

La narrazione e gli esempi hanno suscitato una serie di interrogativi sulle nozioni caratteristiche del discorso artistico, in termini epistemologici e filosofici, interrogativi a cui Randazzo risponde in questo articolo.

--------

Paolo Bottazzini: La possibilità di derivare da regole statistiche un'istanza visiva o sonora, la rende un'opera d'arte o un modello possibile per un'opera d’arte?

Diego: Io parlo spesso di reference, di approccio critico e di didattica. Questi fanno parte dell’opera d’arte, ma sono solo alcuni degli elementi che dovrebbero scaturire da un’opera d’arte.
Parallelamente si può tranquillamente dichiarare, che la generazione di un’immagine con l’AI è l’inizio di un processo che può portare alla creazione di un’opera, ma non è esaustivo.
E penso - scusate la provocazione - che questo discorso valga per tutti quegli strumenti che nel corso della storia sono stati designati come strumenti a disposizione dell’artista: matita, pennello, sgorbia, scalpello, macchina fotografica, cinepresa, videocamera, computer.
Infine, le regole statistiche a cui accennate, non possono essere controllate dall’utente che, forzatamente, si deve accontentare dei risultati ricevuti. Questo mi ricorda un po’ il gioco di matrice surrealista denominato Cadaveri squisiti (cadavre exquis), a mio parere contributo fondamentale alla definizione di collage. Non stiamo in fondo parlando di questo? Associazioni e combinazioni testuali e visive, spesso incontrollate e provenienti da fonti diverse.
Quindi la descrizione che suggerite mi sembra appropriata, aggiungendo un trattino: l’AI come modello-strumento possibile per creare un'opera d’arte. Ci sono diverse modalità di utilizzo dell’AI per creare immagini; tra tutte credo sia molto affascinante la funzione che permette di espandere un ‘immagine preesistente, caricata nel software di AI.
Il ‘riempimento generativo’, lo considero una sorta di strumento conoscitivo, che a partire da qualcosa di personale (es. un’immagine dell’autore) permette di amplificare ed espandere l’universo visivo dell’autore stesso.
Riporto qui di seguito uno dei primi esperimenti realizzati con Dall-E a partire da alcune fotografie realizzate in pellicola medio formato (estratte del mio progetto Illusorie visioni d’argento del 2018). La prima immagine è lo scatto originale, le successive sono le espansioni generate con l’AI. E’ evidente come il rapporto che si instaura tra originale e rielaborazione AI è molto significativo, c’è una forte connessione tra due mondi che tendenzialmente teniamo separati. Qui, la concretezza del manufatto analogico e l’intangibilità dell’immagine sintetica si toccano e diventano un tutt’uno.

 


Lenti d’ingrandimento in ottone, becher, pellicole di piccolo e medio formato, macchine fotografiche analogiche… a questi oggetti/soggetti provenienti dal mondo proto-fotografico sono accostati altri della natura più varia (frutta e verdura imprecisata, gelatina alla menta, piante, droni, congegni elettrici, elettronici, digitali ed immagini olografiche) disposti su improbabili limbi e tavoli da lavoro componendo un eterogeneo repertorio di composizioni panoramiche. Ad una prima occhiata ci paiono dei set fotografici che strizzano l’occhio all’ambito still-life, ma avvicinando lo sguardo qualcosa non funziona. Il progetto "Elegie dell'impossibile verosimile" è un’inedita opera meta-fotografica, non ancora pubblicata, che esplora la relazione tra mondo analogico e digitale. Ogni composizione è creata a partire da uno scatto in medio-formato e successivamente combinata con altre immagini generate con il software di intelligenza artificiale Dall-E 2, che analizza un testo descrittivo e genera immagini corrispondenti. Il lavoro sperimentale affronta il tema dell'autenticità delle immagini nella contemporaneità, considerando la macchina come una possibilità di estensione poetica dell'immaginario dell’artista.

Di seguito, alcune immagini tratte da Illusorie visioni d’argento (2018), dove la prima immagine è lo scatto originale, eseguito con pellicola fotografica di medio formato, e la seconda è l'espansione dell’immagine realizzata con Dall-E. 

 

 

 

 


 

Non a caso, nel corso del seminario di Controversie, puntavo proprio a delineare un percorso di analisi che intravede nell’immagine analogica l’antecedente concettuale della funzione generativa nell’AI.
Il mio punto di vista, sicuramente non allineato alle maggiori correnti di pensiero sul fenomeno, vuole dimostrare che alcune tendenze visuali attuali dell’AI (la dimensione distopica, disturbante, deformante da una parte e la tendenza del vintage dall’altra) non solo sono vicine, ma sono in perfetta continuità con il mondo analogico e protofotografico.
Ecco alcune linee guida, per punti, che sono state oggetto di discussione durante il seminario:
L’immagine analogica ed un certo uso dell’Intelligenza Artificiale hanno in comune la sorpresa, il mistero e la casualità. Sorpresa e mistero erano già presenti nei congegni del Precinema (le vedute ottiche dei Mondi Nuovi, vetrini e lanterne magiche, fenachistoscopi, zootropi, mutoscopi e diorami).
La sorpresa negli occhi dello spettatore ottocentesco di fronte ai congegni del Precinema (molti di questi basati sulla persistenza retinica) in qualche modo è simile a quella del pubblico di oggi davanti ad un’immagine elaborata con l’AI; stiamo parlando di quello spaesamento prodotto da qualcosa di nuovo che non riusciamo a cogliere completamente, ma che ci affascina e ci rapisce.
La casualità e l’attesa: non è possibile conoscere a priori il risultato di un’elaborazione di immagine fatta con l’AI, come non è possibile conoscere istantaneamente il risultato di uno scatto analogico. Bisogna scontrarsi con l’attesa, la perizia e la pazienza. Di fronte ad un’interrogazione posta ad un software di AI non abbiamo ancora un controllo totale sul risultato, dobbiamo affidarci al mix di combinazioni proposte dall’algoritmo.
SORPRESA: Da un’interrogazione non sappiamo cosa aspettarci, e molto spesso il risultato che ci viene restituito è sorprendente (sia in termini negativi che positivi).
ATTESA: La risposta dell’AI non è istantanea. L’attesa contribuisce a creare mistero e aspettativa.
CASUALITÀ E UNICITÀ’: un mix di combinazioni algoritmiche formula un risultato che è sempre unico. A parità di richieste, se ripetiamo più volte la stessa interrogazione, il risultato sarà sempre diverso.
Nell’AI si possono notare alcuni filoni narrativi e formali:

    • contenuti surreali, distopici ed iperrealisti (il loro successo si basa sull’effetto wow)
    • riproposizione formale del ‘vintage’: la grana della pellicola, certo utilizzo del bianco e nero oppure l’uso di filtri che richiamano specifiche pellicole fotografiche; ma in realtà questo recupero dei codici visivi del mondo analogico era già presente sin dagli albori di Instagram (il formato quadrato 6x6, l’uso delle cornici con perforazioni tipiche della pellicola e dei filtri ecc.)

Questo secondo filone è senza dubbio il più interessante e meno omologato del primo, perché si origina da un sentimento comune che possiamo chiamare nostalgia. Con due discriminanti:
i giovanissimi utilizzano questi codici in maniera inconsapevole, per inseguire la tendenza del momento. Nel nostro caso la tendenza del vintage. (filtri, cornici fotografiche, oggetti d’epoca o moderni, tecnologie obsolescenti)
I meno giovani, gli studiosi, gli appassionati, vivono questa nostalgia per una tecnologia artigianale, che basa il suo funzionamento sui meccanismi interni presenti nelle macchine: ’‘Il come è fatto’’. Si tratta di tecnologie (es. macchine fotografiche analogiche) che nella loro intrinseca ideazione e costruzione permettevano un utilizzo consapevole. Banalmente, per inserire la pellicola nella macchina analogica bisogna aprirla. Questo aspetto tecnico si inseriva in un processo di consapevolezza tecnologica e didattica, che i successivi sviluppi del digitale hanno progressivamente oscurato. Pensiamo a tutte le apparecchiature digitali che non ci permettono di essere esplorate al loro interno.

 


FLAT/ Perché un algoritmo elimina l’uomo da una stanza piena di solitudine? 36 istantanee Fuji instax square, 2021 Courtesy Galleria ADD-art e l’artista

 

 

 

 

Opera vincitrice dell’Yicca art Prize, segnalazione al Combat Prize e menzione speciale della giuria al Talent Prize

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Per approfondimenti leggi qui: http://www.diegorandazzo.com/portfolio/immagini-simili-primo-studio/


 

Redazione di Controversie: Diego, secondo te, dove va a finire l'autorialità, quando l'opera è generata da un sistema informatico intelligente? chi è l'autore? chi ha "chiesto" un'immagine generata secondo alcuni criteri o caratteri, oppure la macchina stessa?

Diego: È una compartecipazione di attività tecniche e di pensiero, ma la firma deve essere necessariamente quella dell’artista. Autore è chi interroga e, soprattutto, rielabora e reinterpreta secondo la propria attitudine il risultato dell’Intelligenza artificiale. La macchina fa le veci del ricercatore: mette insieme e fonde tantissimi dati e, in ultima istanza, restituisce un ‘abstract grezzo’. Quell’abstract non può rimanere tale. Deve essere decostruito e manipolato dall’artista per assurgere ad opera d’arte. L’AI, come processo generativo, è quella cosa che sta in mezzo, tra il pensiero, l’idea iniziale e l’opera finale. Tutto qui. Non è semplificazione, è come dovrebbe essere inteso il ruolo dell’intelligenza artificiale nella creazione.
Il termine manipolazione, che ho appena usato, non è casuale. Innanzitutto, mi sta a cuore, perché ogni mio lavoro, che si origini da una fonte personale o da un’immagine pescata sul web, è soggetto, da sempre, ad una stratificazione di gesti ed elaborazioni, con conseguenti risemantizzazioni della sorgente iniziale, tanto da diventare una parte della mia cifra stilistica. Inoltre, manipolare si rifà proprio a quella manualità, che per me è anche ‘manualità nel pensare’, fondamentale per una trascrizione unica ed originale del processo creativo.
Il lavoro di elaborazione dell’AI implica una fusione di elementi eterogenei. Perciò nei risultati ottenuti prende forma una commistione di stili e soggetti diversi, tutti fusi assieme, tanto da creare delle aberrazioni inusuali nelle immagini. Questo processo di fusione, che spesso dà luogo ad una spaccatura di senso con l’interrogazione dell’utente, l’intelligenza artificiale lo gestisce molto bene. E l’aspetto forse più interessante è che l’algoritmo non rivela mai le sue fonti (il grande database da cui attinge), rimane misterioso a differenza degli artisti che, con un pizzico di orgoglio, snocciolano le proprie reference, le motivazioni ed i maestri ispiratori.
Siamo meno bravi nel farlo (fondere fonti diverse per creare qualcosa di nuovo) perché puntualmente inciampiamo nel facile citazionismo. E questo spesso ci riduce a degli abili saccheggiatori di pensieri ed immagini.
Forse demandare la ricerca delle proprie reference all’AI e affidarsi, in qualche modo, alla vertigine del caso, senza che il nostro ego si manifesti prepotentemente, può essere la nuova sfida della ricerca contemporanea. Mantenendo però fede alle premesse iniziali: quell’abstract fornito dall’AI non costituirà mai l’opera definitiva, bensì l’inizio di un processo dialettico.

Redazione di Controversie: Esistono ancora il concetto di unicità e di originalità di un'opera, quando il lavoro viene fatto "a macchina”?

Diego: Riprendendo in parte la prima risposta, non vedo ancora un pericolo per l’unicità dell’opera d’arte. Se, l’avvento del digitale (dalla fotografia digitale alle immagini virtuali) non ha messo in crisi questo principio non credo che sarà l’AI a metterlo in discussione. L’autorialità, se c’è e sappiamo riconoscerla, emergerà sempre sui cloni, sulle copie, sull’omologato. Ci vengono dati quotidianamente gli indizi per farlo e come nel caos dell’infodemia, bisogna aguzzare un po’ la vista per riconoscere il vero dalla finzione. Il nocciolo della questione secondo me è proprio questo: vogliamo veramente conoscere la verità? O forse preferiamo farci confondere da qualcosa che sembra apparentemente più attraente e coinvolgente? Bisogna sforzarsi, per carpire la verità, c’è poco da fare.
Non vorrei sembrare ripetitivo, ma ci tengo a sottolineare un concetto a mio parere fondamentale: la creazione di un’opera attraverso l’AI non può fermarsi al primo risultato ottenuto con un’interrogazione ad un’app. In concreto, stampare un’immagine realizzata con l’Ai ed esporla così com’è non la considero un’operazione artistica, a meno che non ci sia una dichiarata provocazione concettuale nel farlo (e nel caso andrebbe comunque motivata). L’AI è uno strumento, e come il pennello o la macchina fotografica, deve essere sottoposto ad uno sforzo di pensiero critico e di tecniche che lo rendano non solo utile, ma significativo per l’essere umano.
Una cosa interessante, che è anche il motivo fondante ed il filo conduttore del mio seminario: i risultati dell’AI non sono mai ripetibili… perciò i miei studi sul fenomeno mi hanno portato ad equipararlo al mondo dell’immagine analogica. Si tratta, infatti, di un mix di combinazioni algoritmiche che formula sempre un risultato unico. A parità di richieste - se ripetiamo più volte la stessa interrogazione - il risultato sarà sempre diverso. Quindi, se vogliamo, l’unicità dei risultati è un aspetto che ancora di più avvicina il mondo dell’AI a quello analogico e al concetto classico di Manufatto.


 

DISPOSITIVI / 3
15X16X3 cm,
bassorilievo in Gres, pellicola Instax wide,
elaborazione con Ai, 2023
Courtesy Galleria ADD-art e l’artista
Opera in mostra da Indigo Art Gallery a Perugia fino al 17 febbraio 2024 

 

 

DISPOSITIVI / 3, dettaglio

 

 

 

 


Ovviamente il tema dell’unicità è molto ampio, profondo e stratificato, ma se ci soffermiamo sul mero aspetto tecnico, non si può non affermare che l’AI, ad oggi,
produca sempre dei risultati diversi a parità di domande.
E questo è un fatto abbastanza dirimente, soprattutto se lo inseriamo nel solco della produzione artistica.

 

 

 

 

 


La conoscenza tecnica - Meditazioni a partire dal pensiero di Platone

In molti conoscono l’esistenza di un dialogo chiamato “Apologia di Socrate”. Al suo interno, oltre al “Socrate che sa di non sapere”, viene reso noto il particolare valore che Platone attribuisce alla conoscenza posseduta dagli artigiani. Ciò avviene nell’ultimo dei tre momenti che Socrate afferma di aver passato alla ricerca degli ateniesi ritenuti “sapienti”.

Dopo aver messo alla prova i politici e i poeti, egli dice:
«Alla fine andai dai lavoratori manuali (cheirotechnas): mentre per conto mio ero consapevole di non conoscere praticamente nulla, costoro prevedevo di trovarli in possesso di parecchie preziose conoscenze. E qui non mi sbagliavo, nel senso che possedevano nozioni a me ignote e in ciò erano più sapienti di me». (Apol. 22 c – d)

Differenza tra “tecnica” e “scienza”

Per Platone esiste un genere di conoscenza unicamente umano, perciò corruttibile1 e quindi di altro genere rispetto alla più famosa forma della reminiscenza,2 un genere di conoscenza analogo a quella del noto essere divino chiamato Demiurgo presente nel dialogo Timeo: una conoscenza che permette “il fare”.

Se il termine “technikoi” indica in generale gli “esperti ”, il termine “demiurgos” indica il “lavoratore pubblico” (l’artigiano libero, non schiavo), mentre i ”cheirotechnas”, quelli di cui parlava Socrate, sono più in generale tutti coloro che producono attraverso le attività manuali. Il loro sapere è tipico dell’essere umano “di ogni giorno”, cioè che interagisce e apprende attraverso la forma di conoscenza che è l’opinione (doxa), di genere meno precisa rispetto a quella dei matematici e dei filosofi, chiamata invece episteme (scienza).

In questi termini, il sapere pratico, come quello scientifico, si genera a partire dall’esperienza del mondo fisico e materiale ma, a differenza del secondo, conclude il proprio percorso nella manipolazione delle cose su questo stesso piano fisico, ponendosi come scopo l’opera di azioni mirate a produrre effetti e oggetti utili sul piano della vita materiale. Diversamente l’episteme procede dall’osservazione e interazione col mondo fisico verso la conoscenza di enti meta-fisici, ambendo a intuirne i modelli,3 i quali comprendono anche le leggi che governano la realtà fisica. Le scienze producono conoscenza sul mondo come insieme complesso e strutturato, dunque prodotti del solo intelletto e non materiali.

Questa differenza è in qualche misura la stessa che ancora oggi troviamo tra “tecnica” e “scienza”. Solo in tempi molto più recenti queste due hanno sviluppato una reciproca interdipendenza quasi senza soluzione di continuità. Ma questo rimarrà per ora solo uno spunto di riflessione suggerito al nostro lettore.

Caratteristiche del “sapere pratico” e particolarità della tecnica

Rimanendo ancora con Platone, l’utilità (opheleia) è sia l’elemento distintivo che il coronamento stesso delle attività produttive proprie delle forme di “sapere pratico”. Agli occhi del Filosofo sono però più le technai  (discipline e arti tecniche) a contraddistinguersi per la «utilità per la vita»4 che le altre forme di conoscenza pratica.

L’insieme completo delle forme di sapere rivolte al mondo materiale è infatti più ampio e comprende anche le empeiria kai tribé, che per semplicità tradurremo come “esperienze frutto della pratica”. Queste sarebbero l’insieme di quei “saper fare” non governati dal rigore disciplinare. Ma ne tratteremo in un post dedicato.
Per ora, a solo titolo di esempio, pensiamo a chi “è bravo a fare”5 ma non per questo è un esperto (technos) del campo in cui sa invece solamente districarsi. Questo “saper fare” nelle sue declinazioni è una forma del sapere “al portatore”, posseduta dai singoli individui che mostrano avere una certa disinvoltura e/o dimestichezza “nel fare” cose specifiche.

Ciò su cui dobbiamo qui focalizzarci è che la differenza tra technai ed empeiria kai tribé risiede nel modo in cui esse procedono a ottenere un risultato. Le prime lo ottengono attraverso un rigore simile a quello scientifico, perciò strutturato e disciplinato attraverso il metodo della misura e del calcolo, mentre le seconde devono la propria efficacia alla semplice pratica di azioni che l’individuo che le compie ha imparato “per esperienza” essere utili all’ottenimento di un effetto desiderato.

Le technai dunque mirano alla produzione del proprio effetto a partire da una conoscenza riflessiva dell’intelletto nella forma della retta opinione,6 tratta, finalizzata e combinata all’esperienza empirica (empeiria).

Le vere discipline tecniche inoltre generano propri modelli su cui basare la produzione e proseguire la propria ricerca sperimentale. Va notato infatti che tutti gli artigiani si avvalgono di progetti-modelli di partenza per realizzare i propri prodotti (sedie, abiti, calzature etc.); come anche l’architetto progetta lo spazio secondo misure e calcoli precisi, vincolato per la sua realizzazione alle proprietà della materia costruttiva.

Quello del “tecnico” in generale è dunque un sapere misto di esperienza, metodo e teoria, che muove tra gli estremi della doxa e della episteme. Ѐ un sapere insegnabile e quindi oggetto di apprendimento, che per essere ottenuto dunque necessita di esercizio, pratica, sperimentazione e possiede uno scopo produttivo: produce utilità sul piano fisico.
Questo processo conoscitivo pratico determina quelle forme del sapere che confluiscono nelle discipline tecniche, ossia quelle che dotano l’esperienza sensibile di un grado di articolazione teorica e strumentale forte, rivolgendosi all’attività pratica.7

Spunti di riflessione sul mondo della tecnica oggi

Venendo ora a noi, possiamo trovare in questa analisi di Platone molti punti in comune con il modo attuale di concepire e intendere gli elementi distintivi della tecnica rispetto alla “scienza pura”, tanto da aprirci diverse prospettive di riflessione.

Con ogni evidenza il contesto della cultura tecnica è oggi ampiamente mutato. Possiamo notare per esempio che il crescente trasferimento della pratica produttiva dalle mani dell’artigiano verso tecnologie e macchine complesse e automatizzate, per la loro capacità di facilitare, razionalizzare e potenziare la produzione, è sicuramente preferito per fornire una risposta migliore in termini di produzione quantitativa e temporale. Ѐ quel valore che che oggi definiamo “volume della produzione”.8

Questi strumenti complessi sono anch’essi un prodotto della tecnica, sono prodotti per l’appunto tecnologici, e la loro complessità cresce con l’accrescersi della complessità tecnica, che ne ha infatti permesso la loro progettazione e costruzione.
Ma, e ci sono diversi “MA”, allo stesso tempo ciò comporta inevitabilmente che, uscendo dal dominio delle mani dell’artigiano o comunque sfuggendogli dalle mani per la loro complessità d’utilizzo (per cui saranno necessari ulteriori nuovi ruoli “tecnici”), questi strumenti sono in grado di soppiantare le forme della conoscenza individuale specializzata precedente, tramandata attraverso l’oralità e tramandabile attraverso il coinvolgimento pratico attivo.

Il tecnico nel senso professionale è dunque oggi sempre più un “technikos”, ossia uno specialista. Nel nostro ultimo esempio è “un esperto” di strumenti, macchine e istruzione di processi complessi, più che un “cheirotechnos” o “demiurgos”, ossia un lavoratore manuale esperto. Ciò sposta il tecnico verso forme di conoscenza specialistica di "pratica teorica" e nel ruolo di esecutore di singoli processi più che un progettista “con le mani in pasta”.

Dall’altro lato, una reazione alla produzione così impostata e spersonalizzata è la nascita da parte dei singoli individui di forme d’interesse per le pratiche manuali contro quelle automatizzate e per quelle analogiche contro la sempre più diffusa cultura digitale.
Queste fascinazioni per l’attività pratica diretta le vediamo spesso in opera sia nel campo artistico che in quello dilettantistico, con le conseguenti e rispettive aperture di nuove nicchie di tendenza. Così sottratte al circuito di tramandamento diretto obbligato dalla necessità produttiva, queste conoscenze pratiche finiscono per far ricadere la tipologia di conoscenze del loro “portatore” più nel campo di quelle empeiria kai tribé a cui abbiamo accennato che in quello delle technai. Proviamo ora a pensare a quanti eventi vengono creati oggi con l’intento dichiarato di introdurci al mondo della auto-produzione manuale attraverso brevissime esperienze temporali, quali sono i corsi o i “workshop”.

La caratteristica corruttibilità del sapere pratico che individua Platone diventa maggiormente evidente oggi, in un’epoca storica in cui si assiste alla continua interruzione della linea di trasmissione continuativa di conoscenze disciplinari appartenenti al mondo pre-industriale.
Individuarne i motivi è sicuramente un lungo lavoro che non possiamo qui affrontare, ma in sintesi possiamo affermare che questa perdita dei saperi pratici si debba non tanto a una loro intrinseca “obsolescenza” o al loro “superamento” sul piano del sapere tecnico, piuttosto ciò parrebbe avvenire sul piano della sostituzione tecnologica dell’artigiano per i motivi preferibili di sopra detti.

Potremmo affermare anche che, questo fenomeno della perdita e corruzione dei saperi tecnici pre-industriali, non possa derivare esclusivamente dal loro superamento sul piano della attendibilità del “sapere” in sé preso, poiché il più di queste forme tecniche del passato possiedono di fatto un percorso di affinamento e collaudo nettamente più lungo e verificato (esperito) rispetto ai metodi, ai materiali, alle tecniche e alle tecnologie che si sono affermate solo recentemente, nella nostra epoca contemporanea.

Altrettanto si può confermare ancora oggi come intrinseca e ineliminabile quella natura corruttibile che Platone affermava essere propria di queste forme del sapere pratico tecnico. Queste, infatti, se non vengono tramandate, muoiono con i singoli esseri viventi umani che ne sono portatori-detentori. Il loro recupero futuro sarà perciò tardivo, debole o esposto al dilettantismo.

In tal proposito possiamo aggiungere che i contenuti di queste forme del sapere, anche se messi materialmente per iscritto, non potranno per loro natura sopravvivere alle singole vite degli stessi uomini che ne sono detentori praticanti e alla loro personale memoria, laddove si perda quella parte “pratica” da parte di nuovi eredi diretti di questi saperi. Diverrebbero così testimoniate ma anche quel che si dice “lettera morta”.

 

 

 


NOTE

1 Gli esseri umani sono mortali e tutto ciò che gli appartiene come attributo umano è di per sé corruttibile. Nel precedente post “La memoria e la sua corruzione nell’era digitale - A confronto con il pensiero di Platone” sottoponevo a chi ci legge la complessa questione della Memoria e della sua corruttibilità nel pensiero di Platone. In questo presente post emergerà con maggior evidenza il senso della scelta di presentare un tema così complesso. Platone attribuisce infatti ai “saperi pratici” (definizione di comodo e non platonica) la condizione di corruttibilità. Ed è proprio il tema della corruttibilità di un sapere che il lettore dovrà tenere presente mentre affronterà ciò che troverà qui proposto.

2 La reminiscenza o anamnesis è quel processo di risveglio della memoria dell’anima immortale, perciò che rimane identica al di là delle incarnazioni di ciascun vivente mortale. Questa memoria immortale si sopisce con l’unione dell’anima immortale a un corpo fisico (= incarnazione) e il suo contenuto si riferisce a quelle idee di alto grado metafisico, quali sono il Bene, il Bello, la Giustizia etc..

3 “Idea” o “eidos” significa per l’appunto “modello”.

4 Esplicitamente scrive Platone nel Gorgia che «si occupano della nostra vita fisica» (518 a) , costituendo di fatto veri e propri «sistemi che preparano alla vita» (500 b). Ciò emerge anche in particolare nei passi Gorg. 464 b - 466 a; Phil. 58 c, 63 a; Theaet. 177 e.

5 Chi dice cose apparentemente corrette può essere un sofista e non un tecnico o uno scienziato. Chi esegue belle armonie può essere un musico ma non un musicista. Chi sa creare belle pietanze può essere un cuoco ma non un dietologo. Insomma, non sempre chi appare padroneggiare un argomento o una pratica lo fa sulla base di una conoscenza strutturata, rigorosa, “disciplinata”.

6 La “retta opinione” è quella forma di conoscenza che deve la propria corrispondenza al mondo fisico per una corretta intuizione, nel senso che “ci azzecca” rispetto all’oggetto di cui si occupa. In breve, si dà retta opinione quando per “averci visto bene” o “averci dedicato particolare impegno sperimentale” si ottiene un risultato ricercato. Ad esempio, anche i politici che reggono le città in modo retto lo fanno non per scienza ma per retta opinione, afferma Socrate in Men. 99 a – e.

7 Nella lettura che dà Platone, questo sapere misto è in generale quello che esprime la condizione dell’essere umano, del vivente mortale le cui funzioni riflessive, a partire dalla episkepsis («indagine» o «valutazione») e poi col logismos (facoltà del calcolo e della misurazione), sono volte al campo operativo sul solo piano empirico.

8 Il “volume della produzione” è quel valore complessivo di beni e servizi che un'azienda è stata in grado di produrre con le risorse disponibili in un determinato periodo di tempo. Più aumenta, più è possibile abbassare il costo medio di ogni singola unità di prodotto, rendendola più competitiva sul mercato economico.


Monopattini elettrici e numeri maltrattati – Strumentalizzare le statistiche

A metà agosto dell’anno scorso, in vacanza in un paesello di montagna, sono caduto con la bicicletta e mi sono rotto un paio di ossa, finendo al pronto soccorso. 

Sulla base delle frequenze di incidenti rilevate, un ipotetico giornale locale avrebbe potuto titolare così la pagina della cronaca del giorno dopo: ”Sempre più numerosi gli incidenti gravi ai ciclisti nel paese di Vattelapesca”

--------

Nulla di falso in questo titolo: la vittima dell’incidente è un ciclista; l’agosto precedente scorso non c’erano stati incidenti ai danni di ciclisti; grave è grave, mi è costato ricovero e intervento. 

Il cronista avrebbe potuto anche scrivere, che gli incidenti in bicicletta, in agosto, a Vattelapesca: “Si moltiplicano”, “Crescono in maniera esponenziale”, tutto senza allontanarsi di un passo dalla verità. 

Ora, è evidente che questa presentazione della questione – pur corretta dal punto di vista del rapporto con la realtà – rischia di essere drammatica e fuorviante. 

--------

Cambiamo scenario: il 12 ottobre 2023, un telegiornale a diffusione nazionale titola un servizio: “Sempre più pericolosi i monopattini elettrici, incremento del 78% degli incidenti mortali”.

Lo spunto per il servizio – che si focalizza sulla pericolosità dei monopattini elettrici – è la morte di una ragazza che è stata travolta, a Trento, mentre attraversava la strada con il suo monopattino; non era ancora noto se fosse a bordo del monopattino oppure se lo stesse spingendo a mano. 

È normale, nella pratica giornalistica, utilizzare un evento puntuale come pretesto per introdurre un articolo che parla di fenomeni generali, niente da dire. È il caso, tuttavia, di esaminare qualche aspetto del fenomeno generale di cui parla questo servizio:

  • L’incremento del 78% di cui si parla è un dato relativo al 2022, rispetto al 2021
  • Gli incidenti mortali con il monopattino nel 2022 sono stati, in valore assoluto, 16
  • Nel 2023, fino al 12 ottobre, il numero di incidenti mortali con il monopattino più attendibile è 15 (la ragazza di Trento è la quindicesima).

Sembrerebbe, quindi, che il numero assoluto, nel 2023,di incidenti mortali con il monopattino fosse in calo rispetto al 2022.

Andiamo avanti: se esaminiamo la fonte, che supponiamo attendibile (Aci-Istat), gli incidenti mortali simili nel 2021 sono stati 10 (9 conducenti e un pedone), quindi l’incremento nel 2022 scende al 60%.

Cos’è, quindi questo 60%? Potrebbe trattarsi dell’incremento di incidenti gravi, non solo di quelli mortali. Una sorta di metonimia? No, si tratta di una lettura riduttiva dei dati del 2021, che non conta un pedone investito ma solo i conducenti.

 

Con un minimo ancora di approfondimento, scopriamo che il servizio tace sul “denominatore nascosto” del fenomeno degli incidenti: il numero di monopattini elettrici circolanti e il suo incremento negli anni di cui si parla.

Non si trovano facilmente dati sull’incremento tra 2021 e 2022 dei mezzi di proprietà ma sicuramente i noleggi di monopattini elettrici è aumentato di circa il 50%. 

Tra 2022 e 2023, invece, ci sono fonti che parlano di un aumento del 140% dei monopattini privati e di più del 100% dei noleggi. 

In proporzione ai monopattini circolanti, è plausibile che l’incidenza di incidenti sia diminuita nel 2022 e c’è l’evidenza di una riduzione del 50% nel 2023.

Addirittura, secondo l’Osservatorio Nazionale sulla Sharing Mobility, tra il 2021 e il 2022, il rapporto tra incidenti, numero di monopattini e chilometri percorsi è calato dell’80%. 

Il quadro che si scorge approfondendo le cifre è, quindi, decisamente diverso. 

Eppure, questa percentuale drammatica del 78% di incidenti mortali in più fornisce al servizio – e ai numerosissimi altri articoli di stampa che in quei giorni ne ricalcano i contenuti – il carattere di affidabilità scientifica: sono numeri, sono percentuali, sono calcoli scientifici, legittimano le affermazioni e le conclusioni.

E distorcono irrimediabilmente la realtà. Perché?

Ecco perché: ad ottobre 2023 è iniziata la discussione parlamentare delle nuove misure di legge che riguardano i mezzi di cui parliamo: obbligo di targa e di assicurazione, obbligo del casco, dotazione di freni anteriore e posteriore indipendenti, frecce, limiti di velocità e regole di parcheggio; oggi, parte di queste misure diventa legge.

La vera notizia d’agenzia da lanciare era, quindi, la legge - che è diventata esecutiva in questi giorni - la cui legittimazione doveva passare attraverso un percorso di drammaticità: quello dell’incremento degli incidenti.

Questa vicenda mette in luce come si possono facilmente maltrattare i numeri e farli diventare “dati scientifici” con risultati distorti, secondo regole di rilevanza sociale. 

 

 

P.S.: Il quotidiano locale della zona dove sono caduto l’agosto scorso non ha parlato del mio infortunio, né delle statistiche sugli incidenti ciclistici. Il Sindaco del paesello non aveva in programma, me l’ha assicurato di persona, nessuna nuova legge comunale sulle mountain bike.

 


RIFERIMENTI PER I DATI:

  • ACI – ISTAT, report incidenti stradali 2022
  • Osservatorio sulla Sharing Mobility
  • EMG Mobility,  13 Febbraio 2023
  • Wired 22.05.2023

Un nuovo francescano? - Paolo Benanti e la commissione algoritmi

Il professore Paolo Benanti è stato nominato Presidente della Commissione sull’Intelligenza Artificiale per l’Informazione e l’Editoria della Presidenza del Consiglio. 

La Commissione è un organo del Dipartimento per l’Informazione e l’Editoria istituito dalla Presidenza del Consiglio poco più di due mesi fa, con lo scopo di analizzare le implicazioni dell’Intelligenza Artificiale nel campo dell’editoria e dell’informazione e, di conseguenza, consigliare il Dipartimento che ne è responsabile. La commissione è stata presieduta - dalla fondazione sino alle sue dimissioni - dal professor Giuliano Amato, politico, giurista,  docente universitario e manager pubblico. 

La nomina di Giuliano Amato aveva sorpreso molti; l’assegnazione della presidenza a Paolo Benanti forse anche di più. 

Paolo Benanti ha un curriculum eccellente e si può dire - senza timore di smentita -  che è uno dei massimi esperti mondiali di Intelligenza Artificiale; è un frate Francescano del Terzo Ordine Regolare, teologo, eticista, docente presso la Pontificia Università Gregoriana, consigliere di Papa Francesco per l’Intelligenza Artificiale, membro della Pontificia Accademia per la Vita con mandato sulla Intelligenza Artificiale, membro del New Artificial Intelligence Advisory Board dell' ONU, autore di libri sul ruolo dell'umano nella civiltà tecno-umana. 

Ovunque si parli del profilo etico delle tecnologie e del ruolo della Intelligenza Artificiale nella vita dell'uomo, la presenza di Benanti è pertinente.  È, tra l'altro, colui che ha coniato il termine Algoretica, cioè l'etica degli algoritmi. Da anni infatti si interroga e fa riflettere su come la tecnologia sia passata dallo status di strumento in mano all'uomo a quello di parte integrante dell'ecosistema sociale, e sempre più influente su questo ecosistema. 

È sicuramente apprezzabile che Benanti abbia accettato di esporsi nel ruolo di Presidente della commissione: qualsiasi linea guida ne uscirà sarà certamente pertinente e di alto profilo. Paolo Benanti ama poi scherzare sul ruolo degli eticisti, come lui: gli eticisti fanno le domande e  si tengono alla larga dalle risposte. Nel campo dell'etica le giuste domande sono infatti la cosa più importante, quelle che dovrebbero influenzare politici e stakeholders affinché affrontino i temi davvero rilevanti. 

La domanda centrale posta dal lavoro di Paolo Benanti si può riassumere in questa: le macchine devono avere un'etica? Quale? Quali limiti ci sono e devono esserci nel rapporto tra la nuova specie delle macchine intelligenti e l'essere umano? 

Gli eticisti non scendono in campo per dire cosa non si può fare o, peggio, pontificare su giusto e sbagliato, dice Benanti; il loro ruolo fondamentale su temi delicati e pervasivi della vita collettiva - com'è e come sarà sempre più l’Intelligenza Artificiale - deve essere appunto quello di porre le giuste domande, per far sì che le persone e le istituzioni ricerchino le risposte più adatte al contesto in cui operano. In questo il professor Paolo Benanti non potrà che essere eccellente: le persone, l'essere umano - in particolare nel loro rapporto con la tecnologia - sono sempre state al centro della sua attenzione. 

Una volta tanto possiamo dire che in Italia abbiamo messo la persona giusta al posto giusto. 




Conversazioni sull’Intelligenza Artificiale – Si prova qualcosa ad essere una macchina?

Redazione: Riccardo, in questo tuo post hai condensato almeno tre punti molto rilevanti per la discussione sull’Intelligenza Artificiale e sulle macchine che agiscono guidate da sistemi intelligenti:

  • il primo – sulla bocca di tutti in questi giorni – è quello della trasparenza,
  • il secondo è quello della responsabilità di questi agenti in qualche modo autonomi, di cui abbiamo già scritto più volte nel blog, e che coinvolge un’intera filiera di soggetti
  • e il terzo è quello della soggettività degli automi.

È evidente che gli elementi più innovativi che stai introducendo in questo discorso sono:

1) quello che chiami “monologo interiore”, intimamente correlato al tema della trasparenza, e

2) la domanda, per me assolutamente inattesa, “ma sta succedendo qualcosa là dentro?”, che suggerisce di non trascurare la possibilità di una reale soggettività dell’automa.

Ritieni quindi che “monologo interiore”, “interiorità”, “soggettività” possano essere caratteri attribuibili ad un robot?

Riccardo: Per rispondere a questa domanda provo a definire chiaramente questi termini, perché spesso il guaio è che parlando di questi temi si utilizzano dei termini resi così laschi dagli anni di dibattiti che ognuno finisce un po’ per tirarseli dalla propria parte, con il risultato che tutti hanno ragione perché stanno parlando da soli.

E allora: il “monologo interiore” è l’idea di applicare ad un soggetto che si muove nello spazio (ad un robot nel nostro caso) un modo, uno spazio di lavoro, per connotare il proprio ambiente; e grazie a questo processo di continuo aggiornamento del proprio mondo, poter agire sempre più efficacemente sullo stesso.

Bene: su questo punto, a livello funzionale - ritengo che sia il caso di evitare un’analisi filogenetica - per me sia difficile trovare grosse differenze rispetto a ciò che una persona fa. Per quanto riguarda l’“interiorità”, definita come lo spazio in cui quel monologo interiore accade, mi pare chiaro che sia una condizione necessaria per l’esistenza di un monologo, avendo appunto un’azione bisogno di un luogo in cui svolgersi.

La “soggettività” è invece la dimensione più scivolosa. Però possiamo intenderla come il fantomatico “provare qualcosa ad essere (un soggetto)”.

Ecco, credo che questa dimensione soggettiva possa essere accessibile solo tramite due tratti essenziali: un qualche tipo di auto-narrazione e una fiducia nei confronti di quella narrazione e di quel narratore. A conti fatti ognuno di noi ha accesso soggettivamente solo alla propria soggettività e quella degli altri se la può, al massimo e ragionevolmente, immaginare.

Cosa è ragionevole però pensare quando vedo un cane con gli occhi chiusi che muove le gambe? E un polpo che si nasconde nella sua tana foderata di conchiglie? Sta succedendo qualcosa lì dentro?

È una questione di vita mi si dirà, di vita organica persino. Io credo, senza dire niente di nuovo rispetto alle riflessioni di Maturana Romesín e Varela García (1972, De máquinas y seres vivos), che si giri intorno alla questione, tutta individuale e privata, di “accettare emotivamente” o meno il fatto che la vita sia poco più che il tentativo di un sistema di riuscire a conservarsi.

Redazione: E tu Paolo, che hai speso anni in mezzo a queste macchine e queste domande, cosa ne pensi?

Paolo: Tendiamo ad attribuire un significato compiuto alle parole del nostro interlocutore, anche se il suo discorso è privo di senso; lo insegna Paul Grice, che segnala anche l’attitudine a riconoscere al partner intenzioni di veridicità e pertinenza. Credo che la nostra propensione al principio di carità si estenda al comportamento delle macchine, soprattutto a quelle di AI generativa, cui accordiamo intelligenza, coscienza e creatività, nel senso ordinario di questi termini.

Eppure, software di grande raffinatezza, come ChatGPT o AlexNet, mostrano con le «allucinazioni» che la loro presa su qualunque realtà esterna ai processi del codice è nulla.

Non possiamo pretendere che l’intelligenza artificiale possa diventare «generale» (AGI), e sia quindi in grado di paragonarsi a quella umana, a causa della definizione stessa che è stata adottata per la loro progettazione.

Il modello cognitivo che guida la pianificazione delle AGI è fondato su potenza di calcolo, quantità e stratificazione delle connessioni tra unità di calcolo. Si è dimenticato che invece l’intelligenza parte sempre da una domanda preliminare, e da una precomprensione del mondo e dell’ambiente: lo rilevano su ambiti di indagine differenti sia Popper sia Husserl.

Senza l’autonomia dello stimolo a porre interrogativi non c’è nessuna intelligenza (coscienza, creatività, ecc.) nel senso comune del termine. Credo invece che le Intelligenze Artificiali siano dispositivi nel senso pieno indagato da Agamben (2006, Che cos'è un dispositivo?): pongono in essere un dominio di esperienze che prima non esisteva, stabilendo un nuovo campo di poteri e saperi.

Se le si osserva nella prospettiva del loro contributo alla storicità e al potenziamento dell’intelligenza (senza aggettivi di specificazione), assumono un profilo meno fantascientifico ma più ricco di senso, rientrando nella tradizione del pensare per segni che trova la sua fondazione in Leibniz e nei suoi studi sulla characteristica – ma soprattutto che prosegue il percorso di riflessione e di progettazione che Doug Engelbart ha inaugurato insieme ad English nel 1968 (A Research Center for Augmenting Human Intellect).

Redazione: Grazie a entrambi, più che darmi delle risposte, avete delineato due veri programmi di lavoro, distinti e complementari, uno fenomenologico e l’altro più analitico e cognitivista. Programmi che possono convergere o divergere.

Lo capiremo, forse, nella prossima parte della conversazione, dalla risposta che Riccardo darà a questa domanda:
il requisito di essere incorporata in un robot, è obbligatorio per riconoscere ad una IA generativa come, ad esempio, Chat GPT, il diritto all'integrità di cui parli? Le altre istanze, quelle esclusivamente dialoganti che troviamo sul web, non hanno diritto a questo riconoscimento?

A tra due settimane!


Soggetti o oggetti? - Come e perché pensare un diritto per alcuni robot

Avevano fatto sorridere le uscite di Giuliano Amato, nella veste di presidente della Commissione Algoritmi, sui molti modi possibili per cucinare le patate suggeriti da una generica intelligenza artificiale.1 Un’uscita considerata ridicola da molti, non adatta alla serietà della questione (tutta imperniata sulla tutela dei contenuti e del copyright dalle grinfie delle cosiddette intelligenze artificiali generative).

Ecco allora che dal 5 di gennaio il teologo Paolo Benanti subentra alla posizione di Amato. Un pensiero affascinante quello della sua «algoretica», che meriterebbe un approfondimento tutto suo. Tuttavia, questo cambiamento al timone di comando credo sia una spia interessante per porsi una domanda iniziale. Con questo cambio assistiamo infatti ad un riorientamento verso altre specializzazioni accademiche dalle quali si va cercando consiglio: siamo passati dal diritto alla filosofia morale, alla bioetica: che il diritto abbia già esaurito tutto ciò che di utile poteva dirci a riguardo?

È bene notare come sia una tendenza diffusa quella di applicare i criteri della casuistica2 ai nuovi scenari creati dalle interazioni umane con agenti più o meno autonomi, ma sicuramente non organici. Questi criteri si rivelano certamente strumenti utili per indagare la rettitudine morale o, nel peggiore dei casi, il minore dei mali, da perseguire nel sempre più ampio ventaglio di scenari possibili. Io credo però che le maglie della legge, di una legge che sorge dalle garanzie costituzionali, possa offrirci ulteriori e più interessanti metodi di analisi. E forse anche qualche garanzia in più.

Definiamo però subito bene il nostro perimetro di riferimento: quali sono questi robot? Robot sociali sicuramente, di quelli pensati per entrare costantemente in contatto con noi per intenderci, e dotati di un monologo interiore. Cos’è però il monologo interiore, per un robot? Semplicemente lo stesso che è per te che stai leggendo: un modo per aggiornarne costantemente il proprio modello del mondo cercando sempre di approssimare al meglio gli ipotetici scenari futuri.

Noi ne abbiamo solitamente esperienza come quella vocina nella nostra testa, o quel «buzzing that went on inside my head» di cui parlava Alan Turing. A livello funzionale però non ci occorre teorizzare alcun homunculus, solo un flusso di linguaggio interno.3

Perché il monologo interiore è importante per il nostro discorso sociale? Perché ci offre la possibilità di soddisfare uno dei criteri più spesso rincorsi nei dibattiti sull’intelligenza artificiale: la trasparenza.

È il caso anche delle recenti (dicembre 2023) proposte contenute nell’EU AI Act, dove si legge come alcuni dei requisiti per un utilizzo corretto dei «sistemi di IA identificati come ad alto rischio», siano «la registrazione dell'attività per garantire la tracciabilità dei risultati; la documentazione dettagliata che fornisca tutte le informazioni necessarie sul sistema e sul suo scopo per le autorità di valutarne la conformità; l’accessibilità e la trasparenza di informazioni chiare e adeguate all’utente».

Attenzione: le scatole nere rimangono tali, tuttavia guadagnano, grazie alla registrazione del loro monologo interiore, un alto grado di trasparenza sulle loro azioni. Bene, per robot che agiscono così credo si possa ragionevolmente parlare di soggetti (o oggetti, poi ci arriviamo) autonomi.

Ora, se un (s)oggetto è autonomo, cioè è in grado di compiere azioni senza essere comandato a distanza da altri soggetti, allora ci occorre incasellarlo all’interno di una qualche finzione giuridica, in modo tale che se dovesse arrecare qualche danno, sapremmo quali norme seguire. Ecco, credo che questo sfondo di prudenza sia quello sul quale ragionare di diritti robotici: non occorre mischiare concetti come quello di agente e paziente morale, ci basta soffermarci sul riconoscimento dell’esistenza (sempre più prossima)4 di entità immerse nel nostro stesso ambiente che agiscono in maniera per noi più o meno comprensibile.

Sembra dunque che stia proponendo qualcosa di non molto diverso dalla «personalità elettronica» discussa per la prima volta in una bozza europea nell’ormai lontano 2017. Occorre però fare delle debite precisazioni per non rischiare di cacciarsi nel ginepraio legistico e propongo allora qui di seguire le cristalline ricostruzioni di Luigi Ferrajoli.5

Innanzitutto, di quale diritto stiamo parlando? I diritti soggettivi, quelli cioè spettanti ad ogni soggetto (fisico e poi dunque giuridico), devono essere concettualmente distinti (1) in diritti fondamentali e diritti patrimoniali.

È bene subito ricordare come i diritti fondamentali, indisponibili per loro natura, siano «limiti imposti alla democrazia politica e al mercato a garanzia della loro stessa conservazione» mentre i diritti patrimoniali, siano diritti di forma singolare: escludono cioè tutti gli altri soggetti.

È poi per noi necessario distinguere, (2) all’interno dei diritti fondamentali, quelli di libertà e quelli di autonomia privata. La logica di questa seconda biforcazione è chiara, ed è la medesima alla base della distinzione tra i diritti fondamentali e quelli patrimoniali: sia i diritti patrimoniali, evidenziati in (1), sia i diritti fondamentali di autonomia privata, evidenziati in (2), sono da considerarsi in quanto potestatis agendi, ovvero diritti potestativi.

Al contrario, i diritti fondamentali di libertà non possono che essere mere immunità, o facultates agendi e dunque si differenziano dai diritti fondamentali di autonomia i quali «formano il principale veicolo della differenziazione dei diritti singolari di proprietà e perciò del moltiplicarsi di disuguaglianze giuridiche e materiali nei diritti patrimoniali».

Tenendo ben chiara questa suddivisione ciò che si vuole qui iniziare a discutere sarà allora un diritto fondamentale di libertà per questi, e ora possiamo dirlo, soggetti robotici. Nessun diritto di giocare in borsa (un diritto di autonomia privata), né di potersi comprare qualche capo di fast-fashion (un diritto patrimoniale), piuttosto la garanzia di una difesa della loro integrità da interferenza arbitrarie.

Si chiederà: perché? che bisogno c’è di questo diritto di libertà?

Ecco due considerazioni:

(a) non sappiamo cosa succeda all’interno di queste macchine, e non possiamo, io credo, dirimere così facilmente la famosa domanda del «cosa si prova ad essere quel sistema».

Ne segue poi che il metro con il quale dovremmo valutare una macchina, se non vogliamo solamente una versione più efficace di un oggetto che già possediamo ma cerchiamo invece un nuovo soggetto con cui dialogare e con il quale costruire qualcosa di nuovo insieme, sia necessariamente quello di un fair-play.

Questo credo sia l’insegnamento, e l’atteggiamento, più importante che Alan Turing ci ha per primo lasciato: «a fair play [that] must be given to the machine. Instead of it sometimes giving no answer we could arrange that it gives occasional wrong answers. But the human mathematician would likewise make blunders when trying out new techniques. It is easy for us to regard these blunders as not counting and give him another chance, but the machine would probably be allowed no mercy. In other words then, if a machine is expected to be infallible, it cannot also be intelligent . . . No man adds very much to the body of knowledge, why should we expect more of a machine?».6

Ciò di cui qui si discute sono dunque macchine incorporate nel mondo che per poter agire in questo mondo hanno bisogno di poter sbagliare, perlomeno quando lo sbaglio non arreca danni irreparabili ma – ad esempio - solo una contenuta flessione nel profitto.

(b) la commodificazione di un possibile nuovo soggetto può risultare l’ulteriore veicolo di lacune già presenti all’interno di una costruzione giuridica che ha inventato finzioni ben più de-responsabilizzanti e pericolose (basti pensare alle holding finanziarie dotate di personalità giuridica). Di fatto poi tali lacune sono spesso alla basse dell’emergenza di quelli che Ferrajoli giustamente definisce crimini di sistema. Dopotutto non è tramite la riduzione dei soggetti che possono mettere in gioco un reciproco controllo dei rispettivi poteri che si garantisce la continuità delle nostre prerogative costituzionali, piuttosto è con un ampliamento di tali figure che si può garantire alla democrazia politica e al mercato laloro stessa conservazione.

 

Cosa ci guadagniamo da questa proposta? cosa invece ne perdiamo?

Occorre discuterne. Certo è che il primo passo è riconoscere la possibile rilevanza della questione.

 

 

 

NOTE

1 Il virgolettato in realtà recitava: «A me piacciono molto le patate. Grazie all’intelligenza artificiale, un giornalista in pochi istanti potrà sapere tutti i modi in cui posso cucinarle, così da arricchire il suo pezzo».

2 Parte della teologia morale, che applica i principi della morale teorica a casi concreti, anche solo ipotetici («casi di coscienza»), secondo varie circostanze, per trovare la regola valida per ciascuno, metodi ancora attuali in molta etica e bioetica contemporanea.

3 Un modello chiaro per i nostri robot è quello dell’«Inner Monologue», sul quale si può approfondire qui: https://innermonologue.github.io

4 È chiaro che il discorso normativo che sto qui presentando cerca di anticipare il futuro alla luce delle tendenze più attuali e che paiono più promettenti. Altre architetture, non basate sulla commistione tra un modello LLM (come il famigerato ChatGPT per intenderci) e un robot potrebbero prendere il sopravvento, resta il fatto che l’obiettivo perseguito rimarrà quello di un’efficace autonomia di questi (s)oggetti, e dunque il punto giuridico del discorso non varia di molto, varierebbero sì i soggetti. Un esempio dell’interazione uomo-macchina con questo modello si può vedere qui: https://www.youtube.com/watch?v=djzOBZUFzTw&t=334s

5 Il riferimento è il tomo estremamente denso e tuttavia cristallino La costituzione della democrazia (2021). Le parti più rilevanti per il nostro discorso sono, per chi fosse interessato ad approfondire, la III e la IV.

6 La citazione viene dalla trascrizione della Conferenza tenuta alla London Mathematical Society il 20 Febbraio 1947. Una traduzione si trova nel volume curato da Gabriele Lolli sull’«intelligenza meccanica» e recita così: «sostengo che la macchina deve esser trattata in modo equo e leale. Invece di avere una situazione in cui la macchina a volte non dà risposte, potremmo aggiustare le cose in modo che essa dia ogni tanto risposte sbagliate. Anche il matematico umano prende qualche cantonata quando sperimenta nuove tecniche. È facile per noi considerare queste sviste come non rilevanti e dare a lricercatore un’altra possibilità, ma alla macchina non viene riservata alcuna pietà. In altre parole, se si aspetta che la macchina sia infallibile, allora essa non può anche essere intelligente… Nessun uomo aggiunge granché al corpo generale delle conoscenze umane: perché dovremmo aspettarci di più da una macchina?»


Conversazioni sull'Intelligenza Artificiale - Medicina, un salto culturale quantico

Gianluca Fuser: Alessio, tu ti stai occupando – nel tuo lavoro - di tecnologie di Intelligenza Artificiale applicate al mondo della cura veterinaria e questo ti dà l’opportunità di spaziare anche nell’ambito delle molte sperimentazioni destinate alla medicina umana. Che impressione hai del fermento che anima questo settore?

Alessio Panella: Un fatto certo è che nel settore della medicina veterinaria la sperimentazione si spinge più in là che in quello della medicina umana, purtroppo in virtù del fatto che gli animali non umani sono ancora e per lo più considerati sostituibili e di un ordine di importanza morale inferiore a quello degli umani – come tu ben sai.

Si testano, infatti, già sul campo applicazioni che interpretano le TAC in modo apparentemente esaustivo;  c’è già chi pensa che il medico veterinario potrà ricevere il referto completo e definitivo senza quasi vedere le immagini.

L’ovvio vantaggio è in termini di riduzione dei costi e dei tempi operativi; forse si può aggiungere una maggiore attenzione ai fenomeni “fuori focus”, quelli spesso ignorati a causa della distorsione cognitiva del medico che – nell’immagine - cerca la patologia che già pensa di dover cercare e rischia di non notare segnali poco evidenti di altre patologie.

Nel campo della medicina umana, invece, ci si muove con maggiore prudenza. Ma non pensare che le applicazioni in sperimentazione o già in uso siano meno dirompenti.

Gianluca: Ad esempio?

Alessio: I casi sono moltissimi ma posso indicarti un paio di esempi secondo me molto rilevanti, che convergono su un obiettivo comune: ridurre la spesa sanitaria. In un caso per il sistema sanitario nazionale britannico (NHS), nell’altro caso per le assicurazioni private su cui si basa il sistema sanitario statunitense.

Per non tediarti, oggi affronterei il primo caso, quello di Babylon, un sistema di “visita a distanza” adottato in via sperimentale dal NHS in alcune aree di Londra. Il contatto tra medico e paziente avviene conversano in video: il paziente usa una app su smartphone, il medico la sua postazione con il suo personal computer.

Durante la conversazione Babylon mostra al medico la storia sanitaria del paziente mentre trascrive la conversazione e la interpreta: isola, cioè, i sintomi rilevanti riportati dal paziente, evidenziandone anche possibili collegamenti con patologie pregresse. Valuta poi inoltre anche il quadro complessivo dello stato di salute del paziente, anche in forma grafica, con una sorta di gemello digitale proposto sullo schermo.

Infine, assiste il medico nel lavoro diagnostico: in primo luogo, proponendo una serie di potenziali diagnosi basate sulla storia clinica, sui sintomi e sulle frequenze statistiche che “ha in pancia” e, in secondo luogo, suggerendo al medico le domande da fare per seguire un percorso organizzato di approfondimento e di diagnosi differenziale.

L’ultima funzionalità è quella con la quale il software analizza le espressioni facciali e la postura del paziente a schermo e informa il medico di eventuali stress o disagi che il paziente sta provando. In sostanza guida il medico anche nella relazione con il paziente, finché questi non sia sereno del risultato della visita.

Gianluca: Che parte svolge la IA in questo processo?

Alessio: Dalla A alla Z. Se vogliamo essere puntigliosi, l’unico passaggio che non è pervaso di IA è la cartella clinica, la storia sanitaria del paziente. Tutto il resto: interpretazione del linguaggio parlato, collegamenti, analisi dello stato di salute e delle espressioni facciali, proposte e suggerimenti, sono tutti guidati da programmi di IA. Che, è bene ricordarlo, sono basati principalmente su inferenze a base statistica.

Puoi vedere chiaramente che vantaggi si ribaltano sull’economia del NHS: meno presenza fisica sul territorio, meno spostamenti, visite più veloci, minori rischi di malattie professionali da contagio per i medici, probabilmente meno costi per accertamenti diagnostici, sicuramente minori costi di apprendistato per i medici di assistenza di primo livello.

Gianluca: Detta così, mi pare che ci possano essere dei vantaggi non trascurabili anche per i pazienti. Perlomeno si potrebbe pensare che – se lo staff medico nel suo complesso è dimensionato in maniera adeguata – si possa garantire una maggiore accessibilità dei servizi di prima assistenza per le situazioni non gravi e una maggiore efficacia nell’indirizzamento diagnostico o terapeutico. Oltre che, come dicevi prima, la possibilità di cogliere problemi fuori focus.

Alessio: Non sbagli affatto. Questi vantaggi ci possono essere di sicuro se – come puntualizzavi – lo staff è ben dimensionato e la base di conoscenza dell’applicazione è adeguata. Aggiungi anche che la somma di medico e di software che lo supporta possono garantire anche un tasso di errore diagnostico, a pari informazioni.

Gianluca: Quindi, non vedi problemi?

Alessio: Purtroppo alcuni problemi ci possono essere: se la “macchina” funziona bene, il medico – che dovrebbe essere la figura principale in questa relazione a tre – può essere meno competente o passare in secondo piano e rischia di diventare solo un tramite tra macchina e paziente. La tentazione per i gestori di un sistema sanitario che deve risparmiare è grande: riduzione dei percorsi professionalizzanti, standardizzazione verso il basso, passaggi delegati interamente alla macchina. Un altro rischio – connesso con la de-professionalizzazione dei medici di prima assistenza – è l’appiattimento delle diagnosi sulle frequenze statistiche.

Gianluca: Cosa significa? Che riconosciuti alcuni sintomi la macchina proporrà sempre la stessa diagnosi, perché statisticamente più frequente?

Alessio: Esattamente questo: se il medico non si impegna nella valutazione delle diverse possibilità di malattie che presentano gli stessi sintomi, in altre parole non fa la diagnosi differenziale, tutti sono malati della stessa malattia. Ma, soprattutto, tutti sono malati!

L’assenza di un contatto personale, di conoscenza del paziente, delle sue idiosincrasie e della sua storia – non solo di quella clinica - unite alla minore competenza e alla pressione “produttiva” sui medici possono fare il disastro.

Gianluca: Quindi i benefici che abbiamo visto prima si prospettano solo sul fronte del contenimento dei costi sanitari?

Alessio: Sì, se il governo di questo sistema complesso di medicina a distanza supportata dall’intelligenza artificiale non si focalizza sul termine “medicina”, cioè sulla pratica condotta da un medico, vero, capace e coadiuvato da macchine ben funzionanti. E se non dimentica il ruolo fondamentale del contatto di prossimità con il paziente.

Gianluca: Sono del tutto d’accordo con te: solo un’accorta gestione di questi processi può coniugare il contenimento dei costi e una maggiore attenzione per i pazienti. 

Un ultimo punto, per oggi: dal punto di vista etico e della responsabilità, come vedi questa innovazione?

Alessio: Il problema della responsabilità è significativo: nel processo congiunto medico-macchina, quando viene commesso un errore chi si prende la responsabilità? Il medico o la macchina? Come hai già scritto su questo blog, c’è un’intera filiera di potenziali responsabili, che deve essere ordinata dal punto di vista legale e pratico – e parlo anche della necessità di trasparenza dei meccanismi di apprendimento e di esecuzione.

Quello che non va dimenticato, però, è il punto di vista del paziente: preferisce che il suo caso clinico venga analizzato da un dottore di 25 anni che si è laureato ieri l'altro e ha visto solo venti casi, oppure da un software che non sa come funziona ma che ha elaborato e sintetizzato 2 milioni di casi simili?

Quello che voglio dire è che l’entrata in campo di questi software è un urto culturale, che non riguarda la maggiore o minore possibilità di errore di una macchina rispetto ad un umano, ma chi commette l’errore.

All’estremo: noi accettiamo l’errore umano come naturale, se la diagnosi sbagliata del medico mi uccide è un umano come me che l’ha fatto. Ma se l’errore è della macchina? Accettare di essere uccisi da una macchina: ecco il salto quantico che ci impone questo cambiamento di paradigma culturale.

 

 


OpenAI e Sam Altman - Anatomia di un Qomplotto (seconda parte)

Riprendiamo il post della settimana precedente per capire l’intricata vicenda del licenziamento e successiva ri-assunzione di Sam Altman, amministratore delegato di OpenAI.

------------

Appena annunciata la notizia della deposizione di Altman, la piattaforma Reddit è stata presa d’assalto da un tumulto di commenti[1] e tentativi di interpretazione del colpo di mano ai vertici di OpenAI, molti dei quali in chiave di Qomplotto. Q* è davvero la culla dell’AI che ci trasformerà tutti in graffette? È il Clippy odioso che abita dentro ciascuno di noi, la nostra anima di silicio?

1. STRUZZI E PAPPAGALLI STOCASTICI

Il 24 novembre prende la parola uno dei protagonisti della storia recente dell’intelligenza artificiale: Yann LeCun. Mitchell (2019) ricostruisce con precisione le ragioni per cui grazie al suo riconoscitore di immagini AlexNet le reti neurali sono diventate dal 2012 quasi sinonimo di AI, imponendosi come paradigma dominante.

In un post su X[2] (ex Twitter) LeCun dichiara: «per favore ignorate il diluvio di completi nonsense su Q*». Possiamo, in prima battuta, spiegare con un paio di esempi la motivazione di fondo per cui LeCun ha sicuramente ragione: sia su Q*, chein generale su qualunque illazione che intenda predire un futuro distopico con l’evoluzione dei paradigmi attuali di AI. In seconda battuta cercherò di chiarire cosa potrebbe essere Q* nella sua lettura delle poche notizie che sono trapelate.

Szegedy et al. (2013) riferiscono gli esiti dell’«attacco avverso» che hanno condotto proprio su AlexNet: l’esperimento di hackeraggio «benevolo» sulla piattaforma di riconoscimento automatico delle immagini si propone di verificare quale sia il grado di comprensione che il software riesce a ricavare dalla percezione delle illustrazioni che gli vengono sottoposte, attraverso l’inserimento di un «rumore informativo» costituito da alcuni pixel inseriti nel corpo delle figure osservate.

 

L’immagine sulla sinistra è quella originale, classificata in modo corretto dall’intelligenza artificiale; quella sulla destra è stata ottenuta attraverso la modifica di alcuni pixel, che non la mutano affatto al giudizio di un occhio umano. AlexNet tuttavia classifica tutte le varianti di destra come «struzzo», attribuendo al nuovo giudizio un grado di affidabilità maggiore rispetto a quello con cui era stata stabilita la valutazione esatta nella versione di sinistra. Ho già mostrato in Bottazzini (2023) come questo risultato possa essere letto sullo sfondo di uno dei dibattiti filosofici più controversi dal Seicento ai nostri giorni: il cosiddetto «Problema Molyneux». Qui basti osservare che l’errore non può essere giustificato come un bug del sistema, o come un difetto che sarà rimosso dall’espansione della potenza di calcolo futura del software.

In nessun caso un’intelligenza – cioè una forma di comprensione della realtà – che aspiri a somigliare a quella umana può ritenere attendibile che un tempio, o uno scuolabus, o un cane, si tramutino di colpo in uno struzzo.

Anche in caso di illusione ottica o miraggio, lo scostamento dalla percezione corretta è solo temporaneo, e la normalità viene ristabilita con un riesame che restituisce il focus dell’impressione al contesto in cui deve essere collocato.

La realtà viene ristabilita nel campo visivo attraverso l’insieme delle operazioni cognitive non tematizzate, che la tradizione fenomenologica definisce intenzionalità fungente (si pensi per esempio a Merleau-Ponty (1945)), da cui si genera il senso del mondo in cui stiamo agendo, nella sua complessità e in ciascuno dei suoi dettagli.

Searle (1995) le definisce competenze di Sfondo: senza alcuna consapevolezza, permettono di viaggiare in autostrada senza domandarci se lo scuolabus che stiamo per superare subirà una metamorfosi improvvisa in uno stormo di struzzi, se il tempio che stiamo contemplando nel mezzo di una vacanza afosa si dissolverà in un vortice di ali sbattute e di piume svolazzanti, o se il cane dei vicini stia deponendo un uovo nel nostro salotto, convertito in un lembo di savana dietro la porta socchiusa.

Gli eventi che sperimentiamo emergono da un orizzonte che rimane stabile, e che regolarizza senza posa i fenomeni con cui interagiamo, perché noi abbiamo un mondo, per usare la concettualizzazione di Heidegger (1983), al contrario delle AI che invece non ne hanno uno (come il resto dei minerali).

In ChatGPT-4 (2023) l’intelligenza artificiale di OpenAI ha stilato una cronaca dell’evoluzione dell’AI e una serie di indicazioni sulla struttura dei principali tipi di software, con un censimento dei personaggi e dei saggi più rilevanti del percorso. Nel §7.3 si presenta un pappagallo stocastico o allucinazione molto illuminante: ChatGPT cita il testo La questione dell’autonomia: gli agenti artificiali possono essere autonomi e avere libero arbitrio? che Mario Rossi avrebbe pubblicato nel 1995: il libro non esiste, né esiste un Mario Rossi in quanto autore del trattato – ma in ogni caso anche il più somaro degli studenti avrebbe evitato di attribuire a questo volume citazioni da Dennett (2003), o descrizioni della partita tra AlphaGo e Ke Jie, disputata nel 2017.

Le intelligenze artificiali sono macchine che calcolano probabilità, soppesando migliaia di miliardi di parametri per ogni passaggio, e rintracciando in questo modo pattern di relazioni che possono sfuggire a sensibilità e misurazioni dell’uomo. AlexNet stima il grado di probabilità che la distribuzione dei pixel nell’immagine possa essere categorizzata con una certa etichetta; ChatGPT conta la probabilità che una certa parola venga subito dopo quella appena stampata, spaziando su 1.700 miliardi di variabili ad ogni nuovo lemma aggiunto alla frase.

Ma nessuna delle due macchine ha la minima idea di cosa stia guardando o di cosa stia dicendo; anzi, non sa nemmeno di stare percependo o affermando qualcosa.

Il cammino verso l’intelligenza, nel senso effettivo di questa parola, non ha mosso ancora il primo passo.

I paradigmi di sviluppo con cui sono state progettate e costruite le AI fino a oggi, non sono in grado di disegnare un’intelligenza che viva in un mondo dotato di senso; quindi nessuna di loro potrà maturare qomplotti contro di noi, né oggi né in alcun futuro possibile; almeno finché non saremo capaci di ideare un nuovo paradigma di programmazione in grado di superare i limiti di oggi.

L’intelligenza non è una proprietà emergente di un sistema di calcolo che oggi non sarebbe ancora abbastanza potente per lasciar affiorare l’homunculus dotato di pensiero e coscienza autonomi, per ora nascosto nelle viscere dei processori e delle schede madri in attesa di tempi migliori. La quantità di parametri sottosposti al processo di calcolo da parte di ChatGPT si è moltiplicata per un fattore 1.000 a ogni nuova generazione del software; ma l’artefatto è stato in grado di articolare testi sempre più lunghi e complessi, mai di capire anche solo una parola di quello che andava componendo.

L’emergenza dell’intelligenza dall’espansione della capacità di calcolo, come l’emergenza del mondo trasformato in graffette, sono utopie e distopie che vivono solo nell’immaginazione di Bostrom e degli altri (numerosi) teorici dell’esplosione dell’AI.

L’intelligenza non somiglia ai comportamenti aggregati della società, o degli sciami di api, o degli stormi di struzzi; commercia invece con una donazione di senso del mondo e degli eventi, che al momento non abbiamo la minima idea di come ingegnerizzare.

È il dominio della lebenswelt da cui secondo Habermas (1981) siamo in grado di lasciar emergere gli aspetti pertinenti per le decisioni sull’azione, senza sapere da dove provengono i contenuti che stiamo tematizzando e che compongono il materiale di dibattito con gli altri – ma che ogni volta siamo in grado di selezionare con una sorta di tropismo verso la verità.

Senso e intelligenza non si nutrono della fugacità con cui si aggregano e dileguano le orme degli sciami di insetti e di uccelli: sono la struttura stessa che rende possibile la società degli uomini e il processo illimitato di interpretazione del mondo e degli altri che si chiama cultura. No lebenswelt, no qomplotto.

Yann LeCun ritiene che Q* debba essere il nome di un progetto che ha raggiunto qualche risultato utile nelle procedure di apprendimento con rinforzo (reinforcement learning), che è il modello di training applicato a ChatGPT. Si consideri che uno degli algoritmi più diffusi in questo ambito si chiama Q-learning, mentre A* è il nome di un importante algoritmo per l’individuazione del percorso più efficace tra due nodi di una rete. Q* potrebbe quindi individuare un algoritmo capace di ottimizzare il processo di apprendimento introducendo un metodo di pianificazione nelle operazioni con cui la rete neurale riequilibra i pesi delle unità di elaborazione, dopo il giudizio che il formatore umano ha espresso al termine di ogni nuova prestazione.

In altre parole, Q* consisterebbe in un dispositivo di ottimizzazione dei calcoli probabilistici con cui l’intelligenza artificiale stima l’occorrenza del prossimo lemma che deve introdurre nella frase, o dell’etichetta che deve stampare come didascalia dell’immagine.

Se siete delusi da questa interpretazione di Q*, siete degli altruisti efficaci.

 

2. UN MONOPOLIO DELL’AI

Lo Sciamano ha guidato una farsa di guerra civile nelle stanze del Campidoglio; ma anche chiedere ai filosofi – soprattutto se sono altruisti efficaci – di condurre un colpo di stato nella governance di un’impresa miliardaria non è una buona idea.

Dopo aver licenziato Sam Altman il 18 novembre, il CDA di OpenAI non ha rilasciato alcuna dichiarazione né alla stampa, né a Satya Nadella, CEO del benefattore Microsoft. Non ha chiarito le ragioni della decisione nemmeno a Mira Murati, nominata CEO ad interim, e non ha risposto a Greg Brockman, presidente della società, quando questi si è dimesso in solidarietà con Altman.

Oltre 730 dipendenti di OpenAI (su 770 complessivi) hanno firmato una lettera il 20 novembre in cui si dichiaravano pronti a lasciare l’azienda se Altman non fosse stato reintegrato; ma anche questa comunicazione non ha ricevuto risposta. Visto che Mira Murati era arruolata nella lista dei dimissionari, è stata sostituita con Emmet Shear. Il disastro di gestione e di comunicazione del board si è risolto il 22 novembre, in obbedienza alle riflessioni meditate attorno alla scrivania di Nadella[3]: «diamo l’incarico di gestione a degli adulti, torniamo a ciò che avevamo».

Altman e Brockmann sono rientrati ai loro posti in OpenAI, mentre il CDA è stato sciolto e ne è stato convocato uno nuovo.

La stupidità del panico per un mondo di graffette ha finito per lasciare le mani libere all’implementazione del Copilot su Office. Agli altruisti efficaci non sono bastati nemmeno i proclami e l’allarmismo suscitato da Altman in prima persona, che invece sa calcolare molto bene gli effetti delle sue dichiarazioni. Il CEO di OpenAI non ha mai risparmiato la sua voce, anche se con meno enfasi di quella di Elon Musk, per sottolineare i rischi futuri dell’intelligenza artificiale. L’ultima volta è accaduto il 30 maggio 2023 con una lettera aperta[4] in cui si elencano i pericoli riconducibili agli usi dell’AI volti a produrre e diffondere informazioni false in qualunque formato.

Yann LeCun, ancora lui, invita a sospettare sia della propaganda «lungotermista» di Musk e degli altri altruisti efficaci, sia della sollecitudine con cui Altman esorta a riflettere sui rischi dei prodotti di cui è egli stesso responsabile.

L’AI Safety Summit, che si è tenuto a Londra per volere del premier britannico Rishi Sunak e a cui hanno partecipato i leader di ventotto paesi (tra cui l’Italia), è stato in realtà dominato da figure come quella di Elon Musk – che ha duettato in un evento mediatico l’ultima sera con il Primo Ministro di Sua Maestà.

L’obiettivo di tutti questi soggetti è convincere la classe politica dell’esistenza di rischi catastrofici connessi allo sviluppo dell’intelligenza artificiale, da cui sarebbero al riparo solo le imprese che essi controllano.

«Dobbiamo stare attenti a evitare che queste minacce facciano pensare alla politica che sia un pericolo mettere l’intelligenza artificiale nelle mani di tutti e che quindi si impedisca, tramite regolamentazioni, che lo sviluppo di questa tecnologia sia open source», avverte LeCun[5].

La soluzione originaria di OpenAI era quella giusta, ma l’azienda ha virato senza che i controllori prestassero attenzione al rischio reale che si nascondeva sotto lo spauracchio delle graffette. Lo spettro di Clippy si aggirerà per Copilot, ma stavolta sarà molto più accorto.

Aggiunge LeCun: «Immagina un futuro in cui tutte le nostre azioni saranno mediate dall’intelligenza artificiale. Se questi sistemi saranno chiusi e controllati da un piccolo numero di aziende tecnologiche californiane, allora ci esponiamo a rischi enormi. Potrebbero per esempio usare la loro influenza per modificare la cultura o le opinioni politiche delle persone. Di conseguenza abbiamo bisogno di un sistema aperto e open source che permetta di creare applicazioni specifiche basate su di esso».

È ora che gli intellettuali tornino a essere adulti, e ricomincino a farsi carico di problemi seri.

 

 

BIBLIOGRAFIA

Bottazzini, Paolo (2023), Nella caverna di ChatGPT, in ChatGPT-4, Imito, dunque sono?, Milano, Edizioni Bietti, 2023, pagg. 44-45.

ChatGPT-4 (2023), Imito, dunque sono?, Milano, Edizioni Bietti, pagg. 166-167.

Dennett, Daniel (2003), Freedom Evolves, New York, Viking Books.

Habermas, Jürgen (1981), Theorie des kommunikativen Handelns, Francoforte, Suhrkamp, cap.1.

Heidegger, Martin (1983), Die Grundbegriffe der Metaphysik : Welt, Endlichkeit, Einsamkeit, Francoforte, Klostermann, Parte II, cap. 2.

Merleau-Ponty, Maurice (1945), Phénoménologie de la perception, Parigi, Gallimard; trad. it. a cura di Andrea Bonomi, Fenomenologia della percezione, Milano, Bombiani, 2003: cfr. in particolare Premessa, pag. 27.

Mitchell, Melanie (2019), Artificial Intelligence: A Guide for Thinking Humans, New York, Farrar, Straus and Giroux, cap. 5.

Searle, John (1995), The Construction of Social Reality, New York, Free Press, cap. 6.

Szegedy, Christian, Zaremba, Wojciech, Sutskever, Ilya, Bruna, Joan, Erhan, Dumitru, Goodfellow, Ian, Fergus, Rob (2013), Intriguing Properties of Neural Networks, «arXiv», preprint arXiv:1312.6199.

 

NOTE

[1] https://www.reddit.com/r/singularity/comments/181oe7i/openai_made_an_ai_breakthrough_before_altman/?rdt=54043

[2] https://twitter.com/ylecun/status/1728126868342145481

[3] https://www.newyorker.com/magazine/2023/12/11/the-inside-story-of-microsofts-partnership-with-openai

[4] https://www.safe.ai/statement-on-ai-risk#open-letter

[5] https://www.wired.it/article/intelligenza-artificiale-yann-lecun-meta/