La cattura del regolatore - Come l’industria piega le regole alle proprie necessità

Per cattura del regolatore si intende quella pratica attraverso la quale un settore regolato dell’industria si impossessa del regolatore, e lo piega alle proprie necessità.

Per l’economista Ernesto Dal Bó, «la cattura del regolatore è quel processo attraverso il quale interessi particolari influenzano l’intervento dello stato in ciascuna delle sue forme, in aree diverse come l’imposizione di tasse, le scelte di politica estera o monetaria, o le leggi che regolano la ricerca e lo sviluppo».

L’attività regolatoria viene studiata in economia seguendo due diverse scuole di pensiero. La prima è quella dell’Interesse Pubblico e la seconda quella della Cattura del Regolatore.

Secondo la prima scuola il mercato fallisce nel conseguimento di politiche orientate al bene comune, per esempio per la formazione di monopoli, ed è quindi necessaria una istituzione, il regolatore appunto, che difenda i cittadini ed i consumatori.

All’estremo opposto la seconda scuola vede l'istituzione di un meccanismo di regolazione come il risultato di una cattura istituzionale: gli interessi industriali ed economici favoriscono essi stessi la creazione di un regolatore che li difenda dalla concorrenza. La seconda scuola non vede questa creazione come risultato di un fallimento dei mercati.

Il lettore italiano ricorderà il motto di Giovenale: ‘Quis custodiet ipsos custodes’, cioè chi custodisce i custodi, a significare che se il regolatore deve regolare, ci si deve accertare che non venga esso stesso regolato a seguito di un fenomeno di cattura.

Il fenomeno osservato da Giovenale nel secondo secolo dopo Cristo è probabilmente antico quanto lo stabilirsi di prime forme di controllo tese ad assicurare il corretto svolgimento della vita pubblica. Tanto ciò è vero che la cattura del regolatore viene considerata come ineluttabile in entrambe le scuole summenzionate.

George J. Stigler, esponente della scuola della cattura del regolatore, e uno dei padri fondatori della Chicago School of Economics, ritiene che «la regolamentazione viene richiesta principalmente dall’industria ed è disegnata ed operata principalmente per il beneficio della stessa». Questa teoria si occupa dei meccanismi che conducono a leggi di regolamentazione identificando i gruppi che traggono profitto dagli effetti redistributivi della legislazione medesima.

Anche per gli economisti Marver H. Bernstein e Beryl R. Crowe la cattura è ineluttabile. Questi prevedono l’esistenza di cicli, laddove una agenzia regolatrice viene creata inizialmente per rispondere ad un allarme o preoccupazione sociale, in seguito gruppi di interesse ben organizzati ne prendono il controllo con la conseguenza che l’operato dell’agenzia li favorisce. Nella fase finale del ciclo l’agenzia regolatrice fornisce rassicurazioni e soddisfazioni simboliche al pubblico mentre “l’attività e le decisioni giornaliere dell’agenzia contribuiscono, rafforzano e legittimano le richieste di piccoli ma ben organizzati gruppi".

In conclusione, per Stigler, meglio non creare affatto i regolatori e lasciare al mercato mano libera, nell’ottica di small government tipica della scuola di Chicago, mentre i sostenitori della regolamentazione insistono sulle strategie di controllo per evitare la cattura – quali ad esempio migliori compensi per i regolatori, maggiori controlli governativi e la creazione di gruppi di interesse pubblico fra i cittadini che si occupino di monitorare l’azione delle agenzie.

La cattura può anche essere culturale: in tal caso il regolatore non viene sedotto dalle offerte dei lobbisti, ma finisce per vedere il mondo come lo vedono i settori regolati. La scienza al servizio degli interessi privati può giocare un ruolo importante in questo tipo di cattura. Secondo alcuni, un caso evidente degli effetti della cattura culturale, politica e cognitiva è proprio l’ultima recessione, resa possibile dalla conquista delle autorità di supervisione finanziaria da parte delle banche medesime.

Un concetto più recente è quello del capitalismo della regolamentazione, come parte di un mondo globalizzato all’interno del quale l’esistenza di regole e standards favorisce il potere degli incumbents (cioè di coloro che dominano il mercato al momento dato)  – si parla in questo caso anche di tragedia della mercificazione. Un esempio di questo tipo di evoluzione trova la sua dimostrazione nel passaggio della tutela della conoscenza da organizzazioni quali UNESCO e la UNCTAD all’Organizzazione per il Commercio Mondiale, World Intellectual Property Organization ed al GATT (General Agreement on Tariffs and Trade), dove la conoscenza è trattata come un bene privato da proteggere per consentirne il commercio.

Un importante caso di cattura è quello relativo alla scienza aperta, dove aspirazioni ad una democratizzazione della conoscenza sono state catturate dalla potente macchina lobbistica degli editori scientifici, finendo per aggravare disuguaglianze e squilibri globali nord-sud e favorire – a detta di alcuni – una ulteriore concentrazione del potere delle mani di pochi giganti del settore.


Papa Francesco e l'Ideologia Gender - Uno scivolone etico e politico?

Papa Francesco si è recentemente scagliato contro la cosiddetta “ideologia gender”, apostrofandola come «il pericolo più brutto del nostro tempo». A suo dire, essa abolisce le differenze e «rende tutto uguale», dichiarando inoltre, in modo lapidario, che «cancellare la differenza è cancellare l’umanità».

Ma che cos’è il gender? E poi, cos’è tale “ideologia gender”?

Gender e sesso biologico

In prima approssimazione e a grandi linee, è possibile intendere il genere (in inglese “gender”), come «orientamento psicosessuale che l’individuo acquisisce su basi culturali»; pertanto, esso è una costruzione sociale che investe, e condiziona, i nostri corpi, le nostre identità e le nostre vite.

Il genere è quel dispositivo che viene attivato a partire dal nostro sesso anatomico e ci indirizza verso i ruoli che la società ha già preparato per noi. Infatti, «mentre il termine sesso viene […] usato per indicare la dimensione biologica dell’essere donna o uomo, [genere] implica la variabilità delle interpretazioni che culture, tra loro diverse, hanno costruito a partire dal dato di partenza biologico». Pertanto, sesso e genere sono distinti: anatomico-biologico il primo, culturale-sociale il secondo.

Prendiamo, come esempio, i sessi femminile e maschile. La società impone a donne e uomini di conformarsi a quello che si ritiene essere il modo “naturale” di esser femmine e il modo “naturale” di esser maschi; l’assegnazione alla nascita dell’uno o dell’altro sesso, dunque, indirizza da subito verso un genere definito.

La costruzione sociale è decisamente pervasiva; è facile pensare subito a temi e oggetti destinati a un pubblico femminile e i relativi equivalenti che, invece, sono indirizzati a un pubblico maschile, con rigide distinzioni e confini che non devono essere superati per non incappare nella discriminazione, nell’esclusione sociale, nel giudizio negativo. Infatti, ha una connotazione di genere un numero considerevole delle cose con cui entriamo in contatto ogni giorno, sia concrete che astratte: capi d’abbigliamento, accessori, giocattoli, interventi sul corpo, desideri, professioni ecc.

Tuttavia, affrontare il tema del genere in modo critico è una via che può permettere la decostruzione dei condizionamenti sociali, in quanto porta a riflettere sui rapporti che distinguono tra femminile e maschile, aprendo così a diverse narrazioni e a maggiori libertà individuali.

Infatti, «il [genere] si inscrive in un più ampio ripensamento dei temi legati all’identità, al soggetto, alla sessualità, alla corporeità, che si coniugano con possibilità di espressione e trasformazione, in rapporto critico e innovativo con categorie che tendono a fissarsi e ad assumere forza regolativa e normativa». Non dimentichiamo che le costruzioni sociali sono rinegoziabili.

Dunque, sembra chiaro che il genere è un dispositivo costruito in parte dai condizionamenti sociali e in parte dalle scelte e dalle storie personali, [1] con tutte le possibilità che ne derivano.

LA COSIDDETTA "IDEOLOGIA GENDER"

L’oggetto dell’invettiva papale, l’Ideologia Gender, è, in realtà, un concetto-ombrello nato verso la fine degli anni ’90 nell’ambiente cristiano cattolico conservatore statunitense, e precisamente ad opera del “Family Research Council, una lobby familiarista cattolica statunitense, attivista dell’Opus Dei, e vicina ai Narth (Associazione nazionale per la ricerca e terapia dell’omosessualità) cioè ai sostenitori delle terapie riparative per l’omosessualità”.

Perché questi gruppi di cattolici conservatori hanno “inventato” questo concetto-ombrello?

Il fine – abbastanza evidente nella prima pubblicazione, “The Gender Agenda: Redifining Equality” di Anne O’Leary  – è quello di comprendere sotto lo stesso termine e contrastare l’ampio spettro di pensieri e pratiche di quegli anni, pensieri e pratiche che non rientravano nelle posizioni cristiano-cattoliche più tradizionaliste; in questo spettro troviamo, secondo gli estensori della “Gender Agenda”, chi “si occupa del controllo della popolazione; i libertari della sessualità; gli attivisti dei diritti dei gay; i promotori multiculturali del political correct; la componente estremista degli ambientalisti; i neo-marxisti/progressisti; i decostruzionisti/postmodernisti.”

Una crociata “contro”, insomma, in cui la componente di contrasto verso delle pratiche di tolleranza e di normalizzazione sociale degli orientamenti sessuali e di genere “non tradizionali” è solo una piccola parte.

L’Ideologia Gender sembra, quindi, non esistere se non nelle intenzioni di chi non ne fa parte.

Sembra essere un altro argomento fantoccio, creato per sostenere teoreticamente un’operazione di rafforzamento di confini molto ampi, tra il tradizionale e “l’altro”, di esclusione di ciò che è “strano”.

Sotto questo concetto-ombrello, però, si riparano dalla pioggia delle posizioni “strane” anche, nell’ordine:

  • i vertici della dottrina cristiano-cattolica, il Consiglio Pontificio pubblica un corposo testo, il “Lexicon. Termini ambigui e discussi su famiglia, vita e questioni etiche” (2003), che studia e critica la fantasmatica “Teoria del Genere”;
  • alcune frange dell’associazionismo cattolico;
  • il cardinale Ratzinger;
  • militanti conservatori e associazioni familiariste cattoliche come «Manif pour Tous-Italia», «Sentinelle in piedi», «Hommen-Italy»;
  • il Forum delle Associazioni familiari [2] e un’ampia serie di soggetti tradizionalisti.

Dall’altra parte, sono invece seri e ampi studi sociologici, psicologici e medici sul genere, sulla sessualità e sulla relazione tra persona e orientamenti comportamentali, affettivi e sessuali.

LA POSIZIONE DI PAPA FRANCESCO

Ora, sull’affermazione di Jorge Mario Bergoglio, è opportuno fare delle puntualizzazioni preliminari:

  • Bergoglio parla nella veste di Papa, massima autorità della Chiesa Cattolica;
  • il contesto in cui parla è quello del Convegno Internazionale "Uomo-Donna immagine di Dio. Per una antropologia delle vocazioni" promosso dal Centro di Ricerca e Antropologia delle Vocazioni (CRAV); [3]
  • la famiglia tradizionale uomo-donna-figli è, secondo la dottrina cristiano-cattolica, un pilastro, la cellula fondamentale della società. [4]

Non credo, quindi che ci si possa scandalizzare se il Papa difende questo elemento, storicamente alla base della dottrina della religione di cui è massima autorità.

Né, tantomeno, credo che si possa criticarlo se lo fa di fronte ad una platea di cattolici che si appresta a riflettere sul ruolo dei cristiani cattolici nella società contemporanea, sulla vocazione e sulle relazioni che i cristiani e la chiesa devono intrattenere con posizioni “altre”, diverse e variegate, non allineate all’ortodossia dottrinale.

Ancora meno, credo, che si possa lamentare una discrasia, una contraddizione, tra queste affermazioni e le recenti aperture nei confronti delle relazioni affettive e delle coppie “in situazioni irregolari e di coppie dello stesso sesso”: il mondo cattolico è ampio, complesso, poliedrico e ci vuole un ombrello molto grande per contenerlo tutto.

Quello che sembra fare Bergoglio, con quelle parole e in quel contesto, è un’operazione – me lo si passi – di marketing affiliativo, di legittimazione della propria autorità di fronte ai partecipanti al convegno, richiamandosi alle posizioni dottrinali tradizionali. Posizioni da cui ritengo normale, direi quasi opportuno, che una organizzazione inizi per pensare il confronto con la diversità.

Insomma, il papa Francesco fa il suo mestiere e lo fa, mi pare, abbastanza bene.

Stupiscono, però, due fatti, che sembrano veri e propri scivoloni di Bergoglio:

  • L’uso del concetto dell’Ideologia Gender che, seppur strumentale all’operazione di auto-legittimazione, ha esposto il capo della chiesa cattolica ad ampie critiche da parte dei media e di tutti coloro che ne conoscono genesi e storia: Bergoglio, di fatto, ha attaccato un prodotto della chiesa, il cui referente empirico è fumoso;
  • Il secondo scivolone, a mio avviso moralmente più grave, è il comparativo di maggioranza associato all’Ideologia Gender: “il pericolo più brutto del nostro tempo”; riesce difficile pensare che il fantasma delle minacce alla famiglia tradizionale siano, in questo momento, più pericolose e più  brutte – ad esempio - della strage di famiglie israeliane compiuta da terroristi nei cosiddetti territori occupati il 7 ottobre del 2023 e il successivo massacro di dimensioni spropositate di altre famiglie, palestinesi questa volta, ancora in corso, nella striscia di Gaza.

 


NOTE

1 Nel parlare di scelte individuali, assumo una posizione neutrale rispetto alla questione che vede contrapposti il libero arbitrio e il determinismo materialista, con tutte le posizioni e sfumature intermedie. In questa posizione, pertanto, mi disinteresso temporaneamente della genesi della scelta e ne osservo solo il risultato.

2 Il quale ha diffuso via internet un «vademecum strumenti di autodifesa dalla teoria del gender per genitori con figli da 0 a 18 anni».

3 L’obiettivo del convegno è di discutere apertamente della vocazione al sacerdozio cristiano, della “trasmissione del patrimonio culturale e spirituale dei cristiani richiede ai credenti di tutto il mondo di riposizionarsi di fronte a un ambiente che è diventato estraneo, indifferente o addirittura ostile, anche nei Paesi tradizionalmente cattolici”. “Dobbiamo pensare in altri termini al futuro del cristianesimo, in un contesto che si aspetta che i cristiani trovino un nuovo paradigma per testimoniare la loro identità”. Obiettivo e scopo del Simposio a cui parteciperanno specialisti internazionali di Sacra Scrittura, filosofia e teologia, scienze umane e pedagogia, è “offrire una visione aggiornata dell’antropologia cristiana in un’epoca di pluralismo e dialogo tra le culture, per sostenere il significato della vita come vocazione” (Cardinale Ouellet, vedi qui).

4 «La Famiglia è costituita dall'unione indissolubile tra un uomo e una donna, aperti al dono della vita. Questa istituzione ha il suo fondamento nel disegno di Dio, ovvero nella legge naturale e perciò precede qualsiasi riconoscimento da parte della pubblica autorità. Per questo è considerata la "cellula fondamentale della società"», recita Cathopedia, l’enciclopedia cattolica.


L'argomento fantoccio (dall'inglese straw man argument o straw man fallacy) è una fallacia logica che consiste nel confutare un argomento, proponendone una rappresentazione errata, distorta o addirittura ridicola.

Senza tentar di scrivere nulla di originale, possiamo affidarci al relativo articolo di Wikipedia, che recita:

« 

in una discussione una persona sostituisce all'argomento A un nuovo argomento B, in apparenza simile. In questo modo la discussione si sposta sull'argomento B. Così l'argomento A non viene affrontato. Ma l'argomento B è fittizio: è stato costruito espressamente per mettere in difficoltà l'interlocutore (ecco perché “fantoccio”). Se l'operazione retorica riesce sembrerà che l'avversario sia riuscito a smontare l'argomento A. Tutto sta nel far sembrare che A e B coincidano.

L'argomento fantoccio è generalmente un argomento più debole di quello iniziale e per questa ragione più facile da contestare.

L'argomento può essere costruito:

    • estremizzando l'argomento iniziale;
    • citando fuori contesto parti dell'argomento iniziale;
    • inserendo nella discussione una persona che difenda debolmente l'argomento iniziale e confutando la difesa più debole dando l'impressione che anche l'argomento iniziale sia stato confutato;
    • citando casi-limite dal forte impatto emotivo;
    • citando eventi avvenuti sporadicamente e/o accidentalmente e presentandoli come se fossero la prassi;
    • forzando analogie fra argomenti solo apparentemente collegati tra loro;
    • semplificando eccessivamente l'argomento iniziale;
    • inventando una persona fittizia che abbia idee o convinzioni facilmente criticabili facendo credere che il difensore dell'argomento iniziale condivida le opinioni della persona fittizia.

Esempi

A un argomento fantoccio si può fare riferimento per deviare una discussione nel corso di un dibattito.

    • A: Il proibizionismo non è lo strumento migliore per evitare il diffondersi dell'alcolismo.
    • B: Soltanto persone senza un'etica potrebbero proporre di consentire a tutti, compresi i minori, un accesso indiscriminato all'alcool.

La persona A non aveva proposto di offrire un accesso indiscriminato all'alcool, ma di tentare un approccio diverso da quello basato solo sulla proibizione e la repressione. La fallacia sta nell'estremizzare la posizione adottata da A fino a trasformarla in qualcosa di diverso da ciò che A intendeva dire e di molto più attaccabile nella discussione.

    • A: Bisognerebbe ridurre gli investimenti in campo militare e aumentare gli investimenti nella ricerca.
    • B: A vuole lasciarci indifesi contro i nemici.

La persona B ha estremizzato l'argomento della persona A che parlava di ridurre, non eliminare, gli investimenti in campo militare. 

» 

Questa lunga citazione ben introduce il terrapiattismo come argomento fantoccio per delegittimare la critica sociale.

Molti giornalisti, filosofi, sociologi, politologi e psicologi (nelle loro argomentazioni) amano inserire nella categoria dei complottisti un guazzabuglio di soggetti: no-vax, vegani, no-TAV, negazionisti climatici, 5G, antivivisezionisti, biodinamici, omeopati ecc. e terrappiattisti. Che cosa abbiano in comune queste persone non è dato saperlo, però il minestrone è sempre un piatto (intellettualmente) povero che sfama tutti.

Un fenomeno irrisorio

 Ebbene, se tutti gli altri soggetti hanno al loro interno scienziati (anche di grande qualità e, a volte, anche più famosi di quelli che li denigrano), non mi risulta esistano scienziati terrapiattisti.
Se tornate su Wikipedia, dove si parla della Flat Earth Society (“Associazione della Terra Piatta”), nata in Inghilterra, che sostiene il mito della "Terra piatta" e che conta membri (quanti?) sparsi in tutto il mondo, non troverete un solo scienziato. Così anche in Italia.

Inoltre, chi il 24 novembre 2017 è andato (in un hotel della periferia milanese) al convegno dei terrapiattisti italiani, ha affermato che in sala «erano presenti 40-50 persone: togliendo relatori, giornalisti e curiosi, i terrapiattisti convinti tra il pubblico erano forse una ventina. Non molti, considerando che siamo in una grande città».

“Nel 2018, Le Iene e Vice Italia si spingono in un ristorante di Agerola, in provincia di Napoli per assistere a un convegno nazionale di terrapiattisti e contano meno di cinquanta persone. L’anno seguente, Wired e lo youtuber Barbascura li raggiungono in un hotel di Palermo: rilevano la stessa affluenza e sono entrambi convinti che almeno la metà dei presenti sia lì per ridere o contestare” (Lolli 2023, Il complottismo non esiste o Miseria dell’anticomplottismo, pp.240-1).

Sempre Alessandro Lolli racconta anche che nel 2021 il Censis fece una ricerca da cui risultava che il 5,8% della popolazione italiana (cioè circa 3.400.000) era terrapiattista. Un numero enorme. Significa che ogni 100 persone che conosciamo, 6 sono terrappiattisti. E siccome io non ne ho mai incontrato uno, il mio collega (certamente un complottista) ne conosce 12.

Ma dove stanno tutti ‘sti terrapiattisti? Tutti nascosti? Ma al Censis non è sorto il dubbio che gli intervistati forse lo stavano prendendo in giro (perculà dicono a Roma)?

In conclusione, di che cosa stiamo parlando? Del (quasi) nulla.

Perché, allora, si dà grande spazio (sui mass media e in accademia) a questo fenomeno praticamente inesistente? Scomodando nientepopodimeno che il fisico Luciano Maiani (ex direttore del Cern a Ginevra e del Cnr a Roma, professore di Fisica Teorica alla Sapienza di Roma, socio linceo), che scrive addirittura una lettera a un terrapiattista.

Con tutte le cose importanti da fare, proprio dei terrapiattisti ci si deve occupare?

E perché mescolarli con un fenomeno di critica scientifica e sociale ben più consistente (sia numericamente che qualitativamente)?

Cui prodest? avrebbero detto gli antichi latini… loro sì convinti terrapiattisti.

Conversazioni sull’I.A. – Corpo e diritto all'integrità

Redazione di Controversie: Riprendiamo il dialogo con Riccardo Boffetti e Paolo Bottazzini sulla soggettività delle intelligenze artificiali, là dove l’abbiamo lasciato il 16 gennaio (Conversazioni sull’Intelligenza Artificiale – Si prova qualcosa ad essere una macchina?), con la domanda che era rimasta in sospeso.

Per riconoscere ad una IA generativa come, ad esempio, Chat GPT, il diritto all’integrità è obbligatorio che sia incorporata in un robot?

Le altre istanze, quelle esclusivamente dialoganti che troviamo sul web, non hanno diritto a questo riconoscimento?

Riccardo: La risposta a questa domanda credo sia sì, per una serie di motivazioni. Credo, innanzitutto, che buona parte della questione si risolva nel fatto che il modo con cui agiamo nel mondo non può che essere antropocentrico e situato, appunto, nel mondo: non siamo (ancora?) degli esseri digitali, piuttosto siamo (ancora) esseri nel mondo. La scala temporale con cui esperiamo ogni situazione è difatti ben definita dalle nostre esperienze terrene e, accantonando per un attimo la velocità dell’immaginazione, questa si esprime in tempi ben più lunghi di quelli dell’elaborazione digitale odierna.

Ciò di cui abbiamo bisogno per poter anche solo concettualmente prendere in considerazione un’inclusione all’interno della sfera della legge di nuovi soggetti è appunto che essi agiscano su una scala temporale a noi comune o che, quantomeno, e in quanto collettivo, si sia in grado di concepire il dispiegarsi delle loro azioni.

Motivo per il quale abbiamo difficoltà sia nel concepire la questione del riscaldamento climatico sia nel prendere atto dell’agentività delle miriadi di specie vegetali e fungine.

Ecco, allora, che l’instanziazione, l’incorporazione, all’interno di un robot, possibilmente non umanoide, può creare quell’orizzonte comune necessario per la costruzione di un collettivo. È proprio il suo agire nel mondo che rende passibile l’hardware e il software di una rappresentazione giuridica: attenzione, non l’hardware e il software di per loro ma ciò che il resto dei partecipanti al collettivo (e cioè gli umani) vedono e possono interpretare come azioni simili alle loro.

Certo, ci rimane sempre l’immaginazione per concepire le esistenze di algoritmi non incorporati in robot. Alexander Laumonier lo fa bene in una sua ricostruzione del mercato dell’HFT (High-Frequency Trading), dove i famosi pit fisici del Chicago Board of Trade sono diventati deserti a favore di un gran movimento nella sfera digitale:

Gli squali allora potranno divertirsi come pazzi. «Che cos’è questa cosa?», domanderà il nipote di un ricco pensionato americano quando uno yacht incrocerà un’isola artificiale zeppa di tecnologia ultramoderna. «È la Borsa», risponderà il nonno, magari un attimo prima che un algoritmo selvaggio riduca a zero la sua pensione.

Probabilmente non potrò mai lavorare su una di queste isole galleggianti. Da qui ad allora gli algoritmi saranno diventati talmente complessi che io sarò ormai solo un vecchio dinosauro.

Per il momento mi accontento di fare il mio lavoro. Sono già le 9.30, e il New York Stock Exchange sta aprendo.

La quiete del mio ufficio climatizzato contrasta con la guerriglia alla quale dovrò prendere parte tutto il giorno, in compagnia di Iceberg, Shark, Blast, Razor e tutti gli altri.

Devo essere vigile, perché probabilmente dovrò sparare un colpo già alle 09:30:00:000:001, GMT-5.

Conto con attenzione i secondi che mi separano dall’apertura dei mercati, poi i millisecondi, i microsecondi, i nanosecondi, sei, cinque, quattro, tre, due, uno, bingo» (6 | 5, 2018).

 

Come inquadrare, però, nella sfera del diritto simili entità? È chiaro il luogo in cui, e su cui, il diritto può agire è tutto l’ecosistema macchina-macchina che viene a crearsi ad essere , piuttosto che l’integrità dei singoli algoritmi. Quando si parla, però, di agenti autonomi nella sfera terrena mi pare che l’argomento diventi meno controverso da affrontare, proprio in luce del fatto che la loro individuazioni ci appare chiaramente davanti a tutti i nostri sensi.

Paolo: Quando la domanda è stata formulata, mi sarei aspettato da Riccardo una replica coerente con il suo antisciovinismo antropologico: i diritti vanno estesi alle intelligenze non umane, anzi non biologiche, quindi a tutte le intelligenze in generale.

Invece, la sua risposta distingue tra intelligenze veicolate da hardware zoomorfi e intelligenze che agiscono senza essere semoventi. Le sue argomentazioni sono in ogni caso sensate e condivisibili, quindi mi limiterei a osservazioni laterali.

La posizione di Riccardo è condivisibile se si accoglie la prospettiva fenomenologica di Merleau Ponty (1945, Fenomenologia della percezione): l’intelligenza non è solo una questione di calcolo logico, ma è, anzitutto, la regola dell’azione di chi frequenta il mondo come un’esplorazione precategoriale di orizzonti di senso. Mondo e corpo proprio cospirano a formare questo cosmo di significati, prima di qualunque operazione costitutiva dello spirito, e prima che l’universo si presenti già cristallizzato in oggetti. In questi termini, il possesso di un corpo è un attributo necessario non solo per l’intelligenza umana, ma per l’intelligenza in generale. Purtroppo, però, al momento, le intelligenze attive nei robot non contano sul loro hardware nel modo in cui gli uomini ineriscono al mondo con il loro corpo. Il software infatti compie calcoli in tutte le dimensioni che la fenomenologia assegna all’intenzionalità fungente: la conversione dell’AI alla lebenswelt è al limite una prospettiva, o un ottativo, rivolto all’evoluzione futura.

È possibile, poi, che un aspetto zoomorfo renda più incline il pubblico umano a riconoscere un diritto di inviolabilità alle macchine: da un punto di vista psicologico, la percezione di qualche affinità potrebbe aggiungere commozione all’istanza normativa. A questo proposito però un sociologo ispirato ai principi dell’ANT, come Bruno Latour (2005, Riassemblare il sociale), osserverebbe che robot e intelligenze artificiali sono già iscritte in reti di pratiche, di domini di significato, di associazioni, in cui il riconoscimento di un nuovo diritto irromperebbe come una detonazione, o l’invasione di un corpo alieno. L’esame del modo in cui le diverse forme di intelligenza artificiale e di meccatronica collaborano a formare i gruppi sociali dell’industria, della ricerca accademica, dell’hacking, ecc., dovrebbe precedere l’elaborazione di una normativa che regoli la convivenza dei robot con gli altri attori sociali. Ma si tratta di un tema ampio che dovrà essere ripreso.

Redazione: Grazie a entrambi una volta di più. Il tema, suggerito da Riccardo, dell’incorporazione dell’intelligenza artificiale nella dimensione temporale apre un terreno di confronto assolutamente nuovo per questa questione; la riflessione di Paolo - che richiama Merleau-Ponty sulla necessità dell’intelligenza di “contare sul proprio corpo” sembra rinforzare e mettere a terra l’ipotesi di Riccardo.

Ma cosa ne pensa chi l’Intelligenza Artificiale la vede anche nella sua dimensione operativa, pratica? Nella prossima conversazione partiremo da alcune riflessioni di Alessio Panella che sottolinea il necessario dubbio sull’autocoscienza di macchine senza corpo.


Il complottismo degli anti-complottisti. Le trappole mentali dei debunkers

Da quasi un decennio i temi della post-verità, delle fake-news e delle teorie del complotto sono diventati un’ossessione non solo per i giornalisti, ma anche per gli accademici. Per alcuni sociologi, psicologi, filosofi ecc. sembra che tutti i mali del mondo vengano dai cospirazionisti, persone malate, irrazionali e anti-scientifiche, carbonari dei nostri giorni, che passano il loro tempo a fornicare sui social media, a costruire ad arte notizie false per poi diffonderle.

 

Un po’ di casi storici

Poi dopo qualche decennio si scopre, ad esempio, che il super testato dietilstilbestrolo (una specie di estrogeno prescritto tra il 1938-1971 per prevenire l'aborto spontaneo) causa centinaia di casi di adenocarcinoma (un tumore, solito insorgere mediamente intorno ai 17 anni) in donne nate (chiamate poi figlie DES) da madri che l’avevano assunto. Oppure che il super testato talidomìde, prescritto in particolar modo alle donne in gravidanza, provoca migliaia di nascituri con deformazioni (es. focomèlia); o, più recentemente (2004), che il super testato Vioxx, “un farmaco per l’artrite, largamente prescritto, fu scoperto aumentare il rischio di infarto e ictus, soltanto dopo esser stato sul mercato per cinque anni” (Conis, 2015: 233).

Per fare un altro esempio, ricordo che Albert Sabin, medico e virologo (inventore di uno dei due vaccini contro la polio), almeno sin dal 1980 (fino al 1993, anno della sua morte), manifestò più volte, mediante interviste stampa e TV, diverse perplessità su alcuni vaccini, sui vaccini antinfluenzali e sulle politiche vaccinali, anche italiane, come quella dell’obbligatorietà del vaccino antiepatite B, come ebbe a dire il 4 dicembre 1991 a RAI 3: «A mio giudizio si tratta di un errore grossolano e sono certo che il ministro della Sanità è stato molto mal consigliato. In realtà in Italia oltre l’80% di casi si verificano tra i tossicodipendenti che fanno uso di siringhe infette o che non cambiano siringhe (…) Affrontando questi aspetti del problema si otterrebbero risultati migliori di quelli garantiti dalla vaccinazione obbligatoria previsti dalla legge appena approvata...». Quel “mal consigliato” fu più chiaro vent’anni dopo, quando la magistratura accertò (con sentenza definitiva nel 2012) che l’allora ministro, il medico e liberale De Lorenzo, nel febbraio 1991 aveva ricevuto una tangente di 600 milioni di lire dalla Smith Kline Beechm (Glaxo), l’azienda produttrice proprio del vaccino Engerix B. Non risulta che De Lorenzo sia stato poi radiato dall’ordine dei medici.

Proprio quest’ultimo episodio ci insegna che i sociologi, psicologi, filosofi così ferventemente anti-complottismi dovrebbero avere un atteggiamento meno manicheo e più laico, aperto e tollerante.

Perché i complottismi di oggi potrebbero (ripeto cento volte ‘potrebbero’) essere le verità di domani.
In altre parole, un approccio cauto e “storico” non farebbe male. Come suggeriscono diversi autori (Di Piazza, Piazza e Serra 2018, Veltri e Di Caterino 2017, Cuono 2018, Lorusso 2018, Adinolfi 2019, Gerbaudo 2019, Ottonelli 2019) che hanno individuato diversi limiti epistemologici, descrittivi, normativi e strategici del concetto di post-verità.

Un caso per tutti è quello dell’amianto (ma si potrebbe parlare del tabacco, del DDT, dei coloranti per le bevande ecc.). Un minerale naturale conosciuto e usato sin dall'antichità e fino all'epoca moderna, per gli scopi più disparati: da magici e rituali fino a quelli industriali. In Italia il suo uso è proibito solo dal 1992. Ma “risale agli inizi del ’900 il primo processo in Italia (in Piemonte) nel quale venne condannato il titolare di un’azienda che lavorava amianto perché la pericolosità del minerale era stata ritenuta circostanza di conoscenza comune. La prima nazione al mondo a riconoscere la natura cancerogena dell'amianto, dimostrandone il rapporto diretto tra utilizzo e tumori e a prevedere un risarcimento per i lavoratori danneggiati, fu la Germania nazista nel 1943”[1]. Ma si sa: i nazisti facevano propaganda.

 

Patologizzare la critica sociale, comprimere il dissenso

Dal punto di vista scientifico, ‘complottismo’[2] è un termine che richiama un concetto con uno statuto epistemologico molto incerto e controverso. Tant’è che risulta essere un termine molto carico politicamente. Infatti secondo l’antropologo Didier Fassin (2021) esiste una tendenza crescente, nelle scienze umane, ad assimilare la critica sociale al pensiero cospirativo, utilizzando il secondo per delegittimare la prima. Per cui, mediante questo termine, abbiamo un inquinamento della sfera pubblica e un disincentivo alla partecipazione.

Allo stesso modo, il politologo greco Yannis Stavrakakis, parlando di ‘populismo’, argomentava che che è una categoria, più che descrittiva, normativa, e di conseguenza ‘performativa’, nel senso che è una costruzione di coloro che governano (gli anti-populisti) per imporre i loro “regimi di verità”, come li chiamava Michel Foucault (un autore che gli studiosi anti-complottisti sembrano aver dimenticato).

A tal fine, il filosofo della scienza Paul Feyerabend (1975), a cui il dibattito sul complottismo avrebbe probabilmente fatto ridere, diceva che “nella scienza occorre dar voce a tutti, anche ai punti di vista che in quel momento possono sembrare errati”. E continuava “è opportuno conservare tutte le teorie, anche quelle che nel corso del tempo sono state scartate, perché è sempre possibile che tornino attuali”, perché ogni teoria non è mai sviscerata in tutti i suoi aspetti: la deriva dei continenti, un tempo ritenuta una teoria pseudoscientifica, è oggi parte integrante del patrimonio scientifico, soprattutto dopo la scoperta delle prove paleomagnetiche che sostengono il concetto di tettonica a zolle. Anche l'evoluzione della specie o l'eliocentrismo furono inizialmente sottoposte a feroci critiche scientifiche.

E la filosofa femminista Sandra Harding sosteneva che “anche le scienze naturali (es. fisica e chimica), e non solo le scienze umane (es. sociologia e antropologia), sono influenzate anche dalle credenze e opinioni personali degli scienziati”.

 

Le trappole mentali dei debunkers e fact checkers

Sembrerebbe che solo i complottisti ragionino in modo surreale. Ed è compito dei debunkers e fact checkers, i Roland Freisler o gli Andrej Vyšinskij del XXI secolo, scoprire l’infondatezza di quelle che poi saranno definite fake news.

C’è però un particolare. Inquietante. I debunkers sono strabici: fanno il pelo sempre ai critici dello status quo, e quasi mai ai governanti o coloro che gestiscono il sistema dell’informazione. Per cui operano all’interno dei “regimi di verità” e dei “regimi di discorso”.

Altrimenti avrebbero indagato e scoperto l’infondatezza (per fare uno degli esempi più clamorosi) delle dichiarazione del Segretario di Stato americano, Colin Powell, che il 5 febbraio 2003 all’assemblea generale dell’ONU aveva mostrato le fotografie di laboratori mobili (si scoprì poi che erano dei modellini) di costruzione di armi biologiche (le famose armi di “distruzione di massa”) e avrebbero guardato cosa conteneva (talco anziché antrace) quella fialetta esibita teatralmente durante il suo discorso.

In altre parole, i debunkers e gli anti-complottisti soffrono delle stesse trappole mentali dei cosiddetti complottisti. Essi cadono nel fenomeno della “reazione all’oggetto” (Cacciola e Marradi 1988), fenomeno socio-cognitivo-emotivo, per cui nel dare un giudizio su una notizia si guarda alla fonte PRIMA che al contenuto. Per cui se la fonte è un’istituzione rispettata, allora le sue notizie non possono essere che vere (così successe per Colin Powell, mentre Saddam Hussein faceva propaganda). E’ viceversa.

Ma il contenuto della notizia non viene quasi mai esaminato senza preconcetti.

In conclusione, anti-complottisti “di terra, di mare e dell'aria”… datevi una calmata.

 


NOTE E BIBLIOGRAFIA

[1] https://www.inail.it/cs/internet/docs/dossier_storia_amianto-pdf.pdf

[2] Un tempo si chiamava “dietrologia” (vedi https://www.ilpost.it/2024/02/08/sgobba-quando-il-complottismo-si-chiamava-dietrologia/)

Adinolfi, M. (2019). Hanno tutti ragione? Post-verità, fake news, big data e democrazia. Roma: Salerno Editrice.

Cacciola Salvatore e Marradi Alberto (1988), Contributo al dibattito sulle scale Likert basato sull’analisi di interviste registrate, in Marradi (a cura di), Costruire il dato, Milano: Angeli, 63-105.

Conis, Elena (2015), Vaccine Nation. America’s Changing Relationship with Immunization, Chicago: University of Chicago Press.

Cuono, M. (2018). “Post-verità o post-ideologia: un problema politico,online e offline”. In Web e società democratica: un matrimonio difficile, a cura di E. Vitale and F. Cattaneo, 66–82. Torino: Accademia University Press.

Di Piazza, S., Piazza, F., and Serra, M. (2018). “Retorica e post-verità: una tesi controcorrente”. Siculorum Gymnasium 71 (4): 183–205.

Fassin, Didier (2021) Of Plots and Men. The Heuristics of Conspiracy theories,in Current Anthropology, 62(2), pp. 128-137.

Feyerabend, Paul K. (1975) Against Method, Londra: Verso Book. Trad. It. Contro il Metodo. Milano: Feltrinelli, 1979.

Gerbaudo, P. (2019). “Una falsità scomoda: fake news e crisi di autorità”. In Fake news, post-verità e politica, edited by G. Bistagnino and C. Fumagalli, 74–91. Milano: Fondazione Giangiacomo, Feltrinelli.

Harding, Sandra (1993). “Rethinking Standpoint Epistemology: What is Strong Objectivity” Feminist Epistemologies (a cura di) Alcoff L., Potter E., New York e Londra: Routledge.

Lorusso, A. M. (2018). Postverità: fra reality tv, social media e storytelling. Bari: Laterza.

Ottonelli, V. (2019). “Disinformazione e democrazia. Che cosa c’è di fake nelle fake news?”. In Fake news, post-verità e politica, a cura di G. Bistagnino and C. Fumagalli, 92–115. Milano: Fondazione Giangiacomo Feltrinelli.

Stavrakakis, Y. (2017). “How did ‘populism’ become a pejorative concept? And why is this important today? A genealogy of double hermeneutics”. POPULISMUS Working Papers 6.
http://www.populismus.gr/wp-content/uploads/2017/04/stavrakakis-populismus-wp-6-upload.pdf

Veltri, G. A., and Di Caterino, G. (2017). Fuori dalla bolla: politica e vita quotidiana nell’era della post-verità. Sesto San Giovanni: Mimesis.


Monopattini elettrici e numeri maltrattati – Strumentalizzare le statistiche

A metà agosto dell’anno scorso, in vacanza in un paesello di montagna, sono caduto con la bicicletta e mi sono rotto un paio di ossa, finendo al pronto soccorso. 

Sulla base delle frequenze di incidenti rilevate, un ipotetico giornale locale avrebbe potuto titolare così la pagina della cronaca del giorno dopo: ”Sempre più numerosi gli incidenti gravi ai ciclisti nel paese di Vattelapesca”

--------

Nulla di falso in questo titolo: la vittima dell’incidente è un ciclista; l’agosto precedente scorso non c’erano stati incidenti ai danni di ciclisti; grave è grave, mi è costato ricovero e intervento. 

Il cronista avrebbe potuto anche scrivere, che gli incidenti in bicicletta, in agosto, a Vattelapesca: “Si moltiplicano”, “Crescono in maniera esponenziale”, tutto senza allontanarsi di un passo dalla verità. 

Ora, è evidente che questa presentazione della questione – pur corretta dal punto di vista del rapporto con la realtà – rischia di essere drammatica e fuorviante. 

--------

Cambiamo scenario: il 12 ottobre 2023, un telegiornale a diffusione nazionale titola un servizio: “Sempre più pericolosi i monopattini elettrici, incremento del 78% degli incidenti mortali”.

Lo spunto per il servizio – che si focalizza sulla pericolosità dei monopattini elettrici – è la morte di una ragazza che è stata travolta, a Trento, mentre attraversava la strada con il suo monopattino; non era ancora noto se fosse a bordo del monopattino oppure se lo stesse spingendo a mano. 

È normale, nella pratica giornalistica, utilizzare un evento puntuale come pretesto per introdurre un articolo che parla di fenomeni generali, niente da dire. È il caso, tuttavia, di esaminare qualche aspetto del fenomeno generale di cui parla questo servizio:

  • L’incremento del 78% di cui si parla è un dato relativo al 2022, rispetto al 2021
  • Gli incidenti mortali con il monopattino nel 2022 sono stati, in valore assoluto, 16
  • Nel 2023, fino al 12 ottobre, il numero di incidenti mortali con il monopattino più attendibile è 15 (la ragazza di Trento è la quindicesima).

Sembrerebbe, quindi, che il numero assoluto, nel 2023,di incidenti mortali con il monopattino fosse in calo rispetto al 2022.

Andiamo avanti: se esaminiamo la fonte, che supponiamo attendibile (Aci-Istat), gli incidenti mortali simili nel 2021 sono stati 10 (9 conducenti e un pedone), quindi l’incremento nel 2022 scende al 60%.

Cos’è, quindi questo 60%? Potrebbe trattarsi dell’incremento di incidenti gravi, non solo di quelli mortali. Una sorta di metonimia? No, si tratta di una lettura riduttiva dei dati del 2021, che non conta un pedone investito ma solo i conducenti.

 

Con un minimo ancora di approfondimento, scopriamo che il servizio tace sul “denominatore nascosto” del fenomeno degli incidenti: il numero di monopattini elettrici circolanti e il suo incremento negli anni di cui si parla.

Non si trovano facilmente dati sull’incremento tra 2021 e 2022 dei mezzi di proprietà ma sicuramente i noleggi di monopattini elettrici è aumentato di circa il 50%. 

Tra 2022 e 2023, invece, ci sono fonti che parlano di un aumento del 140% dei monopattini privati e di più del 100% dei noleggi. 

In proporzione ai monopattini circolanti, è plausibile che l’incidenza di incidenti sia diminuita nel 2022 e c’è l’evidenza di una riduzione del 50% nel 2023.

Addirittura, secondo l’Osservatorio Nazionale sulla Sharing Mobility, tra il 2021 e il 2022, il rapporto tra incidenti, numero di monopattini e chilometri percorsi è calato dell’80%. 

Il quadro che si scorge approfondendo le cifre è, quindi, decisamente diverso. 

Eppure, questa percentuale drammatica del 78% di incidenti mortali in più fornisce al servizio – e ai numerosissimi altri articoli di stampa che in quei giorni ne ricalcano i contenuti – il carattere di affidabilità scientifica: sono numeri, sono percentuali, sono calcoli scientifici, legittimano le affermazioni e le conclusioni.

E distorcono irrimediabilmente la realtà. Perché?

Ecco perché: ad ottobre 2023 è iniziata la discussione parlamentare delle nuove misure di legge che riguardano i mezzi di cui parliamo: obbligo di targa e di assicurazione, obbligo del casco, dotazione di freni anteriore e posteriore indipendenti, frecce, limiti di velocità e regole di parcheggio; oggi, parte di queste misure diventa legge.

La vera notizia d’agenzia da lanciare era, quindi, la legge - che è diventata esecutiva in questi giorni - la cui legittimazione doveva passare attraverso un percorso di drammaticità: quello dell’incremento degli incidenti.

Questa vicenda mette in luce come si possono facilmente maltrattare i numeri e farli diventare “dati scientifici” con risultati distorti, secondo regole di rilevanza sociale. 

 

 

P.S.: Il quotidiano locale della zona dove sono caduto l’agosto scorso non ha parlato del mio infortunio, né delle statistiche sugli incidenti ciclistici. Il Sindaco del paesello non aveva in programma, me l’ha assicurato di persona, nessuna nuova legge comunale sulle mountain bike.

 


RIFERIMENTI PER I DATI:

  • ACI – ISTAT, report incidenti stradali 2022
  • Osservatorio sulla Sharing Mobility
  • EMG Mobility,  13 Febbraio 2023
  • Wired 22.05.2023

Un nuovo francescano? - Paolo Benanti e la commissione algoritmi

Il professore Paolo Benanti è stato nominato Presidente della Commissione sull’Intelligenza Artificiale per l’Informazione e l’Editoria della Presidenza del Consiglio. 

La Commissione è un organo del Dipartimento per l’Informazione e l’Editoria istituito dalla Presidenza del Consiglio poco più di due mesi fa, con lo scopo di analizzare le implicazioni dell’Intelligenza Artificiale nel campo dell’editoria e dell’informazione e, di conseguenza, consigliare il Dipartimento che ne è responsabile. La commissione è stata presieduta - dalla fondazione sino alle sue dimissioni - dal professor Giuliano Amato, politico, giurista,  docente universitario e manager pubblico. 

La nomina di Giuliano Amato aveva sorpreso molti; l’assegnazione della presidenza a Paolo Benanti forse anche di più. 

Paolo Benanti ha un curriculum eccellente e si può dire - senza timore di smentita -  che è uno dei massimi esperti mondiali di Intelligenza Artificiale; è un frate Francescano del Terzo Ordine Regolare, teologo, eticista, docente presso la Pontificia Università Gregoriana, consigliere di Papa Francesco per l’Intelligenza Artificiale, membro della Pontificia Accademia per la Vita con mandato sulla Intelligenza Artificiale, membro del New Artificial Intelligence Advisory Board dell' ONU, autore di libri sul ruolo dell'umano nella civiltà tecno-umana. 

Ovunque si parli del profilo etico delle tecnologie e del ruolo della Intelligenza Artificiale nella vita dell'uomo, la presenza di Benanti è pertinente.  È, tra l'altro, colui che ha coniato il termine Algoretica, cioè l'etica degli algoritmi. Da anni infatti si interroga e fa riflettere su come la tecnologia sia passata dallo status di strumento in mano all'uomo a quello di parte integrante dell'ecosistema sociale, e sempre più influente su questo ecosistema. 

È sicuramente apprezzabile che Benanti abbia accettato di esporsi nel ruolo di Presidente della commissione: qualsiasi linea guida ne uscirà sarà certamente pertinente e di alto profilo. Paolo Benanti ama poi scherzare sul ruolo degli eticisti, come lui: gli eticisti fanno le domande e  si tengono alla larga dalle risposte. Nel campo dell'etica le giuste domande sono infatti la cosa più importante, quelle che dovrebbero influenzare politici e stakeholders affinché affrontino i temi davvero rilevanti. 

La domanda centrale posta dal lavoro di Paolo Benanti si può riassumere in questa: le macchine devono avere un'etica? Quale? Quali limiti ci sono e devono esserci nel rapporto tra la nuova specie delle macchine intelligenti e l'essere umano? 

Gli eticisti non scendono in campo per dire cosa non si può fare o, peggio, pontificare su giusto e sbagliato, dice Benanti; il loro ruolo fondamentale su temi delicati e pervasivi della vita collettiva - com'è e come sarà sempre più l’Intelligenza Artificiale - deve essere appunto quello di porre le giuste domande, per far sì che le persone e le istituzioni ricerchino le risposte più adatte al contesto in cui operano. In questo il professor Paolo Benanti non potrà che essere eccellente: le persone, l'essere umano - in particolare nel loro rapporto con la tecnologia - sono sempre state al centro della sua attenzione. 

Una volta tanto possiamo dire che in Italia abbiamo messo la persona giusta al posto giusto. 




Incontri indeterminati - Considerazioni su “La Chimera” di Rohrwacher

Taglia e cuci. Montaggio di spazi discreti e durate disparate, seguendo il filo rosso della fiction, così il cinema prova a restituirci la vera esperienza del mondo. In questo senso, “La Chimera”, di Alice Rohrwacher, propone una serie di immagini capaci di tratteggiare alcuni complessi caratteri della nostra società e del tempo in cui viviamo, rendendoci il senso della storia.

In un periodo volutamente imprecisato, sospeso fra gli anni Ottanta e un eterno presente attraversato da presagi del futuro, e senza dare un’eccessiva importanza al luogo della vicenda (l’immaginaria Riparbella, nella Tuscia), il film racconta delle peripezie di una banda di tombaroli, la quale ha un discreto successo nelle escavazioni delle tombe etrusche, riuscendo a trovare numerosi cimeli grazie al contributo del protagonista (Arthur, una specie di rabdomante), che riesce a percepire l’ubicazione dei tumuli e delle caverne interrati tramite le sue chimere, suscitate dal desiderio di ricongiungersi con il suo amore scomparso (Beniamina), che gli appare in sogno in maniera sfuggente, perdendo dietro di sé il filo dall’orlo scucito del vestito.

Ma quella del tombarolo è una professione del tutto particolare, forse il tipo di vita precario per antonomasia, sospeso fra la libertà e la soggezione assolute date dal non avere vincoli. Così, le vicende dei personaggi, si articolano grazie a espedienti, alternando la gioia della festa estemporanea alla miseria del vivere di stenti e di improvvisazione quotidiana, con un fare che ricorda molto i gitani di Kusturica. Arthur, vive in una baracca adagiata sul crinale di una collina dominata da imponenti mura medioevali, ed ha solo gli abiti che indossa, ma non sembra curarsene; il suo comportamento è un misto di angoscia e cieca determinazione, preso dalla volontà di riprendere continuamente la sua ricerca. La scoperta colma di trepidazione di sarcofagi nascosti, e il ritrovamento di oggetti del passato, veri e densi di significato perché «visti da molti occhi», gli forniscono un senso di pienezza, sostenuta dall’approcciarsi a un’ideale soggettività corale in armonia con la natura delle società arcaiche, e dando libero sfogo all’affettività delle utopie; salvo poi recuperare i caratteri della morte non appena i colleghi irrompono al seguito per fare man bassa del bottino, così che, suo malgrado, i doni dati in corredo ai defunti si trasformano in merce preziosa da rivendere ai collezionisti.

-----

Una possibile chiave di lettura del film è quindi quella delle possibilità di vita nelle rovine del capitalismo, come descritte dall’antropologa statunitense Anna L. Tsing nel volume The Mushroom at the End of the World (2015), dove illustra la sua etnografia della filiera del matsutake, il fungo più pregiato del mondo, che cresce spontaneamente in aree boschive rinfoltite al seguito di processi si de-forestazione e sfruttamento intensivo del suolo. I raccoglitori, i mediatori, i rivenditori e gli importatori descritti dalla ricerca, ovvero stranieri e derelitti a cui non è permesso assimilarsi con la società, sono così delle figure istituite dalla catena del valore internazionale del fungo, che si sviluppa incidentalmente nelle fratture di modelli sociali consolidati, creata tramite salti e traduzioni, e che richiede perciò delle traiettorie di vita al margine, stimolate dalla ricerca di un contesto di libertà imprecisata e multisfaccettata. Così si genera l’accumulazione di recupero che, lungi dal rappresentare gli scarti, o le disfunzioni, di un sistema globale ordinato e in espansione inesorabile, avviene negli interstizi degli spazi politici e culturali formatisi storicamente e intrecciati in un assemblaggio che fornisce direzioni impreviste agli eventi, insieme a nuovi territori per l’agire sociale.

Questa performance drammatica, in una mescolanza che include una supposta competizione di mercato, non permette riscatto se non al termine della filiera e solo per pochi: il gioco quindi è truccato, funziona a forza di errori, falsità e distorsioni. Non c’è determinismo, non c’è sistematicità, il progresso è una chimera. Ma come sottolinea l’autrice, «gli umani contano in questi paesaggi. E gli umani portano le storie con loro nell’affrontare le sfide dell’incontro. Queste storie, sia umane che non-umane, non sono mai programmi robotici, ma piuttosto delle condensazioni nell’indeterminato qui e ora; il passato che cogliamo, come dice il filosofo Walter Benjamin, è una memoria ‘che brilla nel momento del pericolo’. Noi generiamo la storia, scrive Benjamin, come ‘il salto di una tigre in ciò che è stato’».

 

La storia così non può essere una successione di fatti. La storia si fa proprio con i “se” e con i “ma”, propri degli esperimenti mentali: la civiltà occidentale sarebbe fiorita se il libero mondo ellenico avesse perso la battaglia di Maratona con la teocrazia persiana? La cultura patriarcale esisterebbe se i Romani non avessero conquistato gli Etruschi? Le nostre valutazioni muovono sempre da insostituibili valori culturali. Conoscere è valutare, è scegliere. «Già il primo passo verso il giudizio storico è quindi – questo dev’essere qui sottolineato – un processo di astrazione, il quale si svolge attraverso l’analisi e l’isolamento concettuale degli elementi del dato empirico – che viene appunto considerato come un complesso di relazioni causali possibili – e deve sfociare in una sintesi della connessione causale ‘reale’. Già questo primo passo trasforma pertanto la ‘realtà’ data, allo scopo di farne un ‘fatto’ storico, in una formazione concettuale: nel ‘fatto’ è appunto implicita, per dirla con Goethe, la ‘teoria’» (Weber, 1922: Il metodo delle scienze storico-sociali).

-------

L’autenticità è una messa in scena, parziale, situata, biased. Come ricorda l’etimologia di “empirico”, bisogna avere “fede” nell’esperienza, l’una si capovolge nell’altra. «A opporsi alla finzione non è il reale, non è la verità, che è sempre quella dei padroni o dei colonizzatori, ma è la funzione fabulatoria dei poveri, in quanto dà al falso la potenza che ne fa una memoria, una leggenda, un mostro».

Affabulare vuol dire impegnarsi nell’invenzione di un popolo, «allora il cinema può chiamarsi cinema-verità, tanto più che avrà distrutto ogni modello del vero per diventare creatore, produttore di verità: non sarà un cinema della verità, ma la verità del cinema»

(Deleuze, 1985: L’immagine-tempo. Cinema 2).


Soggetti o oggetti? - Come e perché pensare un diritto per alcuni robot

Avevano fatto sorridere le uscite di Giuliano Amato, nella veste di presidente della Commissione Algoritmi, sui molti modi possibili per cucinare le patate suggeriti da una generica intelligenza artificiale.1 Un’uscita considerata ridicola da molti, non adatta alla serietà della questione (tutta imperniata sulla tutela dei contenuti e del copyright dalle grinfie delle cosiddette intelligenze artificiali generative).

Ecco allora che dal 5 di gennaio il teologo Paolo Benanti subentra alla posizione di Amato. Un pensiero affascinante quello della sua «algoretica», che meriterebbe un approfondimento tutto suo. Tuttavia, questo cambiamento al timone di comando credo sia una spia interessante per porsi una domanda iniziale. Con questo cambio assistiamo infatti ad un riorientamento verso altre specializzazioni accademiche dalle quali si va cercando consiglio: siamo passati dal diritto alla filosofia morale, alla bioetica: che il diritto abbia già esaurito tutto ciò che di utile poteva dirci a riguardo?

È bene notare come sia una tendenza diffusa quella di applicare i criteri della casuistica2 ai nuovi scenari creati dalle interazioni umane con agenti più o meno autonomi, ma sicuramente non organici. Questi criteri si rivelano certamente strumenti utili per indagare la rettitudine morale o, nel peggiore dei casi, il minore dei mali, da perseguire nel sempre più ampio ventaglio di scenari possibili. Io credo però che le maglie della legge, di una legge che sorge dalle garanzie costituzionali, possa offrirci ulteriori e più interessanti metodi di analisi. E forse anche qualche garanzia in più.

Definiamo però subito bene il nostro perimetro di riferimento: quali sono questi robot? Robot sociali sicuramente, di quelli pensati per entrare costantemente in contatto con noi per intenderci, e dotati di un monologo interiore. Cos’è però il monologo interiore, per un robot? Semplicemente lo stesso che è per te che stai leggendo: un modo per aggiornarne costantemente il proprio modello del mondo cercando sempre di approssimare al meglio gli ipotetici scenari futuri.

Noi ne abbiamo solitamente esperienza come quella vocina nella nostra testa, o quel «buzzing that went on inside my head» di cui parlava Alan Turing. A livello funzionale però non ci occorre teorizzare alcun homunculus, solo un flusso di linguaggio interno.3

Perché il monologo interiore è importante per il nostro discorso sociale? Perché ci offre la possibilità di soddisfare uno dei criteri più spesso rincorsi nei dibattiti sull’intelligenza artificiale: la trasparenza.

È il caso anche delle recenti (dicembre 2023) proposte contenute nell’EU AI Act, dove si legge come alcuni dei requisiti per un utilizzo corretto dei «sistemi di IA identificati come ad alto rischio», siano «la registrazione dell'attività per garantire la tracciabilità dei risultati; la documentazione dettagliata che fornisca tutte le informazioni necessarie sul sistema e sul suo scopo per le autorità di valutarne la conformità; l’accessibilità e la trasparenza di informazioni chiare e adeguate all’utente».

Attenzione: le scatole nere rimangono tali, tuttavia guadagnano, grazie alla registrazione del loro monologo interiore, un alto grado di trasparenza sulle loro azioni. Bene, per robot che agiscono così credo si possa ragionevolmente parlare di soggetti (o oggetti, poi ci arriviamo) autonomi.

Ora, se un (s)oggetto è autonomo, cioè è in grado di compiere azioni senza essere comandato a distanza da altri soggetti, allora ci occorre incasellarlo all’interno di una qualche finzione giuridica, in modo tale che se dovesse arrecare qualche danno, sapremmo quali norme seguire. Ecco, credo che questo sfondo di prudenza sia quello sul quale ragionare di diritti robotici: non occorre mischiare concetti come quello di agente e paziente morale, ci basta soffermarci sul riconoscimento dell’esistenza (sempre più prossima)4 di entità immerse nel nostro stesso ambiente che agiscono in maniera per noi più o meno comprensibile.

Sembra dunque che stia proponendo qualcosa di non molto diverso dalla «personalità elettronica» discussa per la prima volta in una bozza europea nell’ormai lontano 2017. Occorre però fare delle debite precisazioni per non rischiare di cacciarsi nel ginepraio legistico e propongo allora qui di seguire le cristalline ricostruzioni di Luigi Ferrajoli.5

Innanzitutto, di quale diritto stiamo parlando? I diritti soggettivi, quelli cioè spettanti ad ogni soggetto (fisico e poi dunque giuridico), devono essere concettualmente distinti (1) in diritti fondamentali e diritti patrimoniali.

È bene subito ricordare come i diritti fondamentali, indisponibili per loro natura, siano «limiti imposti alla democrazia politica e al mercato a garanzia della loro stessa conservazione» mentre i diritti patrimoniali, siano diritti di forma singolare: escludono cioè tutti gli altri soggetti.

È poi per noi necessario distinguere, (2) all’interno dei diritti fondamentali, quelli di libertà e quelli di autonomia privata. La logica di questa seconda biforcazione è chiara, ed è la medesima alla base della distinzione tra i diritti fondamentali e quelli patrimoniali: sia i diritti patrimoniali, evidenziati in (1), sia i diritti fondamentali di autonomia privata, evidenziati in (2), sono da considerarsi in quanto potestatis agendi, ovvero diritti potestativi.

Al contrario, i diritti fondamentali di libertà non possono che essere mere immunità, o facultates agendi e dunque si differenziano dai diritti fondamentali di autonomia i quali «formano il principale veicolo della differenziazione dei diritti singolari di proprietà e perciò del moltiplicarsi di disuguaglianze giuridiche e materiali nei diritti patrimoniali».

Tenendo ben chiara questa suddivisione ciò che si vuole qui iniziare a discutere sarà allora un diritto fondamentale di libertà per questi, e ora possiamo dirlo, soggetti robotici. Nessun diritto di giocare in borsa (un diritto di autonomia privata), né di potersi comprare qualche capo di fast-fashion (un diritto patrimoniale), piuttosto la garanzia di una difesa della loro integrità da interferenza arbitrarie.

Si chiederà: perché? che bisogno c’è di questo diritto di libertà?

Ecco due considerazioni:

(a) non sappiamo cosa succeda all’interno di queste macchine, e non possiamo, io credo, dirimere così facilmente la famosa domanda del «cosa si prova ad essere quel sistema».

Ne segue poi che il metro con il quale dovremmo valutare una macchina, se non vogliamo solamente una versione più efficace di un oggetto che già possediamo ma cerchiamo invece un nuovo soggetto con cui dialogare e con il quale costruire qualcosa di nuovo insieme, sia necessariamente quello di un fair-play.

Questo credo sia l’insegnamento, e l’atteggiamento, più importante che Alan Turing ci ha per primo lasciato: «a fair play [that] must be given to the machine. Instead of it sometimes giving no answer we could arrange that it gives occasional wrong answers. But the human mathematician would likewise make blunders when trying out new techniques. It is easy for us to regard these blunders as not counting and give him another chance, but the machine would probably be allowed no mercy. In other words then, if a machine is expected to be infallible, it cannot also be intelligent . . . No man adds very much to the body of knowledge, why should we expect more of a machine?».6

Ciò di cui qui si discute sono dunque macchine incorporate nel mondo che per poter agire in questo mondo hanno bisogno di poter sbagliare, perlomeno quando lo sbaglio non arreca danni irreparabili ma – ad esempio - solo una contenuta flessione nel profitto.

(b) la commodificazione di un possibile nuovo soggetto può risultare l’ulteriore veicolo di lacune già presenti all’interno di una costruzione giuridica che ha inventato finzioni ben più de-responsabilizzanti e pericolose (basti pensare alle holding finanziarie dotate di personalità giuridica). Di fatto poi tali lacune sono spesso alla basse dell’emergenza di quelli che Ferrajoli giustamente definisce crimini di sistema. Dopotutto non è tramite la riduzione dei soggetti che possono mettere in gioco un reciproco controllo dei rispettivi poteri che si garantisce la continuità delle nostre prerogative costituzionali, piuttosto è con un ampliamento di tali figure che si può garantire alla democrazia politica e al mercato laloro stessa conservazione.

 

Cosa ci guadagniamo da questa proposta? cosa invece ne perdiamo?

Occorre discuterne. Certo è che il primo passo è riconoscere la possibile rilevanza della questione.

 

 

 

NOTE

1 Il virgolettato in realtà recitava: «A me piacciono molto le patate. Grazie all’intelligenza artificiale, un giornalista in pochi istanti potrà sapere tutti i modi in cui posso cucinarle, così da arricchire il suo pezzo».

2 Parte della teologia morale, che applica i principi della morale teorica a casi concreti, anche solo ipotetici («casi di coscienza»), secondo varie circostanze, per trovare la regola valida per ciascuno, metodi ancora attuali in molta etica e bioetica contemporanea.

3 Un modello chiaro per i nostri robot è quello dell’«Inner Monologue», sul quale si può approfondire qui: https://innermonologue.github.io

4 È chiaro che il discorso normativo che sto qui presentando cerca di anticipare il futuro alla luce delle tendenze più attuali e che paiono più promettenti. Altre architetture, non basate sulla commistione tra un modello LLM (come il famigerato ChatGPT per intenderci) e un robot potrebbero prendere il sopravvento, resta il fatto che l’obiettivo perseguito rimarrà quello di un’efficace autonomia di questi (s)oggetti, e dunque il punto giuridico del discorso non varia di molto, varierebbero sì i soggetti. Un esempio dell’interazione uomo-macchina con questo modello si può vedere qui: https://www.youtube.com/watch?v=djzOBZUFzTw&t=334s

5 Il riferimento è il tomo estremamente denso e tuttavia cristallino La costituzione della democrazia (2021). Le parti più rilevanti per il nostro discorso sono, per chi fosse interessato ad approfondire, la III e la IV.

6 La citazione viene dalla trascrizione della Conferenza tenuta alla London Mathematical Society il 20 Febbraio 1947. Una traduzione si trova nel volume curato da Gabriele Lolli sull’«intelligenza meccanica» e recita così: «sostengo che la macchina deve esser trattata in modo equo e leale. Invece di avere una situazione in cui la macchina a volte non dà risposte, potremmo aggiustare le cose in modo che essa dia ogni tanto risposte sbagliate. Anche il matematico umano prende qualche cantonata quando sperimenta nuove tecniche. È facile per noi considerare queste sviste come non rilevanti e dare a lricercatore un’altra possibilità, ma alla macchina non viene riservata alcuna pietà. In altre parole, se si aspetta che la macchina sia infallibile, allora essa non può anche essere intelligente… Nessun uomo aggiunge granché al corpo generale delle conoscenze umane: perché dovremmo aspettarci di più da una macchina?»


AI Act – La prima legislazione europea sull’Intelligenza Artificiale

Anno 45 a.C.: Giulio Cesare legifera sulla circolazione dei carri nei centri abitati – dall’alba alla metà del pomeriggio[1]. L’obiettivo è di snellire il traffico urbano, ridurre la sporcizia (sterco dei cavalli), l’odore e il rumore nelle strade durante il giorno (non è cambiato nulla, mi pare).

Anno 1865: in Gran Bretagna viene promulgato il Red Flag Act[2] che impone alle autovetture (self-propelled vehicles, la tassonomia è importante: distingue dalle vetture a cavalli) di avere un equipaggio di almeno 3 persone, di non superare la velocità massima di 4 miglia orarie sulle strade fuori città e di 2 miglia orarie in città, di essere precedute a 60 yarde da un uomo a piedi con una bandiera rossa che ne segnali l’arrivo, regoli il passaggio di carrozze e cavalli e, infine, faccia fermare il veicolo a motore in caso di necessità.

È una normativa stringente, finalizzata – oltre che a proteggere il lavoro dei vetturini pubblici – a garantire la sicurezza delle persone contro la minaccia del trasporto privato "self-propelled".

Anno 1903: entra in vigore il primo codice della strada organico a New York, a fronte della velocità che possono raggiungere senza sforzo, “effortless”, gli autoveicoli lungo le strade cittadine.

Anno 1929: con poco meno di 250.000 circolanti su tutto il territorio nazionale – nasce il Codice della Strada italiano, che vedrà alcune riedizioni e ammodernamenti, nel 1992 e quest’anno.

Queste normative hanno tutte come principale finalità il contenimento dei rischi per guidatori, passeggeri, passanti e cose a fronte del pericolo generato da una tecnologia: i mezzi di trasporto su strada.

E hanno influenzato lo sviluppo della tecnologia “automobile”, così come la tecnologia “automobile" ha orientato il nostro modo di vedere la realtà e le nostre dinamiche sociali, produttive, economiche - come rilevava Bruno Latour con la sua teoria dei Quasi Oggetti [3]

9 dicembre 2023, due giorni fa: l’Unione Europea – primo organo istituzionale al mondo a farlo – ha approvato l’AI ACT, piattaforma normativa sull’utilizzo delle tecnologie di intelligenza artificiale. [4]

“Un quadro giuridico unico per lo sviluppo dell'intelligenza artificiale di cui ci si può fidare. E per la sicurezza e i diritti fondamentali delle persone e delle imprese.”, dichiara Ursula Va Der Leyen [4].

L’obiettivo di questa legge è “garantire che l'IA protegga i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale”, permettendo uno sviluppo efficace ma “sicuro” delle innovazioni.

Tra le norme “in negativo” si evidenziano:

“i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili, come le convinzioni politiche, religiose e la razza; la raccolta non mirata di immagini del volto da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale; il riconoscimento delle emozioni sul posto di lavoro e nelle scuole;  il social scoring; le tecniche manipolative; l'IA usata per sfruttare le vulnerabilità delle persone.” [4]

In positivo, invece, vigerà l’obbligo alla “valutazione dell'impatto sui diritti fondamentali.” [4] Delle applicazioni di IA.

Il punto critico che ha reso complessa la negoziazione è l’utilizzo delle tecnologie di IA da parte delle forze dell’ordine, soprattutto per il riconoscimento biometrico e in tempo reale e la polizia predittiva.

“Alla fine i negoziatori hanno concordato una serie di salvaguardie e ristrette eccezioni per l'uso di sistemi di identificazione biometrica (RBI) in spazi accessibili al pubblico ai fini di applicazione della legge, previa autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti” [4]

Al di là delle specifiche indicazioni normative, va notato che:

  • Le istituzioni comunitarie europee hanno adottato un punto di vista molto concreto sull’IA, in cui prevale il suo carattere di tecnologia, con usi ed effetti privati e pubblici
  • In quanto tecnologia, come accadde per gli autoveicoli dal 1865 in poi, ne ha considerato i rischi per i soggetti che rappresenta: popolazione e tessuto produttivo, e ha – conseguentemente - imposto delle misure di controllo e di contenimento di questi rischi.
  • Nell’ambito dei rischi da contenere, sono stati privilegiati quelli che riguardano la discriminazione, l’invasione del territorio emotivo personale, la manipolazione dei comportamenti e i danni fisici e psicologici agli individui.
  • Inoltre, è stata posta una particolare attenzione sulle tecnologie IA definite “ad alto impatto”[5], che includono i sistemi di IA generale-generativa, come Chat GPT 3.5, per i quali è obbligatoria “l’applicazione ex ante delle regole su sicurezza informatica, trasparenza dei processi di addestramento e condivisione della documentazione tecnica prima di arrivare sul mercato”. [4]
    In poche parole, i produttori dovranno rendere pubblico come viene addestrato il sistema e su quali basi!

 

L’IA, con questa normativa, viene assimilata a molte altre tecnologie, anche dal punto di vista del legislatore, perde una parte dell'aura di mito contemporaneo,
viene collocata nella sua “rete di relazioni, che si estende ben oltre la sua forma”[7]
e – dopo la glorificazione dei potenziali vantaggi già avvenuta in molte sedi istituzionali [6] -
i rischi che genera vengono affrontati in modo concreto
come accade, almeno dal 45 a.C., per tutte le nuove tecnologie.

 

NOTE

[1] Lex Iulia Municipalis, https://www.archeologiaviva.it/4055/rumore-e-traffico-in-citta-un-problema-di-sempre/#:~:text=Gi%C3%A0%20nel%2045%20a.C.%20Giulio,circa%20le%20cinque%20del%20pomeriggio).

[2] https://vlex.co.uk/vid/locomotives-act-1865-808255757

[3] Bruno Latour, Non siamo mai stati moderni, Eleuthera, 2018

[4] https://www.rainews.it/articoli/2023/12/intesa-ue-per-la-legge-su-intelligenza-artificiale-breton-momento-storico-97d8b5ca-141f-4284-a6fb-434b9871ee01.html

[5] Categorizzate per potenza di elaborazione almeno pari a 10^25 FLOPs (floating point operations per second, un criterio tutto sommato più adeguato di quello proposto precedentemente sul fatturato dell’impresa.

[6] Si veda il mio post del 24 ottobre 2023, Etica, morale e intelligenza artificiale, https://www.controversie.blog/etica-intelligenza-artificiale-un-approccio-analitico-e-normativo/

[7] Bruno Latour, Non siamo mai stati moderni, Eleuthera, 2018