Newton, Leibniz e il calcolo infinitesimale - uno scontro tra visioni del mondo
Per Gottfried Wilhelm Leibniz (1646-1716) non furono erette statue o monumenti. Pochi, anzi pochissimi, parteciparono al suo funerale, benché fosse stato per tutta la vita vicino agli alti vertici dei nascenti stati nazione, e sebbene per decenni avesse svolto l’incarico di storico dell’allora casata di Hannover. Dieci anni più tardi, la morte di Isaac Newton (1642-1726) sortì tutt’altra reazione: al funerale presenziò persino Voltaire, poco più che trentenne, e che di lì a pochi anni avrebbe scritto gli Elements de la philosophie di Newton (1738), diventando, al ritorno dal suo esilio in Inghilterra,1 il principale divulgatore del pensiero newtoniano sul continente. Cinquant’anni più tardi l’architetto francese Étienne-Louis Boullée (1728-1799) realizzò in onore di Newton i sei disegni del fantaprogetto del cenotafio. Con l’obbiettivo di «donare a Newton l’immortale luogo di riposo, il paradiso»,2 Boullée progettò una colossale cupola alta circa centocinquanta metri adagiata su di una zona d’appoggio adornata d’alberi perfettamente allineati, impossibile da realizzare tecnicamente.
L'accesa rivalità tra due dei più eminenti filosofi e scienziati del proprio tempo è stata spesso semplificata e ridimensionata a una mera contesa. Il che ha comportato la riduzione del problema al solo tentativo di stabilire chi dei due sia giunto per primo alla formalizzazione del calcolo infinitesimale. La morte e i funerali a volte bastano per dichiarare un vinto e un vincitore. Lo scontro tra nazioni – e la correlata tendenza a prendere posizione da una parte o dell’altra dello stretto di Dover, e dunque a stare con Parigi o con Londra – ha ulteriormente alimentato tali opposizioni riduttive.
Dopo più di un millennio in cui il calcolo della superficie e del perimetro di figure curve si era accontentato dell’antico metodo d’esaustione, e dopo i primi vagiti di una nuova matematica che aveva preso forza a cavallo tra il sedicesimo e diciassettesimo secolo, Leibniz e Newton rappresentarono per l’Europa d’allora gli inventori dell’ analisi infinitesimale che permetteva, a partire dalla curva, il calcolo dell’ «equazione tangente e il valore della sua curvatura in un punto generico, […] la tangente, massimi e minimi»3 tramite ciò che Leibniz chiamò «rapporto differenziale» e Newton «calcolo delle flussioni».
In effetti, tra i due ci fu una contesa circa la paternità del calcolo. Il filosofo di Lipsia sosteneva di aver sviluppato il fulcro delle proprie scoperte ben prima dell’inglese, mentre quest’ultimo affermava di aver consegnato al tedesco una lettera, passata tra le mani dell’amico in comune Oldenburg, dove per la prima volta dimostrava le proprie scoperte.4 Mentre Newton aveva sviluppato il grosso della propria teoria già nel 1669, Leibniz iniziò ad ottenere dei risultati non prima del 1672, pubblicando le prime scoperte nel 1676. Nel 1711, per dirimere la disputa, fu chiamata in causa come parte giudicante la Royal Society, di cui lo stesso Newton era Barone dal 1715. Ne risultarono il Commercium epistolicum (1715) e la Recensio Libri, quest’ultima pubblicata anonimamente ma scritta con ogni probabilità dal fisico inglese, e in cui si condannava definitivamente Leibniz sotto gli occhi di tutto il mondo accademico del tempo.5 Newton, si diceva, aveva inventato il nuovo calcolo infinitesimale.
Riannodiamo i fili, la disputa tra Leibniz e Newton fu, semplicemente, una contesa? La sociologia delle scienze e delle tecnologie ci ha recentemente fornito un’interpretazione originale del concetto di controversia.6 Rivolgiamolo dunque al nostro caso. Ciò che accadde tra Leibniz e Newton fu una contesa o una controversia? Cambia qualcosa?
L’indicazione di Enrico Giusti è rivelatrice: «chi legge i documenti relativi alla disputa fra Leibniz e Newton circa l’invenzione del calcolo infinitesimale, […] ha l’impressione che si stia svolgendo un dialogo tra sordi».7 Non tanto perché i due non si siano voluti ascoltare, il che trasformerebbe nuovamente l’evento in una contesa. Per quanto comunichino e si attacchino, essi non paiono disquisire del medesimo oggetto. Il problema non è certo che «non si è mai capaci di parlare della stessa cosa». Piuttosto, ricostruendo il nugolo di considerazioni intorno al «calcolo infinitesimale» nell’uno e nell’altro autore, e al di là della disputa ufficiale, non ci troviamo più davanti a due oggetti simili che, in fondo, sono conciliabili. Simili - scrive sempre Giusti - «ma irrimediabilmente diversi».8
Se a parità di calcolo le due formulazioni restituiscono risultati pratici sostanzialmente sovrapponibili - dunque a parità di esattezza matematica - concettualmente sono in aspro contrasto, se non addirittura incompatibili. Finché ci si focalizza soltanto nello stabilire la paternità del calcolo, tutta la questione appare come una semplice contesa. Questa peculiarità del concetto di controversia è stata forse sottostimata: perché non ci sia controversia, basta non porsi la questione. Altro lato della medaglia: perché non ci sia controversia, basta ridurla a una contesa, alla morte dell’uno e al trionfo dell’altro, come d’altronde si premurò di fare l’esegesi illuminista che aveva infervorato Voltaire e Boullée, e che avrebbe spinto Immanuel Kant (1724-1804) a essere molto più newtoniano che leibniziano.
Ciò detto, rimane da risolvere il problema inverso. Supposto che una controversia possa differire da una contesa, bisognerà stabilire il senso di questa differenza. Se tra Leibniz e Newton avvenne una contesa, ci riduciamo a determinare storicamente chi è giunto per primo a ciò che chiamiamo «analisi infinitesimale». Il modo della relazione è già definito, ciò che resta da stabilire è unicamente la priorità cronologica di un attore sull’altro. Se, diversamente, tra i due ci fu una controversia - e qui ci viene in soccorso l’etimo della parola - ciò che v’è da stabilire è proprio il modo della relazione dell’uno e dell’altro: in una contesa ci si muove verso l’oggetto comune, in una controversia il moto è appunto «contrario» l’uno rispetto all’altro, per «versi» differenti. Ecco una seconda peculiarità: se il concetto di contesa è fin troppo generalizzabile - tutto può diventare contesa -, il concetto di controversia sembra perdere qualcosa di vitale laddove dovesse venire generalizzato. Una relazione già definita, come quella di contesa, è ipso facto generalizzabile. Al contrario, laddove si debba ancora definire il modo della relazione, non c’è alcunché di generalizzabile, se non tramite una semplice accezione negativa. Infatti, propriamente parlando, che si dica che due elementi sono in rapporto di controversia, è affermare che non è definito il modo di quel rapporto di direzione contraria dell’uno rispetto all’altro.
Torniamo dunque ai contendenti. Dei due, Leibniz è meno ambiguo sul posizionamento generale del calcolo all’interno del suo più ampio sistema di pensiero. Come hanno mostrato Gilles Deleuze ne La piega (1988) e Michel Serres nei due tomi de Le système de Leibniz et ses modèles mathématiques (1968), il rapporto differenziale dx/dy in combinazione con alcune considerazioni circa le serie convergenti, ossia tendenti verso un limite comune, rappresentano due principi ineliminabili dell’intero sistema matematico-metafisico del filosofo tedesco. A tal proposito, Ludovico Geymonat ha sostenuto, nel suo corso sulla Storia e filosofia del calcolo infinitesimale (1946-1947), che «mentre in Newton l’invenzione del calcolo infinitesimale fu dettata da preoccupazione essenzialmente tecniche, in Leibniz invece essa scaturì da considerazioni essenzialmente filosofiche».9 Il tedesco immaginava un fuscum subnigrum animato e in constante variazione. L’ha ripetuto Michel Serres nel Parassita, «il rumore di fondo è il fondo dell’essere».10 La monade è imperscrutabile qualora non considerassimo ciò che ha rimarcato Deleuze, se «le monadi non hanno finestre, attraverso le quali qualcosa possa entrare o uscire»,11 come recita la famosa VII proposizione de La monadologia, è perché tra monade e mondo c’è un rapporto di rispecchiamento reso possibile proprio dalle considerazioni di Leibniz circa il rapporto differenziale. Il calcolo di Leibniz - scrive sempre Deleuze - è inseparabile da un’anima: se il mondo è una serie infinitamente infinita di cui la monade è l’inversa, la coscienza funziona per integrazione di rapporti differenziali. Se un’infinita schiera di piccole percezioni inconsce si integrano tra di loro - ossia entrano in un rapporto differenziale convergente - divengono coscienti.12 Di conseguenza la soglia della coscienza non è l’effetto di un rapporto differenziale, bensì è il rapporto stesso, un «ripiegamento del mondo», una piega, o come annotava Leibniz nei Principi razionali della natura e della grazia «se fosse possibile dispiegare tutte le pieghe dell’anima, le quali tuttavia si esplicano in maniera evidente solo nel tempo, si potrebbe conoscere la bellezza dell’universo in ciascuna anima. Infatti ogni percezione distinta dell’anima contiene un’infinità di percezioni confuse che implicano tutto l’universo».13
Che dire di Newton? L’analisi infinitesimale ha una posizione ambigua. Se da un lato Newton sostenne sempre la finalità pratica del calcolo, e dunque la parziale estraneità dello strumento rispetto al reale, una ricognizione di ciò che scrisse in fatto di teologia e fisica[14] - caso paradigmatico è lo scolio generale che chiude i Principia[15] - rivela, in fondo, il tentativo di armonizzare la realtà stessa a quello che doveva essere un semplice «calcolo pratico». Insomma, diversamente da come si è ripetuto fino allo sfinimento, e a partire dalle accuse di oscurantismo e filosofeggiamenti che Newton mosse a Leibniz,16 chi dei due sia stato il vero empirico è tutto da vedere. Per riassumere nel modo più contratto la differenza sostanziale, si potrebbe affermare che mentre il sistema di Leibniz, inteso come immagine del reale, postula l’infinito in actu, implicato, come ragion sufficiente del sistema stesso, la teoria di Newton, rappresentazione della realtà-pratica, ostracizza l’infinito a favore dell’atomo e delle quantità «infinitamente piccole» che, tuttavia, rimangono «estese».17 Quello dell’inglese è un calcolo di flussioni, ossia dei movimenti di un punto per grandezze infinitamente piccole. E tuttavia, quest’ultimo sarà obbligato a reintrodurre ciò che aveva precedentemente escluso, così che il materialismo atomistico affermato con tanta dissimulata leggiadria venga calmierato reintroducendo un finalismo che ne giustifichi l’unità di base. Lo chiamerà Dio poiché, come confidava in una lettera a Bentley, «il materialismo granulare non potrebbe in alcun modo ‘trasformare il caos in un cosmo’». Per Leibniz, contrariamente, l’atomismo scevro d’infinito è una semplice «debolezza dell’immaginazione»:18 dev’esserci, in fondo, un punto animato. Come ha scritto il sociologo Gabriel Tarde in Monadologia e sociologia (1895), «perfino nella parte solida, se la conoscessimo meglio, dovremmo eliminare quasi tutto. E così di eliminazione in eliminazione, dove arriveremo mai, se non al punto geometrico, cioè al punto nullo, a meno che questo punto non sia un centro?»[19]
NOTE
1 Com’è noto la figura di Pangloss, maestro filosofico di Candido, è una parodia del pensiero di Leibniz. Come si legge in “Candido o l’ottimismo” in Voltaire, Vol. II, tr. it. P. Angioletti, e M. Grasso, RBA, Milano 2017, p. 216, Pangloss, insegnante di «metafisico-teologo-comolonigologia provava in modo ammirevole come non potesse esistere effetto senza causa, e come nel migliore dei mondi possibili il castello del monsignor barone fosse il più bello dei castelli, e la signora la migliore di tutte le baronesse».
2 Da Etienne-Louis Boullée, Architecture: Essai sur l’Art , trans. Sheila de Vallée, in Helen Rosenau, Boullée and Visionary Architecture (London: 1976) in P. L. Ricci, Lux et tenebris: Etienne-Louis Boulé’s Cenotaph for Sir Isaac Newton.
3 L. Geymonat, Storia del pensiero filosofico. scientifico, Vol. II, Garzanti editore, Milano 1970, p. 378.
4 Si veda il recentemente ripubblicato Disputa Leibniz-Newton sull’analisi, a cura di G. Cantelli, Bollati Boringhieri editore, Torino 2023.
5 Per approfondire la successione cronologica degli eventi si veda A. R. Hall, Philosophers at war, Cambridge University Press, 2009.
6 H. M. Collins, T. Pinch, Il Golem (1993), Dedalo, Bari 1995.
7 E. Giusti, “Introduzione”, in Disputa Leibniz-Newton sull’analisi, cit., XIII
8 Ibidem.
9 L. Geymonat, Storia e filosofia dell’analisi infinitesimale, Bollati Boringhieri editore, Torino 2008, p. 141.
10 M. Serres, Il Parassita (1980), Mimesis edizioni, Milano 2022, p. 77.
[11] G. W. Leibniz, Monadologia, Bompiani editore, Milano 2017, §7, p. 61.
12 Per il rapporto tra coscienza e inconscio differenziale si veda il capitolo VII, “La percezione nelle pieghe” in G. Deleuze, La piega (1988), Giulio Einaudi editore, Torino 2004, pp. 139-162.
13 Ivi, “Principi razionali della natura e della grazia”, §13, p. 51.
14 Si veda I. Newton, Trattato sull’apocalisse, a cura di M. Mamiani, Bollati Boringhieri editore, Torino 2022.
15 Geymonat ne parla in Storia del pensiero filosofico e scientifico, Vol. II, Garzanti editore, Milano 1970, p. 524.
16 Scriveva Newton ne lo Scolio, «infatti qualsiasi cosa non si riesca a dedurre dai fenomeni, deve chiamarsi ipotesi; e tutte le ipotesi, siano esse della metafisica, della fisica, della meccanica o delle qualità occulte, non hanno posto nella filosofia sperimentale». Nelle battute conclusive della recensio libri si legge “Si deve senza dubbio ammettere che fra Newton e Leibniz sussiste un enorme differenza nel modo di trattare la filosofia. Il primo procedere solo fin dove lo conduce l’evidenza dei fenomeni e delle esperienze, [...] il secondo è tutto imbevuto di ipotesi, che avanza non già come proposizioni da doversi esaminare con l’esperienza, ma che verità cui si deve credere a occhi chiusi”, Cantelli, p. 80.
17 Scrive Newton nello Scolio generale dei Principia, riportato da L. Geymonat, Storia del pensiero filosofico e scientifico, Vol. II, cit., p. 522, «l’estensione, la durezza, l’impenetrabilità, a mobilità e la forza d’inerzia delle part del tutto nasce dall’estensione, la durezza, l’impenetrabilità, dalla mobilità e dalla forza d’inerzia delle parti: di qui concludiamo che tutte le minime parti di tutti i corpi sono estese e Dre, impenetrabili, mobili, e dotate di forza d’inerzia. E questo è il fondamento dell’intera filosofia»
18 G. W. Leibniz, “Nuovo sistema della natura e della comunicazione delle sostanza e dell’unione tra l’anima e il corpo” (1695), in Scritti Filosofici, vol. I, cit., p. 190, §3.
19 G. Tarde, Tarde, Monadologia e sociologia (1895), tr. it. F. Domenicali, Ombre corte, Verona, 2013, p. 45.
Storie segrete delle scienze - Un viaggio tra scienze, umano e società
Storie segrete della scienza è il titolo intrigante di una raccolta di saggi pubblicata da Mimesis il mese scorso. Al suo interno si trovano tradotti saggi di Jonathan Miller, Stephen Jay Gould, Daniel J. Kevles, Oliver Sacks, e Richard C. Lewontin, originariamente pubblicati a metà anni ‘90. Il lettore viene accompagnato dai racconti lungo la storia più o meno accidentata di alcune importanti scoperte della scienza contemporanea.
Gli autori, capaci narratori, coinvolgono nei percorsi personali delle figure che si sono scontrate nel dibattito delle idee. Ancora più interessante è però la capacità di questi scritti di inoltrarsi sempre più nella complessità dei rapporti tra umano, società e mondo.
Così, Miller racconta la storia del magnetismo e di Franz Anton Mesmer che lo scoprì nel XVIII secolo. Le mani imposte sul corpo dei pazienti di Mesmer inducevano in loro trances e convulsioni a cui seguiva la guarigione da vari disturbi mentali e non solo. Da Mesmer si aprono diverse strade. Esoterismo, ricerca, spettacolo e scoperta. Dallo spettacolo delle convulsioni magnetiche nasce come per gemmazione il “sonno nervoso”, l’ipnosi. Si aprono così possibilità di ricerca nella direzione dell’inconscio umano, sotterraneo e pieno di implicazioni politiche. Non solo la scienza è in gioco, ma piuttosto tutto il mondo: i nazionalismi dell’epoca e quelli odierni, le teorie politiche liberali o meno, la libertà dell’umano e Miller nel raccontare mantiene sempre dritta la rotta della scoperta (anche se quella rotta forse l’ha tracciata la storia per lui).
La rotta: stupenda metafora per l’esploratore che è in noi. Attenzione però alle metafore, al potere delle immagini, perché se in un primo momento possono aiutare a delineare la strada, a volte chiudono il mondo in quella rappresentazione. È ciò che racconta Gould riguardo alla figura della scala evolutiva. L’idea del progresso, idea potente e schiacciasassi, si è annidata nella storia della rappresentazione dell’evoluzione. Ecco, là in cima, l’uomo. Eretto, bianco, maschio (a volte la donna lo accompagna). Domina su tutte le specie prima di lui e le sovrasta: compimento dell’evoluzione. Gould si oppone. Senza accusare di mala fede chi illustra queste splendide metafore, rimane il fatto che esse non rappresentino adeguatamente quello che sappiamo sull’evoluzione. E il discorso non vale solo per la vita di tutti i giorni e le verità comuni. La comunità accademica e scientifica ha appena appena migliorato l’immagine dell’evoluzione raffigurandola nei manuali come un cono. Ma la diversità conseguente a una delle più importanti esplosioni della vita – quella Cambriana – ancora oggi non viene compresa nell’iconografia tradizionale. I mammiferi classificati in 4000 specie hanno ancora i rami più alti dell’albero e lo spazio più grande del cono, la cima, mentre alle più di 10.000 specie di insetti resta solo l’angusto sottobosco.
Che fare della rotta? Andiamo a vedere come si costruisce. Kevles, storico della scienza, racconta con molti e accurati particolari – sempre mantenendo uno stile piacevole – il difficile espandersi della ricerca sugli oncovirus. Dall’inizio del XX secolo con le osservazioni di un virus che scatena i tumori nei polli, la storia si articola in modo tortuoso, anche se non privo di progresso, scrive Kevles. I fattori in gioco sono tanti e spesso la ricerca si rannicchia nei laboratori di biologia di base, lontano da pressioni indiscrete. Esistono infatti preoccupazioni sociali, questioni “interne” alla struttura della disciplina o importanti influenze politiche. Tutte queste e altre – la sociologia delle scienze ce lo insegna – partecipano all’emergere o meno di una scoperta.
Così questi studi sui virus vennero osteggiati quando implicavano la possibilità di rendere pericoloso il latte materno. Si pensava infatti potesse essere un vettore di trasmissione e si indagava per riconoscere il “fattore latte”, ma le conseguenze di questa ipotesi erano pericolose per la società. O ancora quando i ricercatori si devono confrontare con il dogma della biologia dell’epoca: non si torna indietro dall’RNA al DNA. Verrà scoperta la transcriptasi inversa e i retrovirus. Kevles osserva come proprio in quei piccoli laboratori la ricerca prosegue. La libertà che è concessa loro permette di sbagliare, di vagare per alcuni anni alla cieca e infine (magari grazie a scoperte concomitanti) riuscire davvero nell’osservazione di qualcosa di importante.
Nel 1970 quindi viene dimostrata l’esistenza dei retrovirus. 5 anni dopo, per la scoperta, Renato Dulbecco, Howard Temin e David Baltimore riceveranno il Nobel (figura importante sarà anche Marguerite Vogt, che lavorava con Dulbecco). Ma nel frattempo la comunità medica stenta a riconoscere l’importanza di questa linea di ricerca. L’aiuto arriva per altra strada. Alcuni medici, Solomon Garb tra questi, spingono perché si dedichino finanziamenti alla ricerca sul cancro. Scoprire una cura per il cancro potrebbe avere importanti conseguenze nel confronto con l’Unione Sovietica. Nasce l’idea di un grande programma federale per la cura al cancro. Una Guerra al Cancro, che Nixon ha paragonato al Progetto Manhattan e al Programma Apollo. Tutta la società statunitense è movimentata e la ricerca esce dai piccoli laboratori. Lascio al lettore proseguire il racconto, nella speranza di averlo incuriosito.
Come lettori veniamo accompagnati, io credo, non troppo bruscamente a comprendere quanto il sociale (e il personale) si intrecci con lo “scientifico”. La rotta non è mai stata persa però. Come sulle montagne russe ci spaventa pensare alla contingenza della scienza, ma sappiamo di essere assicurati alla linea del progresso e ci divertiamo.
Il saggio di Lewontin è un’affascinante storia della biologia contemporanea e della ridefinizione del ruolo tra vivente e ambiente. Ridimensionato il ruolo dell’adattamento, si riapre la porta alle potenzialità dell’organismo di plasmare il mondo. Le conseguenze pratiche per l’umano sono quelle di una visione ecologica che accetti il suo ruolo, vicina a quella di Timothy Morton che ho raccontato in un altro articolo. Ribaltato il ruolo dell’umano non resta che dare un ultimo colpo alla percezione della scienza come progresso necessario e cercare di capire che cosa rimane in piedi.
Nel saggio di Oliver Sacks sono raccolti diversi casi di teorie, scoperte e osservazioni cadute nel dimenticatoio. “Scotoma”, scrive Sacks, è il termine neurologico per queste rimozioni sociali. Qualcosa viene osservato e per motivi che non riusciamo a comprendere ritorna un giorno, in altre condizioni, modificato. Credere che esista una necessità all'emergere di queste idee è semplicistico. Le scienze e le persone che le compongono si incontrano e scontrano in modo “pulito”, nel dibattito delle idee e nella libertà. Ma altrettanto in modo “sporco”, come nel caso di Chandrasekhar che fu osteggiato dagli interessi personali del suo mentore. Non solo. Le due letture sono semplicistiche e permettono di mantenere una divisione ideale tra un campo da gioco con le sue regole e un mondo sporco di interessi personali che non dovrebbe entrarvi. Distinzione che nel quotidiano tende a confondersi, complicarsi, influendo negativamente sulla ricostruzione di una storia della scoperta.
La rotta non è mai scritta. Gli esploratori hanno delle indicazioni dalla realtà, da qualche collega, dai loro sogni. Il grande ruolo della contingenza sta proprio qui. Se si arriva alla scoperta e si torna indietro, alla società, si potrà disegnare una mappa. Al mondo resta la mappa e le nuove rotte di quelli che sono tornati. Di quelli che si sono persi e dei luoghi che avranno scoperto, sapremo forse qualcosa un giorno. In questo senso Sacks ha una visione positiva. Le scienze nell’ultimo secolo si sono spente nella capacità di descrivere il mondo. La medicina, a esempio, è passata dalle dettagliate ed estese descrizioni dei pazienti al tracciare spunte su cartelle cliniche già scritte. Tornare a quelle osservazioni permette di riprendere un’eredità della ricerca con uno sguardo nuovo, in un mondo nuovo e con tecnologie che permettono pratiche nuove. E la medicina non è l’unica a cercare nuove strade.
«Un nuovo tipo di teorizzazione, o di visione del mondo, è apparso un po’ dovunque negli ultimi quarant’anni, dalla nozione di auto-organizzazione in semplici sistemi fisici e biologici all’idea di complessi sistemi adattivi nella natura e nella società, dal concetto di proprietà emergenti nelle reti neurali a quello di selezione dei gruppi neuronali nel cervello. Sta emergendo una nuova “macro”-visione, non solo del carattere integrale della natura ma della natura come innovativa, emergente, creativa».
Triangolo, Spazio bianco, Trapezio - Strutture geometriche del management scientifico
Abbiamo visto come il manager utilitarista abbia evoluto la classica struttura piramidale del management scientifico in una strana forma composita: un triangolo, dato dal vertice e da pochi eletti; una base trapezoidale indistinta; uno spazio bianco che evita il contatto tra le due figure precedenti.
Oggi vediamo le caratteristiche di queste 3 figure del management scientifico moderno all’opera.
Il triangolo: questo livello presenta sia caratteristiche comuni a tutte le impostazioni aziendali, di qualsiasi dimensione e industry, che caratteristiche specifiche dell’impostazione utilitarista. Concentriamoci su queste ultime, ricordando che parliamo di un qualcosa che riguarda lo 0,000003% della popolazione aziendale.
- La prima specificità è la seguente: tutti i componenti sono di netta matrice utilitarista e presentano - le attitudini manageriali che abbiamo visto nel precedente articolo e sulle quali non mi soffermerò qui. -
- La seconda specificità riguarda i criteri di scelta: i criteri per la scelta dei componenti sono differenti a seconda delle aree (commerciale, governance, Digital/IT). Non ci sarebbe nulla di strano, se non fosse per il modello adottato.
- Area commerciale: criterio classico. I componenti devono avere una forte presa sulla rete di vendita e una forte business vision. Quindi: basso turnover e provenienza dalla stessa industry e in quasi sempre – incredibile dictu – dalla stessa azienda.
- Area di governance: criterio conservativo. Questa area in realtà è vista come un peso da sopportare per il semplice fatto che bisogna averla per legge o normative di settore. I componenti devono esserne consapevoli, perché a fronte di questo presupposto devono preoccuparsi solo di non fare danni e di compiacere il vertice. Stop. Quindi: medio turnover, provenienza dalla stessa industry e quasi mai dalla stessa azienda.
- Area Digital/IT: criterio di sperimentazione sociale. Questa è l’area dove l’utilitarismo si sbizzarrisce in quanto i componenti sono fungibili al mantenimento del proprio network auto referenziato e alla sperimentazione di nuove forme di management scientifico. Ricordando le caratteristiche dell’utilitarismo, non sorprende che questo criterio venga adottato proprio in questa area: è quella in cui ci sono ancora nuovi ambiti/scambi da poter controvalorizzare da zero. Quindi: alto turnover, provenienza da qualsiasi industry e mai dalla stessa azienda.
- I componenti del Triangolo sono ottimi comunicatori all’esterno, sanno scegliere in maniera perfetta gli argomenti, i canali, le tempistiche e soprattutto la platea di riferimento. I destinatari delle loro comunicazioni all’esterno sono quasi sempre loro peer o membri del proprio network
- Chi appartiene a questo livello non ha execution risk dal punto di vista del proprio percorso di carriera. gli verrà riconosciuto il merito per qualsiasi successo che l’Azienda raggiungerà nel breve termine, non risponderà di qualsiasi danno o fallimento sperimentato dall’Azienda nel breve/medio/lungo termine. Questo è ovvio, considerando i punti sopra riportati, e rappresenta un aspetto fondamentale perché consente di comprendere i diversi livelli di accountability che concretamente il singolo manager mette in atto.
Lo spazio bianco: questo livello è la vera novità della nuova struttura organizzativa. Vi chiederete da che punto di vista vada analizzato, dato che al suo interno non sono presenti risorse aziendali.Ebbene, questo spazio va studiato dal punto di vista della comunicazione. Infatti, avendo rinunciato a una cinghia di trasmissione manageriale tra i 2 livelli, l’Azienda utilitaristica basa la propria coesione sulla sola capacità di comunicare e diventa quindi fondamentale comprendere le modalità di riempimento di questo spazio bianco.
- Argomenti affrontati:
- Quelli dall’alto verso il basso sono sempre generici e quindi inconfutabili; difficilmente il Triangolo entra nel vivo della vita aziendale quando comunica e preferisce toccare temi sociali o di contesto su cui tutti non possono che riconoscersi. Da questo punto di vista, assistiamo quasi al paradosso di vedere l’utilitarismo sposare uno degli esiti della morale kantiana.
- Quelli dal basso verso l’alto sono sempre appiattiti e a scarso valore aggiunto per chi fosse, eventualmente, interessato a raccoglierli Questo può essere dovuto a più ragioni che non si riescono a esplorare in maniera esaustiva nello spazio di questo articolo. Sicuramente l’esito è quello di un’occasione persa.
La combinazione di questi due aspetti fa sì che sia molto più facile sapere cosa sta accadendo dentro e fuori l’azienda andando a leggere i mezzi di comunicazione pubblici, piuttosto che i contenuti presenti nello Spazio Bianco.
- Impostazione:
- Dall’alto verso il basso si assiste a un wording asettico; è questa un’evoluzione rispetto al puro formalismo, perché si tratta di un linguaggio che vorrebbe essere coinvolgente ma non riesce ad esserlo, e né d’altronde potrebbe riuscirci. Infatti tra l’attenzione al politically correct e la necessità di evitare termini che potrebbero urtare chissà quale sensibilità, al destinatario non rimane nulla del messaggio che si vorrebbe trasmettere. Questo è sicuramente frutto della volontà di fare override di qualsiasi caratteristica culturale, per omogeneizzare la popolazione aziendale.
- Dal basso verso l’alto il linguaggio è diretto, a volte sfrontato. Il limite principale è quello di usare ancora un wording che dà troppo per scontato che i destinatari della comunicazione abbiano lo stesso background culturale dei mittenti, mentre non è più così. Quindi a volte si rischia di essere o troppo diretti oppure fraintesi. Da questo punto di vista i componenti del Trapezio devono ancora fare uno sforzo significativo per essere maggiormente efficaci nel comunicare.
La combinazione di questi due aspetti fa sì che chi dall’esterno legge le comunicazioni presenti nello Spazio Bianco, possa pensare di trovarsi di fronte a un verbale di un’assemblea generale di un grande Partito politico della Prima Repubblica.
- Tempistiche:
- Dall’alto verso il basso il timing è calibrato nell’ottica del “poi non dire che non te lo avevo detto”. La comunicazione istituzionale viaggia con tempi che nascondono - neanche troppo – il fatto che la stessa sia vissuta come un atto dovuto, nulla più.
- Dal basso verso l’alto il timing è diverso in base al tipo di comunicazione: si va dal random (nel caso di condivisione di fatti di vita aziendale) al very last minute (nel caso di comunicazione istituzionale).
- Canali: ormai i canali di comunicazione sono molteplici ed efficienti; si va dalla mail ai social, passando per tool aziendali più o meno complessi, a seconda dei casi e delle necessità. Qui esiste una vera e propria mappa dei canali da usare rispetto alla finalità della comunicazione. Rimarco solo l’impiego sempre più decrescente del canale più antico del mondo, e cioè quello fisico: anche qui le ragioni sono varie e occuperebbero troppo spazio.
Vale la pena riportare giusto una nota differenziante del nuovo management scientifico, e cioè lo slogan “per chi vuole, la mia porta è sempre aperta”. Questa è una perla che, unita a tutti gli altri punti, sintetizza il valore dello Spazio Bianco nella nuova struttura aziendale
Il Trapezio: questo livello chiaramente c’è sempre stato, mentre nel tempo è cambiata la sua composizione ed è quindi da questo punto di vista che lo analizziamo.
- Competenze: così come avviene in molti contesti attuali, l’estrema specializzazione del lavoro porta all’aumento del mix di competenze presenti nel Trapezio. La partizione di competenze, già in fieri sin dal concepimento del management scientifico, è adesso arrivata a livelli estremi per cui non esiste più nessuno che possa essere veramente autonomo nel condurre la propria attività. Un tempo questa impostazione era tipica delle catene di montaggio, adesso viene applicata anche ai cosiddetti “lavori di concetto” e questo fa ben capire il ruolo e la dignità del capitale umano nella concezione utilitaristica al lavoro. Questo livello quindi è pieno di competenze diverse, il che le rende a lungo andare tutte uguali nel senso che sono tutte pienamente fungibili, con chiari benefici da parte del Triangolo.
- Gerarchie: in questo livello le gerarchie sono molto sfumate, fenomeno paradossale considerando il suo evidente ispessimento rispetto a solo 50 anni fa; adesso fanno parte del Trapezio figure che un tempo sarebbero sicuramente state in livelli superiori dell’organizzazione anche se non nel Triangolo (il cosiddetto middle management, ad esempio), eppure questa differenziazione sta perdendo di significato. Non serve più distinguere per livelli in maniera sostanziale: nel Trapezio hanno tutti la stessa valenza decisionale ed esecutiva di fronte all’azienda e resta qualche residuo legato ad alcuni aspetti istituzionali, quali il processo valutativo o remunerativo, ma sempre più pilotati dall’alto, lasciando poche leve a chi li deve agire dal basso.
Nel breve termine questo aspetto viene percepito molto positivamente da tutti i componenti, nel medio si inizia a percepire l’inganno che si nasconde dietro a questo apparente “mondo degli uguali”.
- Anzianità: questa è chiaramente funzione dell’industry di cui parliamo, e del ciclo di vita in cui si trova l’Azienda. Un aspetto che differenzia l’impostazione utilitarista dalle altre è l’impiego delle risorse in età pre-pensionabile. Nelle aziende non utilitariste queste risorse, negli ultimi mesi/anni di attività vengono impiegate, anche part-time, per la formazione e per il passaggio di consegne. Nelle aziende utilitariste, prive di memoria, le stesse risorse vengono accantonate per non contaminare il futuro con il passato
- Fidelizzazione: il fatto che questa sia decrescente è comprensibile in base a quanto spiegato fin qui, e d’altronde non sembra che la fidelizzazione sia un tema che stia particolarmente a cuore in questo tipo di impostazione. E’ invece interessante studiare l’interazione tra i giovani e l’azienda: infatti possiamo immaginare che i profili giovani siano quelli che meglio aderiscono ai nuovi standard, semplicemente perché sono cresciuti nella convinzione – trasmessa dagli stessi decision maker che compongono il Triangolo - che questi standard siano gli unici possibili e corretti. Quello che andrà capito è quanto, nel medio termine, questo binomio sia sostenibile nelle aziende di grandi dimensioni. Chi, dei giovani che oggi compongono il Trapezio, entrerà per vie traverse (e non per carriera interna, per quanto detto prima) a far parte del Triangolo? E che impostazione saprà dare all’Azienda? Quale stile avrà il giovane di oggi e manager di domani, cresciuto in un contesto lavorativo senza memoria?
Ancora non c’è una serie storica significativa per rispondere a queste domande, almeno in Italia. Sicuramente ne riparleremo alla prossima generazione del management scientifico!
Joseph Weber e le onde gravitazionali - Vittime illustri di modi ideologici di fare scienza
Dopo la storia del medico ungherese Ignác Semmelweis (raccontata qui), trattiamo oggi un altro esempio1 di vittima illustre di un modo ideologico di fare scienza2: il caso del fisico statunitense Joseph Weber (1919 – 2000). Egli fu uno scienziato brillante e stimato, ma emarginato.
L’inizio
Negli anni ’60 Weber costruì il primo prototipo di rilevatore di onde gravitazionali, un fenomeno fisico la cui esistenza era stata predetta più di mezzo secolo prima dalla teoria della relatività di Albert Einstein. Secondo l’equazione di campo – l’equazione fondamentale della relatività generale – il repentino cambiamento di massa di un corpo produrrebbe delle increspature nello spazio-tempo. Secondo Einstein, queste perturbazioni ondulatorie dovevano essere estremamente diffuse nell’universo, ma allo stesso tempo molto difficili da rilevare perché straordinariamente flebili.
Lo strumento costruito da Weber, in un seminterrato del suo dipartimento dell’Università del Maryland, era costituito da cilindri di alluminio della lunghezza di 2 metri e del diametro di un metro; al passaggio di un’onda gravitazionale, questi cilindri ne avrebbero registrato il transito grazie a una variazione di 10-12 millimetri (in proporzione, e per intenderci, è come se la distanza dal sole alla stella più vicina variasse del diametro di un capello umano!). Weber aveva investito anni della sua carriera nella costruzione di questi rilevatori, trascorrendo mesi in laboratorio e imparando a conoscerli in ogni dettaglio. All’inizio degli anni Settanta, lo scienziato statunitense pubblicò i primi risultati e disse di aver registrato un primo alto flusso di onde gravitazionali.
La pubblicazione di Weber fu fin da subito accolta con molto scetticismo. I risultati infatti contenevano una fondamentale contraddizione: sebbene la conferma dell’esistenza delle onde gravitazionali fosse una prova a sostegno della teoria di Einstein, l’intensità delle onde che Weber aveva registrato era invece molto più alta del previsto e suggeriva, sempre secondo la teoria della relatività, che l’universo avrebbe dovuto avere una vita estremamente corta e ciò era considerato, dalla comunità dei fisici, molto improbabile.
Dilemmi scientifici e metodologici
Qui sorge il primo dilemma: la teoria della relatività era stata confutata o confermata dalle osservazioni di Weber? Secondo Weber la teoria della relatività era stata confermata, ma richiedeva qualche aggiustamento per non fornire previsioni sulla vita dell’universo molto poco verosimili. Secondo i critici dell’esperimento, al contrario, l’intensità delle onde gravitazionali registrata era semplicemente incompatibile con la relatività e quindi le osservazioni di Weber dovevano, necessariamente, essere errate.
Per smentirle, nell’arco di qualche anno, una mezza dozzina di gruppi di ricerca costruì dei rivelatori simili a quelli dell’Università del Maryland, con l’intento di ripetere l’esperimento e invalidarlo. E così fu. Nessun altro rivelatore aveva riprodotto gli stessi risultati ottenuti da Weber.
-------
Ed ecco il secondo rompicapo: i critici di Weber, che avevano smentito le sue osservazioni per riabilitare la relatività, non avevano forse contraddetto la relatività stessa con il mancato rilevamento delle onde gravitazionali? E come decidere chi tra Weber e i suoi rivali avesse preparato l’esperimento nel modo più appropriato per lo studio di un fenomeno così sfuggente? Certo, risultati negativi si erano ripetuti più volte, ma questo non significava necessariamente che le onde gravitazionali non esistessero. Anzi, la mancanza di risultati poteva essere dovuta all’imperizia dei rivali di Weber, che non potevano certo vantare la sua esperienza nella progettazione di strumenti così sofisticati. Se è vero infatti che molti scienziati si trovavano d’accordo nel ritenere poco credibili le affermazioni di Weber, le ragioni del loro scetticismo erano tuttavia molto differenti – e talvolta in contraddizione – fra loro. In particolare, il fisico della IBM Richard Garwin aveva opposto una decisa resistenza alle conclusioni di Weber per principio; e solo per rendere il suo attacco ancor più convincente aveva effettuato delle misurazioni che avevano inferto colpi decisivi all’ipotesi di Weber.
Un abbandono prematuro
La contesa durò per tutto un decennio, periodo durante il quale Weber si impegnò a dimostrare come ciascun esperimento “rivale” fosse in qualche modo vittima di fallacie metodologiche. Così egli tentava, a sua volta, di screditare coloro che lo avevano attaccato.
A partire dall’inizio degli anni Ottanta, la maggioranza della comunità scientifica perse interesse per la ricerca delle onde gravitazionali. Questo fenomeno, infatti, non solo si era dimostrato difficile da individuare, ma aveva anche reso ardua la carriera di molti brillanti fisici che vi si erano dedicati, a causa della penuria di fondi e dello scetticismo generale dovuto alle continue controversie interne alla comunità.
L’inaspettata conferma
Fu soltanto alla fine degli anni Novanta che una nuova generazione di antenne interferometriche, il cui design manteneva alcuni elementi cardine degli strumenti progettati da Weber, rilanciò la caccia alle onde gravitazionali. L’annuncio della scoperta salì agli onori delle cronache il 1 febbraio 2016, quando in una conferenza stampa congiunta di LIGO (Laser Interferometer Gravitational-waves Observatory) e Virgo (il nome di un ammasso di galassie nella costellazione della Vergine), due gruppi di ricerca che avevano collaborato al progetto, annunciarono che nel settembre del 2015 avevano misurato le onde gravitazionali scaturite dalla collisione di due buchi neri distanti a circa 1 miliardo e 300 milioni di anni luce dal sistema solare. Ironia della sorte, le tracce di uno degli eventi più rari dell’universo avevano colpito i nuovissimi rilevatori dopo soltanto due settimane dalle loro attivazione, concludendo così in un tempo brevissimo una caccia che durava da un secolo e si pensava potesse protrarsi per molti altri decenni ancora.
Addirittura, il Nobel
Al giorno d’oggi, dopo la conferma dell’esistenza delle onde gravitazionali che è valsa il premio Nobel nel 2017 a Kip Thorne, Barry Barish e Rainer Weiss (nel frattempo Weber era morto nel 2000, avvolto da un’amarezza inconsolabile)3, all’interno della comunità scientifica esiste un consenso pressoché generale; anche se il consenso potrebbe non essere assoluto, tuttavia esso ha ormai raggiunto un livello tale per cui sarebbe molto difficile per un fisico scettico (sulle interpretazioni dei dati raccolti da Ligo e Virgo) essere ritenuto sufficientemente credibile da permettergli di pubblicare un articolo scientifico su una rivista prestigiosa.
La lezione (ancora non appresa) per una scienza ideologica
L’esperimento di Weber aveva fornito dei risultati che si trovavano solo parzialmente in accordo con la teoria della relatività di Einstein, a partire dalla quale l’esperimento era stato progettato. Infatti, da un lato, l’esistenza delle onde gravitazionali sembrava fornire una conferma empirica della relatività; dall’altro, l’esubero di onde gravitazionali rispetto a quelle predette poneva non pochi interrogativi. Neanche la costruzione da parte di altri sei gruppi di ricerca di altrettanti strumenti per controllare l’attendibilità delle misurazioni di Weber risolse il rompicapo. E questo è inconcepibile per una scienza ideologica, che non accetta di convivere con le contraddizioni.
---------
Peraltro, secondo Weber le rilevazioni effettuate dai suoi colleghi non rappresentavano una sconfessione della sua ipotesi perché, a suo parere, erano i nuovi rilevatori a non essere attendibili (reliable). I rilevatori di onde gravitazionali sono infatti strumenti delicatissimi e nessuno degli altri fisici possedeva le competenze (che aveva acquisito lui) per costruirli in così breve tempo. Il fatto che questi nuovi strumenti non confermassero l’esistenza delle onde gravitazionali era, secondo Weber, semplicemente frutto della imperizia dei suoi colleghi.
Nondimeno, gli scienziati dovevano confrontarsi su un nuovo problema: che cos’era a non funzionare? Quale degli esperimenti andava rigettato? Se gli scienziati avessero seguito il falsificazionismo popperiano (un altro pilastro, forse inconsapevole, di una scienza ideologica), avrebbero dovuto rigettare la teoria della relatività, fino a quel momento ritenuta corretta, poiché in disaccordo con la misurazione dell’intensità delle onde gravitazionali. Ma così non fu. E questo è molto interessante, soprattutto per i seguaci di Popper…
NOTE
1 Tratto dal volume di Giampietro Gobo e Valentina Marcheselli, Sociologia della scienza e della tecnologia. Un’introduzione (2021).
2 Per ”ideologico“ intendo quell’atteggiamento pre-costituito (e la relativa pratica) per cui una qualsiasi idea, proposta o procedura che non rientri in determinati schemi pre-definiti non viene accolta nemmeno come possibilità, e di conseguenza non le viene attribuito lo status di ipotesi possibile su cui sospendere cautelativamente il giudizio.
3 https://www.science.org/content/article/remembering-joseph-weber-controversial-pioneer-gravitational-waves
Monopattini elettrici e numeri maltrattati – Strumentalizzare le statistiche
A metà agosto dell’anno scorso, in vacanza in un paesello di montagna, sono caduto con la bicicletta e mi sono rotto un paio di ossa, finendo al pronto soccorso.
Sulla base delle frequenze di incidenti rilevate, un ipotetico giornale locale avrebbe potuto titolare così la pagina della cronaca del giorno dopo: ”Sempre più numerosi gli incidenti gravi ai ciclisti nel paese di Vattelapesca”
--------
Nulla di falso in questo titolo: la vittima dell’incidente è un ciclista; l’agosto precedente scorso non c’erano stati incidenti ai danni di ciclisti; grave è grave, mi è costato ricovero e intervento.
Il cronista avrebbe potuto anche scrivere, che gli incidenti in bicicletta, in agosto, a Vattelapesca: “Si moltiplicano”, “Crescono in maniera esponenziale”, tutto senza allontanarsi di un passo dalla verità.
Ora, è evidente che questa presentazione della questione – pur corretta dal punto di vista del rapporto con la realtà – rischia di essere drammatica e fuorviante.
--------
Cambiamo scenario: il 12 ottobre 2023, un telegiornale a diffusione nazionale titola un servizio: “Sempre più pericolosi i monopattini elettrici, incremento del 78% degli incidenti mortali”.
Lo spunto per il servizio – che si focalizza sulla pericolosità dei monopattini elettrici – è la morte di una ragazza che è stata travolta, a Trento, mentre attraversava la strada con il suo monopattino; non era ancora noto se fosse a bordo del monopattino oppure se lo stesse spingendo a mano.
È normale, nella pratica giornalistica, utilizzare un evento puntuale come pretesto per introdurre un articolo che parla di fenomeni generali, niente da dire. È il caso, tuttavia, di esaminare qualche aspetto del fenomeno generale di cui parla questo servizio:
- L’incremento del 78% di cui si parla è un dato relativo al 2022, rispetto al 2021
- Gli incidenti mortali con il monopattino nel 2022 sono stati, in valore assoluto, 16
- Nel 2023, fino al 12 ottobre, il numero di incidenti mortali con il monopattino più attendibile è 15 (la ragazza di Trento è la quindicesima).
Sembrerebbe, quindi, che il numero assoluto, nel 2023,di incidenti mortali con il monopattino fosse in calo rispetto al 2022.
Andiamo avanti: se esaminiamo la fonte, che supponiamo attendibile (Aci-Istat), gli incidenti mortali simili nel 2021 sono stati 10 (9 conducenti e un pedone), quindi l’incremento nel 2022 scende al 60%.
Cos’è, quindi questo 60%? Potrebbe trattarsi dell’incremento di incidenti gravi, non solo di quelli mortali. Una sorta di metonimia? No, si tratta di una lettura riduttiva dei dati del 2021, che non conta un pedone investito ma solo i conducenti.
Con un minimo ancora di approfondimento, scopriamo che il servizio tace sul “denominatore nascosto” del fenomeno degli incidenti: il numero di monopattini elettrici circolanti e il suo incremento negli anni di cui si parla.
Non si trovano facilmente dati sull’incremento tra 2021 e 2022 dei mezzi di proprietà ma sicuramente i noleggi di monopattini elettrici è aumentato di circa il 50%.
Tra 2022 e 2023, invece, ci sono fonti che parlano di un aumento del 140% dei monopattini privati e di più del 100% dei noleggi.
In proporzione ai monopattini circolanti, è plausibile che l’incidenza di incidenti sia diminuita nel 2022 e c’è l’evidenza di una riduzione del 50% nel 2023.
Addirittura, secondo l’Osservatorio Nazionale sulla Sharing Mobility, tra il 2021 e il 2022, il rapporto tra incidenti, numero di monopattini e chilometri percorsi è calato dell’80%.
Il quadro che si scorge approfondendo le cifre è, quindi, decisamente diverso.
Eppure, questa percentuale drammatica del 78% di incidenti mortali in più fornisce al servizio – e ai numerosissimi altri articoli di stampa che in quei giorni ne ricalcano i contenuti – il carattere di affidabilità scientifica: sono numeri, sono percentuali, sono calcoli scientifici, legittimano le affermazioni e le conclusioni.
E distorcono irrimediabilmente la realtà. Perché?
Ecco perché: ad ottobre 2023 è iniziata la discussione parlamentare delle nuove misure di legge che riguardano i mezzi di cui parliamo: obbligo di targa e di assicurazione, obbligo del casco, dotazione di freni anteriore e posteriore indipendenti, frecce, limiti di velocità e regole di parcheggio; oggi, parte di queste misure diventa legge.
La vera notizia d’agenzia da lanciare era, quindi, la legge - che è diventata esecutiva in questi giorni - la cui legittimazione doveva passare attraverso un percorso di drammaticità: quello dell’incremento degli incidenti.
Questa vicenda mette in luce come si possono facilmente maltrattare i numeri e farli diventare “dati scientifici” con risultati distorti, secondo regole di rilevanza sociale.
P.S.: Il quotidiano locale della zona dove sono caduto l’agosto scorso non ha parlato del mio infortunio, né delle statistiche sugli incidenti ciclistici. Il Sindaco del paesello non aveva in programma, me l’ha assicurato di persona, nessuna nuova legge comunale sulle mountain bike.
RIFERIMENTI PER I DATI:
- ACI – ISTAT, report incidenti stradali 2022
- Osservatorio sulla Sharing Mobility
- EMG Mobility, 13 Febbraio 2023
- Wired 22.05.2023
Un nuovo francescano? - Paolo Benanti e la commissione algoritmi
Il professore Paolo Benanti è stato nominato Presidente della Commissione sull’Intelligenza Artificiale per l’Informazione e l’Editoria della Presidenza del Consiglio.
La Commissione è un organo del Dipartimento per l’Informazione e l’Editoria istituito dalla Presidenza del Consiglio poco più di due mesi fa, con lo scopo di analizzare le implicazioni dell’Intelligenza Artificiale nel campo dell’editoria e dell’informazione e, di conseguenza, consigliare il Dipartimento che ne è responsabile. La commissione è stata presieduta - dalla fondazione sino alle sue dimissioni - dal professor Giuliano Amato, politico, giurista, docente universitario e manager pubblico.
La nomina di Giuliano Amato aveva sorpreso molti; l’assegnazione della presidenza a Paolo Benanti forse anche di più.
Paolo Benanti ha un curriculum eccellente e si può dire - senza timore di smentita - che è uno dei massimi esperti mondiali di Intelligenza Artificiale; è un frate Francescano del Terzo Ordine Regolare, teologo, eticista, docente presso la Pontificia Università Gregoriana, consigliere di Papa Francesco per l’Intelligenza Artificiale, membro della Pontificia Accademia per la Vita con mandato sulla Intelligenza Artificiale, membro del New Artificial Intelligence Advisory Board dell' ONU, autore di libri sul ruolo dell'umano nella civiltà tecno-umana.
Ovunque si parli del profilo etico delle tecnologie e del ruolo della Intelligenza Artificiale nella vita dell'uomo, la presenza di Benanti è pertinente. È, tra l'altro, colui che ha coniato il termine Algoretica, cioè l'etica degli algoritmi. Da anni infatti si interroga e fa riflettere su come la tecnologia sia passata dallo status di strumento in mano all'uomo a quello di parte integrante dell'ecosistema sociale, e sempre più influente su questo ecosistema.
È sicuramente apprezzabile che Benanti abbia accettato di esporsi nel ruolo di Presidente della commissione: qualsiasi linea guida ne uscirà sarà certamente pertinente e di alto profilo. Paolo Benanti ama poi scherzare sul ruolo degli eticisti, come lui: gli eticisti fanno le domande e si tengono alla larga dalle risposte. Nel campo dell'etica le giuste domande sono infatti la cosa più importante, quelle che dovrebbero influenzare politici e stakeholders affinché affrontino i temi davvero rilevanti.
La domanda centrale posta dal lavoro di Paolo Benanti si può riassumere in questa: le macchine devono avere un'etica? Quale? Quali limiti ci sono e devono esserci nel rapporto tra la nuova specie delle macchine intelligenti e l'essere umano?
Gli eticisti non scendono in campo per dire cosa non si può fare o, peggio, pontificare su giusto e sbagliato, dice Benanti; il loro ruolo fondamentale su temi delicati e pervasivi della vita collettiva - com'è e come sarà sempre più l’Intelligenza Artificiale - deve essere appunto quello di porre le giuste domande, per far sì che le persone e le istituzioni ricerchino le risposte più adatte al contesto in cui operano. In questo il professor Paolo Benanti non potrà che essere eccellente: le persone, l'essere umano - in particolare nel loro rapporto con la tecnologia - sono sempre state al centro della sua attenzione.
Una volta tanto possiamo dire che in Italia abbiamo messo la persona giusta al posto giusto.
Conversazioni sull’Intelligenza Artificiale – Si prova qualcosa ad essere una macchina?
Redazione: Riccardo, in questo tuo post hai condensato almeno tre punti molto rilevanti per la discussione sull’Intelligenza Artificiale e sulle macchine che agiscono guidate da sistemi intelligenti:
- il primo – sulla bocca di tutti in questi giorni – è quello della trasparenza,
- il secondo è quello della responsabilità di questi agenti in qualche modo autonomi, di cui abbiamo già scritto più volte nel blog, e che coinvolge un’intera filiera di soggetti
- e il terzo è quello della soggettività degli automi.
È evidente che gli elementi più innovativi che stai introducendo in questo discorso sono:
1) quello che chiami “monologo interiore”, intimamente correlato al tema della trasparenza, e
2) la domanda, per me assolutamente inattesa, “ma sta succedendo qualcosa là dentro?”, che suggerisce di non trascurare la possibilità di una reale soggettività dell’automa.
Ritieni quindi che “monologo interiore”, “interiorità”, “soggettività” possano essere caratteri attribuibili ad un robot?
Riccardo: Per rispondere a questa domanda provo a definire chiaramente questi termini, perché spesso il guaio è che parlando di questi temi si utilizzano dei termini resi così laschi dagli anni di dibattiti che ognuno finisce un po’ per tirarseli dalla propria parte, con il risultato che tutti hanno ragione perché stanno parlando da soli.
E allora: il “monologo interiore” è l’idea di applicare ad un soggetto che si muove nello spazio (ad un robot nel nostro caso) un modo, uno spazio di lavoro, per connotare il proprio ambiente; e grazie a questo processo di continuo aggiornamento del proprio mondo, poter agire sempre più efficacemente sullo stesso.
Bene: su questo punto, a livello funzionale - ritengo che sia il caso di evitare un’analisi filogenetica - per me sia difficile trovare grosse differenze rispetto a ciò che una persona fa. Per quanto riguarda l’“interiorità”, definita come lo spazio in cui quel monologo interiore accade, mi pare chiaro che sia una condizione necessaria per l’esistenza di un monologo, avendo appunto un’azione bisogno di un luogo in cui svolgersi.
La “soggettività” è invece la dimensione più scivolosa. Però possiamo intenderla come il fantomatico “provare qualcosa ad essere (un soggetto)”.
Ecco, credo che questa dimensione soggettiva possa essere accessibile solo tramite due tratti essenziali: un qualche tipo di auto-narrazione e una fiducia nei confronti di quella narrazione e di quel narratore. A conti fatti ognuno di noi ha accesso soggettivamente solo alla propria soggettività e quella degli altri se la può, al massimo e ragionevolmente, immaginare.
Cosa è ragionevole però pensare quando vedo un cane con gli occhi chiusi che muove le gambe? E un polpo che si nasconde nella sua tana foderata di conchiglie? Sta succedendo qualcosa lì dentro?
È una questione di vita mi si dirà, di vita organica persino. Io credo, senza dire niente di nuovo rispetto alle riflessioni di Maturana Romesín e Varela García (1972, De máquinas y seres vivos), che si giri intorno alla questione, tutta individuale e privata, di “accettare emotivamente” o meno il fatto che la vita sia poco più che il tentativo di un sistema di riuscire a conservarsi.
Redazione: E tu Paolo, che hai speso anni in mezzo a queste macchine e queste domande, cosa ne pensi?
Paolo: Tendiamo ad attribuire un significato compiuto alle parole del nostro interlocutore, anche se il suo discorso è privo di senso; lo insegna Paul Grice, che segnala anche l’attitudine a riconoscere al partner intenzioni di veridicità e pertinenza. Credo che la nostra propensione al principio di carità si estenda al comportamento delle macchine, soprattutto a quelle di AI generativa, cui accordiamo intelligenza, coscienza e creatività, nel senso ordinario di questi termini.
Eppure, software di grande raffinatezza, come ChatGPT o AlexNet, mostrano con le «allucinazioni» che la loro presa su qualunque realtà esterna ai processi del codice è nulla.
Non possiamo pretendere che l’intelligenza artificiale possa diventare «generale» (AGI), e sia quindi in grado di paragonarsi a quella umana, a causa della definizione stessa che è stata adottata per la loro progettazione.
Il modello cognitivo che guida la pianificazione delle AGI è fondato su potenza di calcolo, quantità e stratificazione delle connessioni tra unità di calcolo. Si è dimenticato che invece l’intelligenza parte sempre da una domanda preliminare, e da una precomprensione del mondo e dell’ambiente: lo rilevano su ambiti di indagine differenti sia Popper sia Husserl.
Senza l’autonomia dello stimolo a porre interrogativi non c’è nessuna intelligenza (coscienza, creatività, ecc.) nel senso comune del termine. Credo invece che le Intelligenze Artificiali siano dispositivi nel senso pieno indagato da Agamben (2006, Che cos'è un dispositivo?): pongono in essere un dominio di esperienze che prima non esisteva, stabilendo un nuovo campo di poteri e saperi.
Se le si osserva nella prospettiva del loro contributo alla storicità e al potenziamento dell’intelligenza (senza aggettivi di specificazione), assumono un profilo meno fantascientifico ma più ricco di senso, rientrando nella tradizione del pensare per segni che trova la sua fondazione in Leibniz e nei suoi studi sulla characteristica – ma soprattutto che prosegue il percorso di riflessione e di progettazione che Doug Engelbart ha inaugurato insieme ad English nel 1968 (A Research Center for Augmenting Human Intellect).
Redazione: Grazie a entrambi, più che darmi delle risposte, avete delineato due veri programmi di lavoro, distinti e complementari, uno fenomenologico e l’altro più analitico e cognitivista. Programmi che possono convergere o divergere.
Lo capiremo, forse, nella prossima parte della conversazione, dalla risposta che Riccardo darà a questa domanda:
il requisito di essere incorporata in un robot, è obbligatorio per riconoscere ad una IA generativa come, ad esempio, Chat GPT, il diritto all'integrità di cui parli? Le altre istanze, quelle esclusivamente dialoganti che troviamo sul web, non hanno diritto a questo riconoscimento?
A tra due settimane!
Memoria, immaginazione e afantasia - Ma cosa stavo dicendo?
Una patologia che probabilmente ha origine recente è l’afantasia, la perdita dell’immaginazione. Il primo caso è stato descritto nel 2015 dopo un intervento al cuore (Zeman, Dewar, Della Sala, Lives without imagery - Congenital aphantasia). I pazienti che ne sono affetti non hanno immagini: se gli si chiede di pensare a un bicchiere, a un albero, al proprio gatto, non formano alcun ricordo, pur conoscendo benissimo queste cose. Studi recenti con la Risonanza Magnetica funzionale mostrano che la parola “Bicchiere”, “Albero”, “Gatto” non accende alcuna attività nel cervello, la Risonanza rimane muta.
Aristotele chiamava φαντασíα (phantasia) la capacità di vivere nelle immagini. Al tempo di Aristotele la capacità immaginativa era la qualità dominante della coscienza, a tal punto che si considera che la logica sia nata proprio con Aristotele. Questo non vuol dire che i greci antichi non fossero dotati di logica, ma l’attività della coscienza era prevalentemente immaginativa, l’attività logico-computativa del pensiero era dedicata soprattutto al commercio. Per questo i greci avevano adottato, con qualche riluttanza, l’alfabeto dai fenici, abili trafficanti. In virtù di questa facoltà immaginativa, molti greci antichi erano dotati di una memoria prodigiosa, se pensiamo che per secoli opere letterarie come l’Iliade, l’Odissea, le opere di Esiodo furono tramandate prevalentemente per via orale affidate, con gli esametri, al ritmo del respiro.
La capacità mnemonica è sicuramente legata alla facoltà immaginativa. L’arte di ricordare risale a Simonide di Ceo, poeta greco vissuto tra il VI e il V secolo a. C. Cicerone nel De oratore racconta che Simonide, scampò per uno strano prodigio al crollo di una sala in cui banchettavano duecento invitati e fu in grado di identificare i corpi di ciascuno, solo rammentando il posto che occupavano.
Nell’oceano della coscienza umana prevalgono, infatti, due facoltà (e chissà quanto ancora): l’attività logica e la capacità di creare immagini interiori. Freud le vedeva come una specie di iceberg, la piccola punta della coscienza dell’io, emergente dal fondo sconfinato dell’Es, diciamo, dell’inconscio (1922; in Opere complete, IX). Il padre della psicanalisi era un attento lettore di Platone, dal quale aveva preso ispirazione proprio per la lettura delle facoltà dell’anima.
Socrate, nel Fedro di Platone, dice che non può spiegare razionalmente cosa sia l’anima, ma può farlo attraverso l’immagine di una biga trainata da due cavalli. I due cavalli rappresentano bene le due attitudini dell’anima. La capacità di immaginare è lentamente svanita nel corso dei secoli, col prevalere della ragione nel Secolo dei Lumi, ma è gradualmente riapparsa dal secolo scorso: l’arte astratta, la musica atonale ne sono alcuni indizi, ma la creazione della psicanalisi ne è la prova più evidente.
Il problema è che, nello svolgersi delle due attività dell’anima, l’una oscura l’altra. Se penso razionalmente, non percepisco le immagini; se la mia coscienza è pervasa da immagini, posso scrivere una poesia o dipingere. In realtà la facoltà di creare immagini è diffusa, ma mascherata dal lessico della tecnologia (chi di voi non ha il cellulare in tasca?). Ogni volta che accendiamo il telefonino, spegniamo la nostra fantasia. Dalla svolta del secolo stiamo imparando a pensare come le macchine. La nostra memoria è imprigionata nei byte.
Il grande neurologo russo, Aleksandr Lurija studiò un personaggio dotato di una memoria incredibile, capace di elencare lunghe serie di numeri, dal primo all’ultimo e al contrario (1968; Viaggio nella mente di un uomo che non dimenticava nulla). Questa persona “vedeva” mentalmente le cose che memorizzava.
L'immaginazione, tuttavia, non è solo lo strumento di poeti e pittori: Newton e Einstein immaginavano le loro scoperte scientifiche anni prima di realizzarle.
Ma questa è un’altra storia che vi racconterò la prossima volta.
Incontri indeterminati - Considerazioni su “La Chimera” di Rohrwacher
Taglia e cuci. Montaggio di spazi discreti e durate disparate, seguendo il filo rosso della fiction, così il cinema prova a restituirci la vera esperienza del mondo. In questo senso, “La Chimera”, di Alice Rohrwacher, propone una serie di immagini capaci di tratteggiare alcuni complessi caratteri della nostra società e del tempo in cui viviamo, rendendoci il senso della storia.
In un periodo volutamente imprecisato, sospeso fra gli anni Ottanta e un eterno presente attraversato da presagi del futuro, e senza dare un’eccessiva importanza al luogo della vicenda (l’immaginaria Riparbella, nella Tuscia), il film racconta delle peripezie di una banda di tombaroli, la quale ha un discreto successo nelle escavazioni delle tombe etrusche, riuscendo a trovare numerosi cimeli grazie al contributo del protagonista (Arthur, una specie di rabdomante), che riesce a percepire l’ubicazione dei tumuli e delle caverne interrati tramite le sue chimere, suscitate dal desiderio di ricongiungersi con il suo amore scomparso (Beniamina), che gli appare in sogno in maniera sfuggente, perdendo dietro di sé il filo dall’orlo scucito del vestito.
Ma quella del tombarolo è una professione del tutto particolare, forse il tipo di vita precario per antonomasia, sospeso fra la libertà e la soggezione assolute date dal non avere vincoli. Così, le vicende dei personaggi, si articolano grazie a espedienti, alternando la gioia della festa estemporanea alla miseria del vivere di stenti e di improvvisazione quotidiana, con un fare che ricorda molto i gitani di Kusturica. Arthur, vive in una baracca adagiata sul crinale di una collina dominata da imponenti mura medioevali, ed ha solo gli abiti che indossa, ma non sembra curarsene; il suo comportamento è un misto di angoscia e cieca determinazione, preso dalla volontà di riprendere continuamente la sua ricerca. La scoperta colma di trepidazione di sarcofagi nascosti, e il ritrovamento di oggetti del passato, veri e densi di significato perché «visti da molti occhi», gli forniscono un senso di pienezza, sostenuta dall’approcciarsi a un’ideale soggettività corale in armonia con la natura delle società arcaiche, e dando libero sfogo all’affettività delle utopie; salvo poi recuperare i caratteri della morte non appena i colleghi irrompono al seguito per fare man bassa del bottino, così che, suo malgrado, i doni dati in corredo ai defunti si trasformano in merce preziosa da rivendere ai collezionisti.
-----
Una possibile chiave di lettura del film è quindi quella delle possibilità di vita nelle rovine del capitalismo, come descritte dall’antropologa statunitense Anna L. Tsing nel volume The Mushroom at the End of the World (2015), dove illustra la sua etnografia della filiera del matsutake, il fungo più pregiato del mondo, che cresce spontaneamente in aree boschive rinfoltite al seguito di processi si de-forestazione e sfruttamento intensivo del suolo. I raccoglitori, i mediatori, i rivenditori e gli importatori descritti dalla ricerca, ovvero stranieri e derelitti a cui non è permesso assimilarsi con la società, sono così delle figure istituite dalla catena del valore internazionale del fungo, che si sviluppa incidentalmente nelle fratture di modelli sociali consolidati, creata tramite salti e traduzioni, e che richiede perciò delle traiettorie di vita al margine, stimolate dalla ricerca di un contesto di libertà imprecisata e multisfaccettata. Così si genera l’accumulazione di recupero che, lungi dal rappresentare gli scarti, o le disfunzioni, di un sistema globale ordinato e in espansione inesorabile, avviene negli interstizi degli spazi politici e culturali formatisi storicamente e intrecciati in un assemblaggio che fornisce direzioni impreviste agli eventi, insieme a nuovi territori per l’agire sociale.
Questa performance drammatica, in una mescolanza che include una supposta competizione di mercato, non permette riscatto se non al termine della filiera e solo per pochi: il gioco quindi è truccato, funziona a forza di errori, falsità e distorsioni. Non c’è determinismo, non c’è sistematicità, il progresso è una chimera. Ma come sottolinea l’autrice, «gli umani contano in questi paesaggi. E gli umani portano le storie con loro nell’affrontare le sfide dell’incontro. Queste storie, sia umane che non-umane, non sono mai programmi robotici, ma piuttosto delle condensazioni nell’indeterminato qui e ora; il passato che cogliamo, come dice il filosofo Walter Benjamin, è una memoria ‘che brilla nel momento del pericolo’. Noi generiamo la storia, scrive Benjamin, come ‘il salto di una tigre in ciò che è stato’».
La storia così non può essere una successione di fatti. La storia si fa proprio con i “se” e con i “ma”, propri degli esperimenti mentali: la civiltà occidentale sarebbe fiorita se il libero mondo ellenico avesse perso la battaglia di Maratona con la teocrazia persiana? La cultura patriarcale esisterebbe se i Romani non avessero conquistato gli Etruschi? Le nostre valutazioni muovono sempre da insostituibili valori culturali. Conoscere è valutare, è scegliere. «Già il primo passo verso il giudizio storico è quindi – questo dev’essere qui sottolineato – un processo di astrazione, il quale si svolge attraverso l’analisi e l’isolamento concettuale degli elementi del dato empirico – che viene appunto considerato come un complesso di relazioni causali possibili – e deve sfociare in una sintesi della connessione causale ‘reale’. Già questo primo passo trasforma pertanto la ‘realtà’ data, allo scopo di farne un ‘fatto’ storico, in una formazione concettuale: nel ‘fatto’ è appunto implicita, per dirla con Goethe, la ‘teoria’» (Weber, 1922: Il metodo delle scienze storico-sociali).
-------
L’autenticità è una messa in scena, parziale, situata, biased. Come ricorda l’etimologia di “empirico”, bisogna avere “fede” nell’esperienza, l’una si capovolge nell’altra. «A opporsi alla finzione non è il reale, non è la verità, che è sempre quella dei padroni o dei colonizzatori, ma è la funzione fabulatoria dei poveri, in quanto dà al falso la potenza che ne fa una memoria, una leggenda, un mostro».
Affabulare vuol dire impegnarsi nell’invenzione di un popolo, «allora il cinema può chiamarsi cinema-verità, tanto più che avrà distrutto ogni modello del vero per diventare creatore, produttore di verità: non sarà un cinema della verità, ma la verità del cinema»
(Deleuze, 1985: L’immagine-tempo. Cinema 2).
Soggetti o oggetti? - Come e perché pensare un diritto per alcuni robot
Avevano fatto sorridere le uscite di Giuliano Amato, nella veste di presidente della Commissione Algoritmi, sui molti modi possibili per cucinare le patate suggeriti da una generica intelligenza artificiale.1 Un’uscita considerata ridicola da molti, non adatta alla serietà della questione (tutta imperniata sulla tutela dei contenuti e del copyright dalle grinfie delle cosiddette intelligenze artificiali generative).
Ecco allora che dal 5 di gennaio il teologo Paolo Benanti subentra alla posizione di Amato. Un pensiero affascinante quello della sua «algoretica», che meriterebbe un approfondimento tutto suo. Tuttavia, questo cambiamento al timone di comando credo sia una spia interessante per porsi una domanda iniziale. Con questo cambio assistiamo infatti ad un riorientamento verso altre specializzazioni accademiche dalle quali si va cercando consiglio: siamo passati dal diritto alla filosofia morale, alla bioetica: che il diritto abbia già esaurito tutto ciò che di utile poteva dirci a riguardo?
È bene notare come sia una tendenza diffusa quella di applicare i criteri della casuistica2 ai nuovi scenari creati dalle interazioni umane con agenti più o meno autonomi, ma sicuramente non organici. Questi criteri si rivelano certamente strumenti utili per indagare la rettitudine morale o, nel peggiore dei casi, il minore dei mali, da perseguire nel sempre più ampio ventaglio di scenari possibili. Io credo però che le maglie della legge, di una legge che sorge dalle garanzie costituzionali, possa offrirci ulteriori e più interessanti metodi di analisi. E forse anche qualche garanzia in più.
Definiamo però subito bene il nostro perimetro di riferimento: quali sono questi robot? Robot sociali sicuramente, di quelli pensati per entrare costantemente in contatto con noi per intenderci, e dotati di un monologo interiore. Cos’è però il monologo interiore, per un robot? Semplicemente lo stesso che è per te che stai leggendo: un modo per aggiornarne costantemente il proprio modello del mondo cercando sempre di approssimare al meglio gli ipotetici scenari futuri.
Noi ne abbiamo solitamente esperienza come quella vocina nella nostra testa, o quel «buzzing that went on inside my head» di cui parlava Alan Turing. A livello funzionale però non ci occorre teorizzare alcun homunculus, solo un flusso di linguaggio interno.3
Perché il monologo interiore è importante per il nostro discorso sociale? Perché ci offre la possibilità di soddisfare uno dei criteri più spesso rincorsi nei dibattiti sull’intelligenza artificiale: la trasparenza.
È il caso anche delle recenti (dicembre 2023) proposte contenute nell’EU AI Act, dove si legge come alcuni dei requisiti per un utilizzo corretto dei «sistemi di IA identificati come ad alto rischio», siano «la registrazione dell'attività per garantire la tracciabilità dei risultati; la documentazione dettagliata che fornisca tutte le informazioni necessarie sul sistema e sul suo scopo per le autorità di valutarne la conformità; l’accessibilità e la trasparenza di informazioni chiare e adeguate all’utente».
Attenzione: le scatole nere rimangono tali, tuttavia guadagnano, grazie alla registrazione del loro monologo interiore, un alto grado di trasparenza sulle loro azioni. Bene, per robot che agiscono così credo si possa ragionevolmente parlare di soggetti (o oggetti, poi ci arriviamo) autonomi.
Ora, se un (s)oggetto è autonomo, cioè è in grado di compiere azioni senza essere comandato a distanza da altri soggetti, allora ci occorre incasellarlo all’interno di una qualche finzione giuridica, in modo tale che se dovesse arrecare qualche danno, sapremmo quali norme seguire. Ecco, credo che questo sfondo di prudenza sia quello sul quale ragionare di diritti robotici: non occorre mischiare concetti come quello di agente e paziente morale, ci basta soffermarci sul riconoscimento dell’esistenza (sempre più prossima)4 di entità immerse nel nostro stesso ambiente che agiscono in maniera per noi più o meno comprensibile.
Sembra dunque che stia proponendo qualcosa di non molto diverso dalla «personalità elettronica» discussa per la prima volta in una bozza europea nell’ormai lontano 2017. Occorre però fare delle debite precisazioni per non rischiare di cacciarsi nel ginepraio legistico e propongo allora qui di seguire le cristalline ricostruzioni di Luigi Ferrajoli.5
Innanzitutto, di quale diritto stiamo parlando? I diritti soggettivi, quelli cioè spettanti ad ogni soggetto (fisico e poi dunque giuridico), devono essere concettualmente distinti (1) in diritti fondamentali e diritti patrimoniali.
È bene subito ricordare come i diritti fondamentali, indisponibili per loro natura, siano «limiti imposti alla democrazia politica e al mercato a garanzia della loro stessa conservazione» mentre i diritti patrimoniali, siano diritti di forma singolare: escludono cioè tutti gli altri soggetti.
È poi per noi necessario distinguere, (2) all’interno dei diritti fondamentali, quelli di libertà e quelli di autonomia privata. La logica di questa seconda biforcazione è chiara, ed è la medesima alla base della distinzione tra i diritti fondamentali e quelli patrimoniali: sia i diritti patrimoniali, evidenziati in (1), sia i diritti fondamentali di autonomia privata, evidenziati in (2), sono da considerarsi in quanto potestatis agendi, ovvero diritti potestativi.
Al contrario, i diritti fondamentali di libertà non possono che essere mere immunità, o facultates agendi e dunque si differenziano dai diritti fondamentali di autonomia i quali «formano il principale veicolo della differenziazione dei diritti singolari di proprietà e perciò del moltiplicarsi di disuguaglianze giuridiche e materiali nei diritti patrimoniali».
Tenendo ben chiara questa suddivisione ciò che si vuole qui iniziare a discutere sarà allora un diritto fondamentale di libertà per questi, e ora possiamo dirlo, soggetti robotici. Nessun diritto di giocare in borsa (un diritto di autonomia privata), né di potersi comprare qualche capo di fast-fashion (un diritto patrimoniale), piuttosto la garanzia di una difesa della loro integrità da interferenza arbitrarie.
Si chiederà: perché? che bisogno c’è di questo diritto di libertà?
Ecco due considerazioni:
(a) non sappiamo cosa succeda all’interno di queste macchine, e non possiamo, io credo, dirimere così facilmente la famosa domanda del «cosa si prova ad essere quel sistema».
Ne segue poi che il metro con il quale dovremmo valutare una macchina, se non vogliamo solamente una versione più efficace di un oggetto che già possediamo ma cerchiamo invece un nuovo soggetto con cui dialogare e con il quale costruire qualcosa di nuovo insieme, sia necessariamente quello di un fair-play.
Questo credo sia l’insegnamento, e l’atteggiamento, più importante che Alan Turing ci ha per primo lasciato: «a fair play [that] must be given to the machine. Instead of it sometimes giving no answer we could arrange that it gives occasional wrong answers. But the human mathematician would likewise make blunders when trying out new techniques. It is easy for us to regard these blunders as not counting and give him another chance, but the machine would probably be allowed no mercy. In other words then, if a machine is expected to be infallible, it cannot also be intelligent . . . No man adds very much to the body of knowledge, why should we expect more of a machine?».6
Ciò di cui qui si discute sono dunque macchine incorporate nel mondo che per poter agire in questo mondo hanno bisogno di poter sbagliare, perlomeno quando lo sbaglio non arreca danni irreparabili ma – ad esempio - solo una contenuta flessione nel profitto.
(b) la commodificazione di un possibile nuovo soggetto può risultare l’ulteriore veicolo di lacune già presenti all’interno di una costruzione giuridica che ha inventato finzioni ben più de-responsabilizzanti e pericolose (basti pensare alle holding finanziarie dotate di personalità giuridica). Di fatto poi tali lacune sono spesso alla basse dell’emergenza di quelli che Ferrajoli giustamente definisce crimini di sistema. Dopotutto non è tramite la riduzione dei soggetti che possono mettere in gioco un reciproco controllo dei rispettivi poteri che si garantisce la continuità delle nostre prerogative costituzionali, piuttosto è con un ampliamento di tali figure che si può garantire alla democrazia politica e al mercato laloro stessa conservazione.
Cosa ci guadagniamo da questa proposta? cosa invece ne perdiamo?
Occorre discuterne. Certo è che il primo passo è riconoscere la possibile rilevanza della questione.
NOTE
1 Il virgolettato in realtà recitava: «A me piacciono molto le patate. Grazie all’intelligenza artificiale, un giornalista in pochi istanti potrà sapere tutti i modi in cui posso cucinarle, così da arricchire il suo pezzo».
2 Parte della teologia morale, che applica i principi della morale teorica a casi concreti, anche solo ipotetici («casi di coscienza»), secondo varie circostanze, per trovare la regola valida per ciascuno, metodi ancora attuali in molta etica e bioetica contemporanea.
3 Un modello chiaro per i nostri robot è quello dell’«Inner Monologue», sul quale si può approfondire qui: https://innermonologue.github.io
4 È chiaro che il discorso normativo che sto qui presentando cerca di anticipare il futuro alla luce delle tendenze più attuali e che paiono più promettenti. Altre architetture, non basate sulla commistione tra un modello LLM (come il famigerato ChatGPT per intenderci) e un robot potrebbero prendere il sopravvento, resta il fatto che l’obiettivo perseguito rimarrà quello di un’efficace autonomia di questi (s)oggetti, e dunque il punto giuridico del discorso non varia di molto, varierebbero sì i soggetti. Un esempio dell’interazione uomo-macchina con questo modello si può vedere qui: https://www.youtube.com/watch?v=djzOBZUFzTw&t=334s
5 Il riferimento è il tomo estremamente denso e tuttavia cristallino La costituzione della democrazia (2021). Le parti più rilevanti per il nostro discorso sono, per chi fosse interessato ad approfondire, la III e la IV.
6 La citazione viene dalla trascrizione della Conferenza tenuta alla London Mathematical Society il 20 Febbraio 1947. Una traduzione si trova nel volume curato da Gabriele Lolli sull’«intelligenza meccanica» e recita così: «sostengo che la macchina deve esser trattata in modo equo e leale. Invece di avere una situazione in cui la macchina a volte non dà risposte, potremmo aggiustare le cose in modo che essa dia ogni tanto risposte sbagliate. Anche il matematico umano prende qualche cantonata quando sperimenta nuove tecniche. È facile per noi considerare queste sviste come non rilevanti e dare a lricercatore un’altra possibilità, ma alla macchina non viene riservata alcuna pietà. In altre parole, se si aspetta che la macchina sia infallibile, allora essa non può anche essere intelligente… Nessun uomo aggiunge granché al corpo generale delle conoscenze umane: perché dovremmo aspettarci di più da una macchina?»