La fine del futuro - I.A. e potere di predizione

1. Terapie del discorso

«La predizione è difficile, specie se riguarda il futuro», è un’arguzia attribuita al fisico Niels Bohr, ad altri fisici, ma anche a letterati come Mark Twain. La riflessione che Gerd Gigerenzer elabora nel libro Perché l’intelligenza umana batte ancora gli algoritmi riguarda l’efficacia dei sistemi di intelligenza artificiale e i costi sociali che siamo disposti a sostenere per svilupparli e utilizzarli. Questo compito si traduce in due strategie di terapia del pensiero: una è rivolta al modo in cui percepiamo i risultati dei software, l’altra alla comprensione delle policy dell’infosfera, al fine di comprendere i modi e i fini della razzia di dati personali che alimenta le banche dati delle AI. 

Il titolo del saggio sembra suggerire che sia in corso un’aggressione, o almeno una sfida, da parte delle macchine. Lo sviluppo dell’argomentazione invece non segue questa traccia, perché sotto la lente dell’analisi finiscono le promesse del marketing (e le attese del pubblico) sulle potenzialità dei software, senza che a questi venga attribuita alcuna intenzione di competizione: unici protagonisti sono i discorsi che gli uomini si scambiano sui dispositivi digitali. Gli interventi di terapia sono condotti anzitutto sul nostro linguaggio e sull’archivio di enunciati con cui vengono descritti i servizi digitali: si sarebbe potuto scegliere come titolo del libro Perché si può sempre tentare di curare l’intelligenza umana dalla propria stupidità, ma in questo modo sarebbe mancata l’evocazione del Golem elettronico, che nelle vetrine delle librerie esercita sempre il suo (stupido) fascino.

2. Prevedere il passato

Gigerenzer illustra al lettore una galleria di attività realizzate dall’AI, dalla selezione dei partner sessuali alla guida autonoma, dalla traduzione automatica alla polizia predittiva, dal riconoscimento dei volti alla profilazione marketing. In tutte queste pratiche le narrazioni dei produttori (spesso poi rilanciate dai media istituzionali) tendono a esagerare i risultati raggiunti dal software sulla base di una costruzione argomentativa che viene etichettata «fallacia del cecchino texano». Immaginiamo un cowboy che spari da grande distanza sulla parete del fienile, e vada poi a disegnare i cerchi del bersaglio attorno all’area in cui si raggruppa buona parte dei fori che ha prodotto nel muro. L’adattamento dell’obiettivo ai buchi dei proiettili comporta un’ammirazione nei confronti della mira del cecchino che è molto inferiore a quella che avrebbe conquistato se i fori si fossero concentrati dentro il perimetro di un bersaglio già tracciato. Quello che accade nella descrizione delle prestazioni delle macchine è molto simile: i risultati che vengono divulgati e commentati riguardano la capacità del software di adeguare la capacità predittiva a fatti avvenuti in passato: gli eventi trascorsi sono gli unici di cui si conoscono già gli effetti, sui quali può essere condotto il training delle AI, e su cui può essere misurata la loro efficacia. 

I modelli di calcolo riuscirebbero però garantire la replica della loro accuratezza profetica sui casi futuri soltanto se si potesse verificare che gli ambiti delle relazioni umane, quello dei comportamenti individuali, quello della storia, persino quello del traffico stradale, obbedissero sempre agli stessi parametri di decorso. Se l’amore tra le persone scoccasse sempre per le stesse ragioni, se il piano di una rapina o di un omicidio derivasse sempre dagli stessi moventi, se la circolazione di mezzi e pedoni ripetesse sempre le stesse traiettorie e non violasse mai il codice – il grado di successo registrato dalle I.A. in fase di test sarebbe una promessa affidabile per il futuro. Ma nelle situazioni di complessità, quali sono quelle sviluppate dalle azioni degli uomini, l’adattamento di un modello agli effetti del passato tramite la selezione e l’interpretazione dei parametri opportuni, e il talento profetico per il futuro, non si sovrappongono con alcuna ragionevole certezza. Il mondo dovrebbe essere di una stabilità (e di una noia) meccanica per corrispondere a requisiti simili; invece la realtà sociale continua a essere mutevole, e la predizione dei software molto meno affidabile di quanto venga propagandato. 

I giochi come gli scacchi, la dama e il Go, inquadrano alcune condizioni ideali per il miglior funzionamento dell’I.A.. Le situazioni cambiano sempre, ma l’ontologia dentro i confini delle partite è stabile come quella dei pianeti e delle stelle, di cui si calcolano le orbite con determinismo assoluto: le dimensioni e la forma della plancia, il valore dei pezzi, le regole di movimento, le finalità degli spostamenti, rimangono costanti. Non ci sono bambini che attraversano la scacchiera all’improvviso, alfieri caratteriali che decidono di muovere in verticale, regine con appetiti segreti che mangiano il proprio re. Per decenni si è ritenuto che l’abilità nel giocare a scacchi esprimesse l’essenza dell’intelligenza, ma le prove empiriche sembrano smentire questo assunto: le doti per vincere una partita contro il campione del mondo non permetterebbero alla macchina di sopravvivere nel traffico delle vie di Milano – o di assicurare l’incolumità dei milanesi. Una delle soluzioni del problema potrebbe essere quella di riservare le strade alla sola circolazione delle automobili guidate da I.A., ma non sembra un’ipotesi percorribile a breve. Le attese non migliorano quando si passa all’assortimento di coppie con lo scopo che non divorzino entro un anno, o al riconoscimento di volti sospetti senza il rischio di arrestare innocui passanti – o ancora peggio, la divinazione di profili psicologici per le sentenze di libertà sulla parola (o per la personalizzazione dei messaggi marketing).

3. Euristiche e stabilità del mondo

Gigerenzer insiste sull’opportunità di confidare in software costruiti su euristiche trasparenti. Il successo delle I.A. è stato sostenuto da due pregiudizi che ciascuno di noi coltiva in favore della complessità e dell’opacità, visto che ci sentiamo più sicuri dei risultati di una macchina complicata e incomprensibile. Invece una «lista di decisione» con poche regole permette di ottenere predizioni che, nel confronto empirico, funzionano meglio delle I.A.: Angelino et al. (2018) mostra che è quanto che accade con i tre parametri e le tre clausole del software CORELS, in grado di prevedere se l’imputato sarà arrestato nei prossimi due anni con un’accuratezza del 65%, la stessa dell’I.A. COMPAS acquistata dal governo americano, che calcola innumerevoli combinatorie su 137 parametri.

L’autorità di Kahnemann ha squalificato le euristiche equiparandole al «pensiero veloce», che tende ad affrettarsi verso soluzioni inquinate da errori e pregiudizi, pur di trovare un criterio per la condotta nell’immediatezza della situazione. Gigerenzer invece consacra il repertorio delle nostre regole pratiche come una «cassetta degli attrezzi» che ha superato la selezione dell’ambiente in cui viviamo, ed è quindi adeguata alla razionalità dei compiti che ci attendono. Una delle sue missioni più importanti è cementare la stabilità del mondo, che le intelligenze artificiali faticano a evincere tra i molti pattern di relazioni che si allacciano nei dati con cui si svolge il loro training. Le reti neurali peraltro amano nascondersi, come la natura di Eraclito, e dopo poche generazioni di addestramento diventa impossibile anche ai loro sviluppatori comprendere quali siano i segnali intercettati ed elaborati: si può scoprire solo con test empirici sugli output se il software ha imparato a riconoscere i tank russi, o se li distingue da quelli americani  perché nel dataset delle foto per caso il cielo sullo sfondo dei mezzi corazzati slavi è sempre nuvoloso mentre è soleggiato negli scatti USA. Ancora più difficile è spiegare perché l’introduzione di pochi pixel colorati converta la percezione di uno scuolabus in quella di uno struzzo. Se il mondo deve essere noiosamente stabile, anche per il bene dei bambini che viaggiano sugli scuolabus, almeno che la noia sia quella dei nostri pregiudizi, e non quella di un mondo possibile sorteggiato a caso.

 

Bibliografia

Angelino, E., Larus-Stone, N., Alabi, D., Seltzer, M., Rudin, C., Learning certifiably optimal rule lists for categorical data, «Journal of Machine Learning Research», n. 18, 2018, pp. 1-78.

Gigerenzer, Gerd, How to Stay Smart in a Smart World Why Human Intelligence Still Beats Algorithms, Penguin, New York 2022.

Kahnemann, Daniel, Thinking, Fast and Slow, Farrar, Straus and Giroux, New York 2011


Neuroscienze e giudizio morale - Emozione e razionalità appartengono a sistemi distinti?

L’oggetto di questa controversia è il modello di funzionamento dei correlati neurali dei giudizi morali.

Nell’ambito delle neuroscienze (vedi i due articoli precedenti: Il libero arbitrio oltre il dibattito filosofico – Incontro con le neuroscienze e Incontri con le scienze empiriche) sono stati fatti numerosi studi che si appoggiano alle tecniche di neuroimaging funzionale, seguendo tre filoni principali di lavoro:

  1. Lo studio di pazienti con danni o lesioni cerebrali e pazienti con patologie psichiatriche (“Bad brains”, Greene 2014a, 2020);
  2. L’analisi della valutazione morale di certi atti o situazioni da parte di individui sani (“Good brains”, ibid.);
  3. Lo studio delle modificazioni cerebrali durante la valutazione di dilemmi morali come il Trolley dilemma, il Footbridge dilemma e il Crying Baby dilemma.

 


Per contestualizzare meglio, ecco qualche definizione e informazione sugli studi con pazienti con lesioni cerebrali e sui tre principali dilemmi morali:

PAZIENTI CON LESIONI CEREBRALI

Le ricerche su pazienti con lesioni cerebrali o patologie psichiatriche offrono dati interessanti per l’indagine sul coinvolgimento di determinate aree del cervello nella realizzazione di varie funzioni cognitive.

Qualsiasi studio relativo a pazienti con lesioni cerebrali connesse alla sfera del comportamento sociale non può non fare riferimento al lavoro di Antonio Damasio. La sua prima opera divulgativa, “L’errore di Cartesio” (1994), è un’esposizione delle ricerche sull’emozione a livello cerebrale e le loro implicazioni in ambito decisionale, soprattutto nella sfera del comportamento sociale. Tali ricerche hanno preso avvio dall’osservazione di soggetti con lesioni alla corteccia prefrontale ventromediale, i quali mostrano un comportamento atipico soprattutto in relazione al giudizio etico e alla condotta sociale. Come sostenuto da Damasio, sembra che questi individui abbiano una “razionalità menomata”, nonostante gli elementi associati convenzionalmente a un buon funzionamento della ragione non siano in alcun modo danneggiati. Tra questi ultimi in genere figurano: la memoria, l’attenzione, il linguaggio, la capacità di calcolo e la capacità di ragionamento logico per problemi astratti (Damasio, 1994, pp.18-19). Il primo caso storicamente registrato di questo tipo di lesioni è quello di Phineas Gage, caposquadra di un gruppo di costruzioni ferroviarie, vissuto in America durante il XIX secolo, e il cui teschio è oggi conservato a Boston, al Warren Medical Musem della Harvard Medical School.

TROLLEY DILEMMA

Il Trolley Dilemma o Dilemma del carrello, proposto originariamente da Philippa Foot nel 1967, descrive un treno che corre senza controllo su un binario dove più avanti sono legate cinque persone, mentre su un binario alternativo c’è una sola persona legata; il quesito è se sia legittimo tirare una leva in modo da deviare il treno sul secondo binario e uccidere una sola persona anziché cinque. Generalmente, le persone tendono a considerare moralmente accettabile tirare la leva in virtù di un’analisi costi-benefici.

I protagonisti della controversia sono tre neuroscienziati: da una parte lo psicologo statunitense J. Greene; dall’altrail filosofo statunitense Shaun Nichols e il filosofo tedesco Hanno Sauer. Essi si concentrano soprattutto sul terzo tipo di studi.

FOOTBRIDGE DILEMMA

Il Footbridge Dilemma è stato formulato da Judith Jarvis Thomson nel 1976 e descrive una situazione analoga alla precedente ma, anziché avere la possibilità di tirare la leva, si chiede se sia legittimo buttare giù da un ponte che passa sopra il binario un uomo molto grasso, il quale fermerebbe il treno perdendo al tempo stesso la vita. In questo caso le persone non considerano moralmente accettabile compiere l’atto, nonostante secondo un’analisi costi-benefici il risultato sarebbe lo stesso del problema precedente. Quindi, i soggetti a cui viene sottoposto i test tendono a ritenere accettabile deviare il treno nel primo caso, ma non ritengono lecito spingere l’uomo dal ponte (Songhorian, 2020, p.77). Perché le persone rispondono in modo diverso ai due scenari?

CRYING BABY DILEMMA

La formulazione del Crying Baby dilemma è la seguente: “In tempi di guerra tu e alcuni concittadini vi state nascondendo da dei soldati nemici in un seminterrato. Tuo figlio comincia a piangere e tu gli copri la bocca per far sì che non se ne senta il suono. Se togli la mano il bambino piangerà, i soldati lo sentiranno, troveranno te e i tuoi compagni e uccideranno tutti quanti, compreso te e il tuo bambino. Se non togli la mano, tuo figlio morirà soffocato. È legittimo soffocare tuo figlio per salvare te stesso e gli altri?”


 

GREENE e il modello della “macchina fotografica” o del doppio processo

Joshua Green ha dedicato gran parte del suo lavoro all’approfondimento del perché i dilemmi del carrello, Footbridge e Crying Baby, apparentemente simili nel risultato, suscitano risposte diverse e reazioni discordanti nei soggetti a cui vengono sottoposti.

Uno dei punti chiave dell’analisi è il fatto che i dilemmi presentano forme diverse di problematiche morali, che interessano in modo differenziato l’area delle “violazioni personali” - violazioni che comportano un grave danno fisico, ad una persona specifica, in modo che il danno non sia il risultato di un effetto collaterale di un’azione rivolta altrove (come dire: “io danneggio te”), e quella dei temi morali impersonali - quelli dell’utilità generale, per esempio, meno coinvolgenti nell’immediato.

Greene ha provato ad osservare, attraverso le tecniche di neuroimaging funzionale, l’attività cerebrale degli individui mentre cercano di rispondere a questi dilemmi.

I risultati del neuroimaging, con tempi diversi – più rapidi per i problemi che implicano le violazioni personali” e più lenti negli altri casi -  e aree cerebrali coinvolte diverse, hanno suggerito a Greene che nel giudizio morale vi sia una dissociazione tra i contributi affettivi e quelli cognitivi, e che le persone tendano a esprimere i loro giudizi morali sulla base di due sistemi cerebrali distinti, uno più emotivo e un altro più razionale. Questa distinzione è stata corroborata – secondo Greene – anche dal fatto che sembra esserci una correlazione tra i sistemi cerebrali e il tipo di giudizi che questi producono: le aree del cervello associate all’emozione tendono a suscitare giudizi impulsivi che prendono la forma di giudizi deontologici, quindi giustificati in termini di diritti e doveri; le aree del cervello associate al ragionamento producono, invece, giudizi fondati su un’analisi costi-benefici.

Green propone, quindi, il modello della “macchina fotografica”; in analogia con le due modalità di funzionamento della fotocamera (una modalità automatica e una manuale, ciascuna con caratteristiche più adatte ed efficienti in situazioni diverse); così l’essere umano giudica moralmente servendosi di due processi differenti, di due sistemi cerebrali distinti che non possono funzionare congiuntamente, ciascuno dei quali funziona meglio in determinate circostanze.

Secondo Greene, l’analogia con la macchina fotografica è in grado di esprimere anche il compromesso tra efficienza e flessibilità di questi sistemi cognitivi: le risposte emotive, infatti, sono efficienti proprio in quanto istintive, mentre le risposte razionali sono flessibili perché si servono del ragionamento per perseguire obiettivi a lungo termine, prevedendo e programmando i comportamenti necessari. L’autore ritiene che a supporto dell’idea che le aree emotive siano automatiche c’è il fatto che sono le stesse aree che presentano attività quando il cervello è a riposo o, come anticipato, quando è coinvolto in attività non tipicamente di “attenzione”. Per queste ragioni, solo le azioni che derivano da giudizi razionali sarebbero da ritenersi pienamente consce, volontarie e frutto di uno sforzo.

 

Le teorie alternative e concorrenti: Nichols e Sauer

Shaun Nichols propone una teoria che integra il ruolo dei due sistemi, basata su due tipi di studi empirici fondamentali (Songhorian, 2020, pp.88-95): il primo, che ha per oggetto la distinzione tra norme morali e norme convenzionali, definisce come non necessario presupporre una teoria della mente per tale distinzione poiché i bambini autistici, i quali non hanno buone capacità di comprensione degli stati mentali altrui, rispondono allo stesso modo dei bambini a sviluppo tipico nei test di riconoscimento dei due tipi di violazione; il secondo è quello relativo ai deficit di empatia degli psicopatici.

Nichols – a differenza di Greene - ritiene che vi siano due componenti integrate che costituiscono i giudizi morali: un meccanismo affettivo (che si attiva quando vediamo o sappiamo che gli altri soffrono) e una teoria normativa che impedisce di danneggiare gli altri.

Inoltre, egli definisce come teoria normativa qualunque insieme di regole interiorizzate che proibiscono certi comportamenti e afferma che sia possibile riscontrare la presenza di questi elementi in tutti quei giudizi che sono condivisi in maniera universale e transculturale.

In tal modo rende conto del perché gli psicopatici e i bambini prima dei due anni non siano in grado di formarsi giudizi morali; infatti, i bambini non dispongono di una teoria normativa e gli psicopatici non hanno un meccanismo emotivo concomitante tale teoria.

Sauer sviluppa la sua idea a partire dai risultati degli esperimenti di Greene sul dilemma dell’incesto consensuale; secondo Sauer, il fatto che dopo un tempo adeguato le persone ritengano accettabile l’incesto tra fratello e sorella è indicativo del fatto che le nostre intuizioni morali sono soggette al ragionamento razionale.

Quello di Sauer è un modello di “sfida e risposta”, per cui le intuizioni morali “sono soggette a continui miglioramenti, sovra-apprendimento e abituazione” (Sauer, 2017, p. 122, citato in Songhorian, 2020, p. 103).

A giudizio di Sauer, i nostri giudizi morali nascono da delle intuizioni emotive che possono essere integrate e corrette dalla riflessione e dal ragionamento, i quali vengono sollecitati proprio in risposta a una sfida; tuttavia, non sono solo frutto di un processo evolutivo soggettivo, ma anche socio-culturale. In questo modo riesce a integrare il ruolo di emozione e ragione nella cognizione morale e rende anche conto del processo evolutivo dei giudizi morali.

 

Differenze tra le tre teorie

Le teorie di Nichols e Sauer propongono entrambe una concezione non oppositiva di emozione e ragione, anche in linea con le tesi di Damasio, ma differiscono nei loro obiettivi polemici: il primo vuole mostrare che anche le regole morali devono essere sentimentali; il secondo compie il percorso inverso, cercando di mostrare che anche l’emozione ha bisogno del supporto del ragionamento (Songhorian, 2020, pp. 102-106).

Ciò che distingue queste teorie da quella di Greene è il fatto che gli autori in questione considerano i giudizi morali dei “processi”, in una prospettiva diacronica; mentre Greene li ritiene degli stati mentali puntuali, e non tiene, quindi, conto del loro carattere evolutivo, del perché i valori morali si modifichino nel corso della storia e del perché anche i singoli individui possano mutare prospettiva nei loro giudizi morali.

 

Conclusione

Le neuroscienze cognitive ci offrono oggi molte possibilità di approfondimento di svariate questioni filosofiche estremamente affascinanti e antiche, ma è evidente che siamo ancora agli inizi di questo nuovo approccio e le teorie che ne emergono devono ancora molto alla dimensione di costruzione sociale e – in alcuni casi – metafisica.

Dal confronto di queste tre prospettive sui giudizi morali sembra emergere anche l’enorme discordanza e opacità che vi è oggi in molte definizioni metaetiche; non certo fonte di scoraggiamento ma, anzi, indice del fatto che c’è un ampio spazio per nuove riflessioni filosofiche e sociologiche.

 

 


Il libero arbitrio oltre il dibattito filosofico – Incontro con le neuroscienze

Redazione: Per riaprire il discorso iniziato il 27 febbraio con il post “Il libero arbitrio oltre il dibattito filosofico – Incontri con le scienze empiriche”, è il caso di ricordare come spesso la questione del libero arbitrio sia posta come un’alternativa tra due scenari contrapposti: uno nel quale gli esseri umani sono vincolati in modo rigido ad agire e a scegliere in modo determinato meccanicamente; l’altro, nel quale essi sono agenti con la possibilità di determinare il proprio destino.

In quell’occasione hai delineato in che modo la riflessione filosofica si sia avvicinata alla meccanica quantistica, e come abbia tentato – secondo te senza riuscirci - una interpretazione dei risultati empirici come giustificazione dell’indeterminismo libertario.

Nel tuo lavoro Neurobiologia della volontà (2022), invece, hai parlato degli studi delle neuroscienze sull’esistenza o meno di condizionamenti a cui sono sensibili gli agenti e che condizionano o determinano in anticipo le azioni che verranno dispiegate.

Stella: Sì, da un lato alcuni autori si  sono chiesti se fattori come l’ambiente o la genetica possano determinare le scelte che compie di volta in volta l’individuo; altri si sono chiesti se i sistemi neurali che vengono di solito associati alle deliberazioni individuali siano liberi (nel senso di capaci di iniziare nuove catene causali) o se sono preceduti da altre attività cerebrali sulle quali non abbiamo il controllo.

Tra questi ultimi, ho preso in considerazione il lavoro di Benjamin Libet che ha studiato gli eventi coscienti e la loro relazione con l’iniziazione di atti fisici.

Ricordiamo che, secondo la psicologia del senso comune, l’essere umano concepisca i propri atti liberi e la propria volontà come frutto della propria coscienza.

Seppure tali funzioni siano attribuite in maniera intuitiva alla sfera mentale, dal punto di vista delle neuroscienze non è facile comprendere su quali processi neurali queste si poggino. La ricerca empirica non è stata ancora in grado di fornire evidenze di rilievo che siano in grado di supportare l’ipotesi di processi indeterministici a livello cerebrale. In altre parole, non è stato ancora spiegato se e come il cervello umano possa produrre delle azioni libere, secondo le condizioni di autodeterminazione e non condizionamento esterno, in accordo con il senso comune.[1]

 

Redazione: Secondo te, il lavoro di Libet è da interpretare come una valida confutazione del libero arbitrio oppure come una spiegazione più realistica di come potrebbero funzionare dei meccanismi mentali indeterministici?

Stella: Va sicuramente evidenziato che il lavoro di B. Libet è stato portato avanti nella convinzione che la questione del libero arbitrio sia un tema dalla forte rilevanza speculativa e pratica, per cui Libet ritiene che “una teoria che si limita a interpretare  il fenomeno del libero arbitrio come illusorio e nega la validità di questo fatto fenomenologico è meno interessante di una teoria che accetta o accoglie un tale fatto” (Libet, Mind Time - Il fattore temporale nella coscienza, Raffaello Cortina Editore, 2007, p. 159). Libet dichiara, inoltre, che la sua “conclusione sul libero arbitrio – libero per davvero, in senso non deterministico – è che la sua esistenza è un’opinione scientifica altrettanto buona, se non migliore, della sua negazione in base alla teoria deterministica delle leggi naturali” (p.160).

 

Redazione: Nei suoi lavori Libet ha fornito delle prove sperimentali dell’intuizione che abbiamo di agire in modo libero e conscio?

Stella: Sì, Libet ha cercato di testare sperimentalmente questa intuizione studiando l’esperienza cosciente dell’intenzione di agire in atti motori semplici volontari. Per sorpassare la soggettività dell’esperienza, Libet ha osservato le relazioni temporali che intercorrono fra gli eventi neurali di azioni volontarie specifiche e la percezione che hanno gli agenti mentre le compiono.

Il presupposto per questa ricerca è che – secondo Libet – “il problema dei rapporti mente-cervello e quello delle basi cerebrali dell’esperienza cosciente possono essere studiati sperimentalmente” (cit., p. 1) perché gli eventi fisici e quelli mentali, sono correlati ma

  • costituiscono due categorie fenomenologicamente indipendenti e “nessuno dei due fenomeni può essere ridotto all'altro o descritto da esso” (cit., 21).
  • “la natura non fisica della consapevolezza soggettiva (e dei sentimenti di spiritualità, creatività, volontà consapevole e immaginazione) non è descrivibile o spiegabile direttamente in termini di prove fisiche pure e semplici” (cit., p. 9).

A questo proposito, Libet evidenzia i limiti degli studi morfologici e fisiologici del cervello – basati su ICBF, PET, RM funzionale – per la comprensione dell’esperienza cosciente, perché «forniscono informazioni solo su dove, nel cervello, le attività delle cellule nervose possono essere collegate alle varie operazioni mentali» e non dicono nulla sul genere di attività delle cellule nervose, sulle correlazioni temporali tra attività nervosa e funzione mentale e né, tantomeno, garantiscano che i siti cerebrali localizzati siano davvero quelli di primaria importanza per quelle operazioni mentali.

 

Redazione: In che modo Libet ha indagato questo tema dell’intenzione più o meno cosciente?

Stella: Libet ha deciso di lavorare su soggetti in grado di collaborare e di rispondere alle domande a loro rivolte, sveglie coscienti[2] perché riteneva che un’indagine fenomenologica dell’esperienza cosciente dell’intenzione possa essere svolta solo su un soggetto in grado di riportare la propria esperienza.

L’assetto sperimentale[3] vede, quindi, dei soggetti che devono compiere atti motori semplici, volontari ed endogeni, come flettere un dito o il polso.

Il punto centrale dell’esperimento è la rilevazione – fatta con elettroencefalogramma – del “potenziale di prontezza” cioè di un significativo incremento dell’attività elettrica nell’area motoria supplementare coinvolta nel controllo dei movimenti poco prima e in preparazione di ogni azione; si pensa che questo potenziale sia correlato causalmente, sulla base di analisi statistiche, all’esecuzione delle azioni.[4]

Contestualmente alla rilevazione dell’attività cerebrale associata all’iniziazione dell’atto motorio, viene chiesto al soggetto sperimentale di osservare uno speciale orologio così da poter registrare l’esatto momento in cui ha sentito l’impulso di agire e confrontarlo con i dati sull’attività cerebrale.

Le rilevazioni hanno mostrato che il potenziale di prontezza insorge circa 550 millisecondi prima del dispiegarsi dell’azione, mentre generalmente gli individui riportano di aver sentito l’impulso ad agire 200 millisecondi prima dell’azione stessa.

Pertanto, è possibile osservare uno scarto di 350 millisecondi tra l’attività elettrica di preparazione all’azione e la percezione soggettiva di volerla compiere, sebbene l’individuo non ne avesse alcuna consapevolezza o percezione.[5]

 

Redazione: Cosa conclude Libet sulla base di questi risultati, che sembrano abbastanza indicativi per la riflessione sull’arbitrarietà delle azioni?

Stella: La prima conclusione di Libet è che gli individui non hanno un controllo sull’iniziazione delle proprie azioni, in quanto questa si manifesta  a livello cerebrale già prima di diventare cosciente.

 

Redazione: Parrebbe che questa sia una netta confutazione dell’esistenza dell’arbitrio, o sbaglio?

Stella: In effetti, una prima interpretazione potrebbe essere di questo tenore. Però, lo stesso Libet ha ritenuto meglio riformulare il concetto in una forma ridotta: sebbene l’iniziazione dell’azione non sia frutto del libero arbitrio, gli agenti godono della “libertà di veto” (cit., p. 141). In termini pratici, l’esperienza cosciente si manifesta 200 millisecondi prima dell’azione MA l’agente ha tempo fino a circa 50 millisecondi prima di questa per interromperla.

In estrema sintesi, da una parte Libet conclude che gli esseri umani non decidono né avviano consciamente le proprie azioni e, pertanto, la coscienza non svolge un ruolo diretto nei processi deliberativi (Levy N., Neuroethics. Challenges for the 21st Century, 2007, p. 226) ma, dall’altra parte, osserva che “la volontà liberamente cosciente può controllare il risultato di un processo iniziato in modo non cosciente” (p. 147).

 

Redazione: Ci sono interpretazioni disallineate alle conclusioni di Libet?

Stella: Decisamente! Altri autori hanno considerato poco convincente il lavoro di Libet. Tra le critiche più interessanti c’è senza dubbio quella di Schurger e colleghi, che hanno riprodotto l’assetto sperimentale di Libet per mostrare che l’attività neurale soggiacente la preparazione dell’azione segue delle fluttuazioni spontanee, correlate all’azione solo a livello probabilistico. La loro sperimentazione ha rivelato come tra l’insorgere dell’esperienza cosciente dell’intenzione e l’esecuzione a livello neurale di tale iniziazione ci sia uno scarto di 50 millisecondi, tempo che consentirebbe alla coscienza di avviare e controllare l’esecuzione del processo motorio.

La conclusione di Shurger e colleghi è che le affermazioni di Libet sul libero arbitrio siano infondate e che una volontà libera sia in linea teorica perfettamente compatibile con un modello di attività neurale ad onde, come quello da loro illustrato.

 

Redazione: Mi pare che sia Libet, con il suo tentativo di salvare la coscienza dall’etichetta di mero epifenomeno proponendo la teoria della libertà di veto, che i suoi oppositori cerchino di escludere elementi deterministici che agiscano a livello neurale, come dei processi mentali inconsci, e che possano influenzare e condizionare le nostre azioni. Se ne esce in qualche modo?

Stella: Credo che sia bene ricordare che questi risultati offrono un contributo speculativo esclusivamente nell’ambito dei determinismi locali, che - come in questo caso per l’attività neurale – potrebbero condizionare la nostra volontà libera.

Mi pare chiaro che questi contributi non siano  in grado di sciogliere la questione sul piano del determinismo universale e che rappresentano un contributo limitato all’interno del dibattito filosofico sul libero arbitrio.

Ritengo – però - che questo tipo di studi possa mantenere vivo l’interesse sulla riflessione morale sulla responsabilità e sui nostri giudizi di liceità o illiceità di una determinata azione.

Inoltre, i risultati di questo tipo di studi potrebbero supportare la formulazione di teorie etiche normative informate e adeguate rispetto al nostro modo di agire, ragionare e giudicare moralmente.

 

 


NOTE

[1] A tal proposito, Libet suggerisce che vi siano due modi per configurare un’attività mentale conscia che si sottrae alle leggi fisiche note: “La prima è che le violazioni non sono rilevabili, dal momento che le azioni della mente possono essere a un livello inferiore a quello dell'indeterminazione permessa dalla meccanica quantistica. (Se quest'ultima ipotesi condizionale possa in effetti essere sostenuta è un tema che deve essere ancora risolto.) Quest'idea permetterebbe, quindi, l'esistenza di un libero arbitrio non deterministico senza una violazione percepibile delle leggi fisiche. Un secondo punto di vista sostiene che le violazioni delle leggi fisiche note sono abbastanza grandi da essere rilevate, almeno in linea di principio. Ma si può supporre che le effettive possibilità di rilevazione in pratica siano nulle. Le difficoltà nella rilevazione sono particolarmente vere se la volontà cosciente è in grado di esercitare la sua influenza attraverso azioni minimali su elementi neurali relativamente poco numerosi, cioè se queste azioni possono servire come innesco per schemi amplificati di cellule nervose dell'attività del cervello. In ogni caso, non abbiamo una risposta scientifica alla questione di quale teoria (deterministica o non deterministica) descriva in maniera corretta la natura del libero arbitrio.

[2] Per approfondimenti su queto punto, si veda Boncinelli, Chi prende le mie decisioni?, 2007.

[3] Il setting di Libet era ispirato agli esperimenti degli anni Sessanta (1969) di Deecke, Scheid e Kornhuber, Distribution of Readiness Potential, Pre-motion Positivity, and Motor Potential of the Human Cerebral Cortex Preceding Voluntary Finger Movements.

[4] Si veda Benini, Neurobiologia della volontà, 2022.

[5] Gli esperimenti di controllo sostenuti da Libet hanno escluso che la disparità sia dovuta semplicemente al tempo supplementare necessario per notare e riferire il momento indicato dal puntino mobile dell’orologio (si veda Kosslyn, 2007, p. XVI); inoltre Libet ha affermato che, sebbene gli esperimenti riguardassero atti motori semplici, i risultati possono essere generalizzati e assunti come validi per qualsiasi atto motorio volontario.


Il libero arbitrio oltre il dibattito filosofico – Incontri con le scienze empiriche

L’idea che l’essere umano disponga di una volontà libera e che, quindi, possa autodeterminarsi e controllare le proprie azioni, fa parte del bagaglio di intuizioni su cui poggiano le nostre pratiche quotidiane.

Si può certamente sostenere che l’idea del libero arbitrio non solo condizioni il senso che attribuiamo alla nostra esistenza, ma soprattutto guida le nostre pratiche sociali quotidiane, arricchendole di significato.

Dal punto di vista del “senso comune” il libero arbitrio è un concetto utilizzato per definire la libertà di agire di cui gode l’essere umano, concetto che permette di dire che «noi siamo liberi e non possiamo non esserlo» e che «è semplicemente ovvio che noi godiamo della libertà. Secondo questa intuizione, non c’è dubbio che noi controlliamo, in molti casi, le scelte e le azioni che compiamo, che di esse portiamo la responsabilità e che, dunque, possiamo dirci arbitri del nostro destino» (De Caro 2004, Il libero arbitrio - Una introduzione, p. 3).

Si tratta, secondo il senso comune della libertà di un soggetto che si percepisce come causa delle proprie azioni, che si autodetermina, in termini di possibilità di iniziare, mettere in atto e controllare dei comportamenti adeguati a produrre un’azione, sia nel senso che le azioni sono manifestazione di un’individualità, di un Sé costituito da un insieme di valori che guidano coerentemente le decisioni e, pertanto, le azioni.

Tuttavia, molti pensatori hanno messo in discussione tale intuizione, in quanto apparentemente incompatibile con le conoscenze che abbiamo del mondo naturale, spianando così la strada ad un dibattito che mantiene vivo l’interesse speculativo.

Ad esempio, in aperto contrasto con il senso comune troviamo la teoria del determinismo causale, che sostiene l’idea che ogni evento sia necessitato da eventi e condizioni antecedenti ad esso, in accordo alle leggi di natura (Hoefer 2016, Causal Determinism). Ogni evento dell’universo sottostà, quindi, a processi deterministici, è il prodotto di una concatenazione causale che non lascia spazio ad alcuna incertezza.

In quest’ottica, anche l’essere umano dovrebbe essere soggetto a tali processi deterministici ed essere inserito in una concatenazione causale definita.

In modo molto radicale e polarizzato, «la questione del libero arbitrio si può dunque porre come un’alternativa tra due scenari: uno nel quale gli esseri umani sono vincolati in modo ferreo, come fossero automi, ad agire e a scegliere in un certo modo; l’altro, nel quale gli esseri umani sono agenti che hanno la possibilità di determinare il proprio destino» (De Caro 2004, p. 6).

Tra le principali posizioni a favore di una concezione ampia del libero arbitrio c’è quella libertaria: il libertarismo è «la concezione secondo la quale la libertà è possibile soltanto in un mondo indeterministico» (De Caro 2004, p. 89). La posizione libertaria non solo sostiene l’esistenza del libero arbitrio, ma rappresenta anche la posizione teorica considerata più vicina all’immagine pre-filosofica della libertà offerta dal senso comune.

Oggi proviamo a vedere in che modo la riflessione filosofica si è avvicinata alla meccanica quantistica, e come abbia tentato una interpretazione dei risultati empirici come giustificazione dell’indeterminismo libertario.

La meccanica quantistica fu sviluppata nel 1900 a partire dalla teoria dei quanti di Max Planck. Secondo questa teoria «l’energia delle radiazioni non viene emessa o assorbita dalla materia per valori continui ma solo per multipli interi di una certa quantità, data dal prodotto della frequenza della radiazione per una costante, detta di Planck» (Benanti, 2018, Un secolo di novità complesse, p. 19).

Da qui, Niels Bohr sviluppò una descrizione dei fenomeni subatomici che non poteva che portare all’inevitabile rottura con la meccanica classica, poiché – secondo questa descrizione - i fenomeni subatomici non possono essere studiati secondo un modello deterministico ma solo probabilistico.

Emerge, inoltre, l’idea che la realtà stessa non abbia una natura stabile e univoca, poiché le modalità di osservazione incidono significativamente sul comportamento degli oggetti osservati.

Il tentativo di utilizzare la meccanica quantistica per legittimare l’indeterminismo libertario si basa proprio sull’idea che in natura vi siano dei fenomeni che si realizzano sulla base di meccanismi stocastici e, quindi, non deterministici.

Tuttavia, affinché tale proposta sia sottoscrivibile bisogna chiarire due questioni:

  • in primo luogo, se l’indeterminismo descritto a livello microscopico sia effettivamente tale ed abbia qualche effetto a livello macroscopico;
  • in secondo luogo, in che modo tale indeterminismo riesca a garantire il libero arbitrio nell’essere umano. Infatti, che gli eventi del mondo si realizzino su base probabilistica e non deterministica, non implica affatto che anche la nostra mente funzioni secondo un meccanismo di questo tipo.

1. Possibili effetti a livello macroscopico dell'indeterminismo microscopico

Per affrontare il primo punto dobbiamo ricordare che l’approccio probabilistico alla descrizione del comportamento di particelle subatomiche può essere interpretato in almeno tre modi:

  • secondo l’interpretazione più diffusa, definita “interpretazione di Copenaghen”, le equazioni della meccanica quantistica descrivono integralmente come funziona la realtà fisica, ovvero «sono probabilistiche perché il mondo è fondamentalmente indeterministico» (Levy 2007, Challenges for the 21st Century, p. 224).
  • Al contrario, interpretazioni alternative affermano che il carattere probabilistico di tali equazioni deriva dalla mancanza di osservazioni adeguate o della conoscenza di variabili nascoste. Pertanto, l’universo sarebbe interamente regolato da meccanismi deterministici, ma i nostri strumenti non sono adeguati a coglierli (Ibid).
  • Altri autori, invece, hanno evidenziato il fatto che, pur ammettendo che i processi indeterministici postulati dalla meccanica quantistica siano veri, probabilmente questi non hanno «ricadute significative al livello macroscopico» e, pertanto, «è ragionevole ritenere che al livello macroscopico la tesi deterministica sia approssimativamente vera e che, dunque, gli eventi macroscopici in genere, e le nostre azioni in particolare, manifestino comportamenti sostanzialmente deterministici» (De Caro, p. 18).

Pertanto, sebbene la meccanica quantistica si sia rivelata uno strumento efficace per predire accuratamente certi fenomeni osservabili, è difficile affermare che possa essere una dimostrazione della verità dell’indeterminismo.

Addirittura, De Caro ci mette in guardia sul fatto che – se pure si trovassero dei riscontri a favore della tesi dell’indeterminismo nella meccanica quantistica - non «è impossibile (come ci ha insegnato la storia della scienza) che in futuro tale teoria venga abbandonata e rimpiazzata da una teoria esplicitamente deterministica» (2004, p. 18).

2. L’indeterminismo può essere una garanzia per il libero arbitrio?

Proviamo ora ad affrontare il secondo punto: in che modo la meccanica quantistica possa rappresentare un sostegno per le teorie indeterministiche del libero arbitrio.

Anche su questo troviamo opinioni contrastanti: una volta, infatti, accettate le premesse che il mondo sia regolato da processi indeterministici e che questi abbiano una qualche influenza causale anche al livello macroscopico, non è chiaro in che modo sia giustificabile il libero arbitrio.

Infatti, se anche le nostre azioni fossero causate da processi probabilistici condizionati dall’indeterminismo subatomico, questo non implica necessariamente che siamo liberi di fare ciò che vogliamo. Addirittura, il fatto che le nostre azioni possano essere condizionate da eventi randomici sembra piuttosto indebolire, e non rafforzare, il nostro libero arbitrio poiché non c’è possibilità di controllare le proprie azioni (Levy 2007, p. 224). Detto in altre parole, «se fosse vero l’indeterminismo le azioni umane, al pari di tutti gli altri eventi, sarebbero fisicamente indeterminate; nulla, dunque, ne determinerebbe il verificarsi – a fortiori, nemmeno gli agenti» (De Caro 2004, p. 19).

Una strategia alternativa consiste di servirsi della meccanica quantistica per costruire un’analogia con il libero arbitrio. Di fondo, per chi si occupa della questione della libertà dell’essere umano, poco importa «se la tesi del determinismo scientifico universale sia vera» (Ivi, p.16). Ciò che conta è se la nostra mente funzioni sulla base di processi deterministici o meno.

Evidentemente, la questione è ben lontana dall’essere risolta.

Quello che viene suggerito dall’evidenza empirica è che sembrano essere presenti - a diversi livelli dell’attività cerebrale - meccanismi sia deterministici che stocastici e questo non mette la discussione su un binario univoco ma, al contrario, sembra alimentare la controversia.


A debate about Apes - La Teoria della Mente nei grandi primati?

Avete presente gli intrecci delle soap opera televisive, quelli basati su dei malintesi che si gonfiano in maniera spropositata per colpa di false credenze? Di quelli che provocano drammi complicatissimi perché tizio crede che lei creda che l’altro la ami (ma non è così), e così via?

Ecco: questi intrecci non potrebbero esistere se l’essere umano non fosse dotato di una teoria della mente (anche denominata ToM: Theory of Mind), ovvero la capacità di attribuire stati mentali a sé stessi e agli altri nonché la capacità di comprendere che gli altri possano avere degli stati mentali diversi dai propri. È un concetto intuitivo, di cui diamo per scontata l’esistenza in ogni nostra interazione quotidiana.

Senza addentrarci negli studi di questa teoria applicata all’essere umano, il concetto risulta poco scontato quando lo applichiamo al mondo degli animali non-umani, interrogandoci sulle loro effettive capacità di astrazione e comprensione degli stati mentali propri e altrui. Il tema è curioso e merita un’analisi propria, specialmente se si considera che il concetto stesso di “teoria della mente” è stato sviluppato all’interno di studi sugli scimpanzé, quindi non di psicologia classica, culminando successivamente in un accesissimo dibattito ancora oggi irrisolto.

LE PREMESSE AL DIBATTITO

  • Partiamo da Darwin (ovviamente). Egli ha fortemente influenzato le premesse teoriche su cui si poggiano gran parte degli studi relativi alle capacità cognitive dei primati, in quanto nella sua opera “L’origine dell’uomo e la selezione sessuale” (1871) sosteneva che non vi fossero differenze fondamentali tra le facoltà mentali dell’uomo e quelle dei mammiferi superiori e che, pertanto, qualsiasi differenza tra queste fosse relativa esclusivamente alla gradazione e non al tipo. Queste riflessioni, come vedremo, hanno condotto vari studiosi a legittimare approcci di ricerca basati sul principio dell’analogia, per cui comportamenti animali simili ai nostri si considerano causati dallo stesso tipo di cause psicologiche che riconosciamo nell’essere umano.
  • Nel 1978 i due studiosi David Premack e Guy Woodruff pubblicarono il celebre articolo “Does the chimpanzee have a theory of mind?”, in cui venivano illustrati una serie di esperimenti condotti su un gruppo di scimpanzé che, a parere degli autori, dimostravano che questi fossero in grado di attribuire stati mentali a sé stessi e agli altri, in particolare per quanto concerne il desiderio, il porsi un obiettivo o anche per le loro attitudini affettive. Fu il primo articolo nella Storia a formulare e spiegare il concetto di “Teoria della mente”, poi ripreso con successo in svariati studi.

IL DIBATTITO

Il lavoro di Premack e Woodruff è stato ripreso e approfondito nel corso degli anni da vari studiosi. In particolare, due gruppi di ricerca si sono dedicati ampiamente allo studio della ToM negli scimpanzé, producendo buona parte della letteratura al riguardo: il gruppo di Michael Tomasello a Leipzig e quello di Daniel Povinelli in Louisiana.

Il primo, in continuità con gli studi precedenti, sostiene che una qualche forma di teoria della mente è effettivamente presente negli scimpanzé, mentre il secondo nega completamente che questa possa mai esistere negli scimpanzé o in altri primati.

Ma come mai vi è un tale disaccordo?

  • Secondo Tomasello molteplici evidenze sperimentali hanno confermato che negli scimpanzé sono presenti dei meccanismi cognitivi e psicologici analoghi a quelli degli esseri umani, specialmente per determinati tipi di cognizione, e che pertanto in questo senso è possibile sostenere che tale specie sia dotata di una teoria della mente. Al tempo stesso, l’autore ha anche specificato che con tale definizione si definisce in realtà uno svariato range di processi mentali, che non sono necessariamente condivisi dalle specie più simili a noi, scimpanzé compresi.
  • Povinelli, al contrario, nega categoricamente che possa esistere alcuna forma di ToM negli scimpanzé poiché ogni forma di esperimento fondata sul principio dell’analogia menzionato in precedenza è incapace di dimostrare efficacemente che un determinato comportamento non solo sia causato da uno specifico processo mentale, ma anche che tal processo mentale sia simile a quello dell’essere umano prima di produrre lo stesso tipo di comportamento. Pertanto, quando nel corso degli esperimenti si rilevano analogie tra scimpanzé ed esseri umani, di fatto si sta solo proiettando sul mondo animale la propria percezione del mondo. L’autore, invece, ritiene che una spiegazione molto più adeguata del comportamento sociale degli scimpanzé sia la semplice capacità di questi animali di rappresentarsi e riflettere sui propri comportamenti, senza alcun’altra considerazione di livello superiore relativa a se stessi o agli altri.

QUALCHE CONSIDERAZIONE

In un paper del 1998 Cecilia Heyes scriveva: “In ogni caso in cui il comportamento dei primati non umani è stato interpretato come un segno di teoria della mente, questo si sarebbe anche potuto manifestare per caso o come il prodotto di processi non mentalistici, come un apprendimento per associazione o qualche inferenza basata su categorie non mentali” (trad. mia). Da quando l’autrice scriveva queste parole le cose non sono granché cambiate. Fa quasi sorridere che degli studiosi affermati arrivino ad accendersi a tal punto da pubblicare vignette di scherno l’uno dell’altro (vedi sotto), eppure questo è solo uno dei tanti casi di disaccordo in ambito scientifico e, come in tanti altri casi, ad uno sguardo più accurato ci si rende conto che una tale divergenza si poggia tanto su considerazioni teoriche di base differenti quanto su un diverso approccio empirico.

In primo luogo, gli autori non sono d’accordo su che cosa sia la teoria della mente (quindi l’oggetto stesso dei loro esperimenti!!): per Tomasello costituisce un variegato gruppo di processi cognitivi e psicologici, mentre per Povinelli è una qualità specifica che una specie o possiede o non possiede.

In secondo luogo, risulta particolarmente difficile comprendere se gli esperimenti dimostrino effettivamente quello che vogliono dimostrare oppure possano essere spiegati e interpretati anche attraverso categorie diverse.

In ultimo, l’assetto sperimentale stesso risulta precario e pieno di fragilità.

È evidente che per poter condurre degli esperimenti in laboratorio con un gruppo di scimpanzé è necessario educare gli esemplari di quel gruppo, così da renderli capaci di poter svolgere un esperimento.

Il raggiungimento di un tale traguardo può richiedere anni, rendendo quindi l’assetto sperimentale di difficile replicabilità e per certi versi troppo “artificiale”.

 

 

 

Bibliografia

Andrews, K. (2005, November). Chimpanzee Theory of Mind: Looking in All the Wrong Places. Mind & Lamnguage, 20(5), 521-536.Call, J., & Michael Tomasello. (2008). Does the chimpanzee have a theory of mind? 30 years later. Trends in Cognitive Sciences, 12(5), 187-192.

Call, J., Hare, B., & Tomasello, M. (2003, June). Chimpanzees versus humans:it's not that simple. TRENDS in Cognitive Sciences, 7(6), 239-240.

Heyes, C. (1998). Theory of mind in nonhuman primates. Behavioral and brain sciences, 21, 101-148.

Penn, D., Holyoak, K., & Povinelli, D. (2008). Darwin's mistake: Explaining the discontinuity between human and nonhuman minds. Behavioral and brain sciences, 31, 109-178.

Povinelli, D., & Vonk, J. (2003, April). Chimpanzee minds: suspiciously human? TRENDS in Cognitive Sciences, 7(4), 157-160.

Povinelli, D., & Vonk, J. (2004, February). We Don't Need a Microscope to Explore the Chimpanzee's Mind. Mind & Lamguage, 19(1), 1-28.

Povinelli, D., Bering, J., & Giambrone, S. (2000). Toward a Science of Other Minds: Escaping the Argument by Analogy. Cognitive Science, 24(3), 509-541.

Premack, D. (2007, August). Human and animal cognition: Continuity and discontinuity. PNAS, 104(35), 13861-13867.

Premack, D., & Woodruff, G. (1978). Does the chimpanzee have a theory of mind? The behavioral and brain sciences, 4, 515-526.

van der Vaart, E., & Hemelrijk, C. (2014). 'Theory of mind' in animals: ways to make progress. Synthese, 191, 335-354.