L’intelligenza artificiale (di seguito AI) è diventata un tema caldo quanto la guerra in Ucraina o la rivolta degli agricoltori francesi. Le persone più colte la fanno risalire a una data recente, ad esempio il 2018. Avendo lavorato per molti anni su una storia filosofica delle scienze cognitive, dalla cibernetica all’IA[1], la faccio risalire al 1943, quando un neuropsichiatra di nome Warren McCulloch e un brillante matematico, Walter Pitts, inventarono il concetto di rete neurale formale. Dimostrarono alcune notevoli proprietà della rete neurale che fecero sperare nell’avvento di una scienza materialista, logico-matematica della mente umana.
Gli ottant’anni circa che ci separano da questo atto inaugurale hanno ovviamente visto alcuni sviluppi spettacolari. Grazie soprattutto al lavoro del francese Yann Le Cun e del britannico Geoffrey Hinton, il modello iniziale è diventato un sistema in grado di apprendere da solo attraverso una gerarchia intricata di strati di neuroni formali — da qui l’espressione “apprendimento profondo” — e di confrontarsi con i dati del mondo reale.
È qui che la disponibilità di gigantesche quantità di dati, in tutti i campi, entra in gioco per queste macchine di autoapprendimento. Una “AI”, come si dice oggi, riferendosi a un tipo di macchina intelligente piuttosto che a una disciplina particolare, impara da sola a navigare in un mondo sintetizzato da dati, generando al contempo nuovi dati — questo è ciò che chiamiamo Big Data.
Quello che i media chiamano “AI” è un gruppo ancora più piccolo di macchine di questo tipo: i Large Language Models (LLM), il più noto dei quali è GPT Chat di Open AI. Anche se si limita a prevedere il segno più probabile che amplia un corpus già fornito o costruito, le sue prestazioni possono essere spettacolari. Con mezzi modesti, sono stato in grado di ottenere dalla mia macchina un quadro puntinista raffigurante una domenica pomeriggio in riva a un fiume, e un preludio in Do minore, numero 25, dal Libro I del Clavicembalo ben temperato di Bach[2].
Spesso sono le stesse persone che sono allo stesso tempo estasiate e spaventate da questi nuovi abitanti del nostro pianeta. Faranno perdere il lavoro agli sceneggiatori di Hollywood? Consegneranno la razza umana al macero? Non è questo il tipo di pericolo di cui voglio parlare oggi, ma una minaccia più insidiosa, perché riguarda tre delle domande poste da Kant: Cosa posso sapere? Cosa devo fare? E che cos’è l’uomo?
Modellazione, causalità e correlazione
L’idea che l’elaborazione dei dati possa diventare la base di una nuova scienza, a condizione che i dati siano sufficientemente abbondanti e ricchi e che esistano algoritmi per identificare le regolarità, ad esempio sotto forma di correlazioni, nell’inestricabile guazzabuglio che costituiscono, ha lentamente guadagnato terreno con l’avanzare della raccolta di informazioni di tutti i tipi e il fulmineo progresso della programmazione informatica[3].
Recentemente, l’idea è letteralmente esplosa sotto il nome di ‘Big Data’, con i suoi sostenitori che sono arrivati a proclamare ‘la fine della teoria’. Nel giugno 2008, Chris Anderson, ex caporedattore della rivista ‘alla moda’ Wired della Silicon Valley, ha potuto intitolare uno dei suoi saggi “La fine della teoria: il diluvio di dati rende obsoleto il metodo scientifico[4]”. Afferma che “la correlazione ora prevale sulla causalità e il progresso scientifico può fare a meno sia della modellazione che della teoria”.
Dal punto di vista della storia e della filosofia della scienza, tali affermazioni testimoniano soprattutto una spaventosa mancanza di cultura e una sconcertante ingenuità. È come se stessimo facendo un grande salto mortale all’indietro rispetto alla rivoluzione kantiana, il cui gesto ‘copernicano’ metteva il processo di conoscenza al posto della cosa in sé. Per Kant, la causalità era una forma fondamentale della nostra comprensione.
È come se le epistemologie di Émile Meyerson, Karl Popper e Thomas Kuhn non fossero mai esistite, insistendo sulle impasse dell’empirismo radicale, sull’impossibilità di fare a meno di un ‘programma di ricerca metafisico’, sul ruolo indispensabile delle ipotesi nel processo scientifico, che procede per congetture e confutazioni, il che può essere tradotto con la formula: ‘non esistono fatti bruti'[5].
Prenderò come esempio l’emergere sulla scena scientifica del paradigma della complessità, e più specificamente della modellazione dei sistemi complessi. Fu il matematico John von Neumann, un altro fondatore della cibernetica, a definire per la prima volta questo concetto in un simposio tenutosi nel 1948 presso il California Institute of Technology (CalTech) di Pasadena, in California. Un oggetto complesso”, ipotizzò, “è tale che il modello più semplice che possiamo dare di esso è se stesso. L’informazione che contiene è incomprimibile. È rivelatore che von Neumann abbia utilizzato un esempio preso in prestito dall’economia teorica per illustrare il suo punto.
Si tratta di un testo di Vilfredo Pareto, che nel 1906 spiegò nel suo Manuel d’économie politique che il modello di equilibrio economico generale che aveva sviluppato con Léon Walras, un modello che formalizza il meccanismo di formazione dei prezzi in un mercato competitivo, “non mira in alcun modo a un calcolo numerico dei prezzi. Facciamo l’ipotesi più favorevole per un tale calcolo, supponiamo di aver superato tutte le difficoltà di trovare i dati per il problema e di conoscere le opelimità (cioè le ‘utilità’ o ‘desiderabilità’) di tutti i diversi prodotti per ogni individuo, e tutte le condizioni di produzione di tutti i prodotti, ecc. Questa è già un’ipotesi assurda. Tuttavia, non è sufficiente per rendere possibile la soluzione del problema. Abbiamo visto che nel caso di 100 persone e 700 prodotti ci saranno 70.699 condizioni (in realtà, un gran numero di circostanze che abbiamo trascurato finora aumenteranno questo numero); dovremo quindi risolvere un sistema di 70.699 equazioni. In pratica, questo supera i poteri dell’analisi algebrica, e questo è ancora più vero se consideriamo il favoloso numero di equazioni che si ottiene per una popolazione di quaranta milioni e diverse migliaia di prodotti. In questo caso, i ruoli si invertirebbero: non sarebbe più la matematica a venire in soccorso dell’economia politica, ma l’economia politica a venire in soccorso della matematica. In altre parole, se potessimo davvero conoscere tutte queste equazioni, l’unico modo per risolverle che sarebbe accessibile ai poteri dell’uomo sarebbe quello di osservare la soluzione pratica data loro dal mercato”.
In altre parole, solo il mercato può dirci cosa può fare. Il modello migliore e più semplice del comportamento del mercato è il comportamento del mercato stesso. Le informazioni che il mercato mobilita e mette al servizio di coloro che si lasciano trasportare dalle sue dinamiche non possono essere ‘compresse’. In definitiva, il mercato — e lo stesso vale per qualsiasi sistema complesso — è la sua stessa causa e il suo comportamento non può essere ridotto all’interazione di cause identificabili a un livello più elementare. Tuttavia, la causalità rimane un elemento essenziale della nostra comprensione, anche se è stata profondamente trasformata.
Al contrario, l’ideologia trasmessa dai ‘Big Data’ promette solo una cosa: ci permette di prevedere, anche se non capiamo di cosa si tratta. Da qui il detto: “Se i dati sono sufficienti, le cifre parlano da sole”[6]. O ancora: “In molti casi, dobbiamo rinunciare a cercare di scoprire la causa delle cose, perché questo è il prezzo da pagare per poter lavorare con le correlazioni. Invece di cercare di capire con precisione perché un motore si rompe o gli effetti collaterali di un farmaco scompaiono, grazie ai Big Data i ricercatori raccoglieranno e analizzeranno enormi quantità di informazioni su questi eventi e su tutto ciò che vi è associato, alla ricerca di regolarità che consentiranno loro di prevedere i loro eventi futuri. I Big Data rispondono alla domanda ‘cosa’, non ‘perché’, e molto spesso questo è sufficiente per noi… La nostra visione del mondo, che si basava sull’importanza data alla causalità, viene ora messa in discussione dal privilegio dato alle correlazioni. Un tempo il possesso della conoscenza andava di pari passo con la comprensione del passato; oggi va di pari passo con la capacità di prevedere il futuro[7]”.
I Big Data pretendono di giocare sulla complicazione dei dati. In realtà, il suo ostacolo è la complessità dei fenomeni. Se, in assenza di comprensione, la previsione è tutto ciò che può offrire — un algoritmo come Chat GPT non pretende nient’altro — avrà sacrificato la comprensione per una capacità di prevedere che si basa su nulla che possiamo comprendere. Da qui l’impressione a volte data dai “prodigi” di cui sono capaci queste “AI generative”, di tirare fuori un coniglio dal cappello di un mago digitale[8].
Big Data ed etica sacrificata
L’etica presuppone un soggetto umano che agisce. Agire significa, etimologicamente, iniziare un nuovo processo, mettere in moto una catena di cause ed effetti. Pensare di essere liberi in un mondo deterministico significa ricorrere a una finzione, che è l’oggetto della metafisica dell’azione.
La filosofa americana Christine Korsgaard, nota per la sua difesa della filosofia morale di stampo kantiano, la caratterizza come segue: “Per essere in grado di fare qualcosa, dobbiamo semplicemente fingere di ignorare il fatto che siamo determinati e decidere cosa fare — esattamente come se (als ob) fossimo liberi[9]”. Secondo questa finzione, siamo in grado di agire esattamente nella misura in cui siamo in grado di avviare nuove catene causali attraverso l’effetto della nostra volontà. Agire come se fossimo liberi ci porta a considerare proposizioni controfattuali[10] come: “Se agissi in modo diverso da quello che faccio, ne deriverebbero tali e quali conseguenze”.
Se Big Data si accontenta di abbandonare la ricerca della causalità nel campo dei fenomeni naturali, mette a rischio l’approccio scientifico. Se fa lo stesso nel campo degli affari umani, non sarà in grado di fondare alcuna etica.
Illustreremo questa affermazione con un caso che oggi svolge un ruolo importante nelle controversie interne della filosofia morale razionalista. La questione è se, nel valutare una certa azione dal duplice punto di vista della razionalità e dell’etica, dobbiamo limitarci alle sue conseguenze causali, o se dobbiamo tenere conto anche delle sue conseguenze controfattuali non causali. Un esempio ci aiuterà a capire questi concetti.
Immaginiamo di rilevare, grazie ai Big Data, una correlazione tra un certo tipo di comportamento e l’incidenza di una malattia. Per dare un’idea di cosa intendiamo, consideriamo la dipendenza statistica tra il fumo regolare e il cancro ai polmoni. I Big Data da soli non ci permettono di andare oltre e di penetrare nel mondo delle cause.
Ci sono tre possibili casi in cui due variabili sono correlate: la prima può essere la causa della seconda, la seconda può essere la causa della prima, oppure entrambe possono essere il risultato della stessa causa comune. In questo esempio, o il fumo causa il cancro ai polmoni — la causalità nella direzione opposta è esclusa — o la propensione al fumo e il fatto di ammalarsi di cancro ai polmoni sono entrambi causati, indipendentemente, dallo stesso fattore di rischio, ad esempio un certo gene.
Chiediamoci qual è la cosa giusta da fare o da consigliare in ognuno di questi due casi. Se il fumo causa il cancro ai polmoni, è chiaro che dovremmo astenerci. D’altra parte, non c’è motivo di smettere di fumare nell’altro caso, anche se non sappiamo quale sia la presenza o l’assenza del gene in questione in un particolare individuo. È un principio di scelta razionale che rende possibile questo. È conosciuto come il principio della certezza. Questo nome gli è stato dato dal grande statistico americano Leonard Savage, che lo ha reso un assioma della teoria della scelta razionale — un assioma, in altre parole, una proposizione che è evidente in linea di principio, come una tautologia.
La logica qui sembra ridursi al buon senso. Se, a prescindere dal valore di una variabile a me nascosta (in questo caso, l’esistenza o l’assenza in me del gene responsabile del cancro ai polmoni), l’opzione che preferisco tra le varie possibilità a me aperte è sempre la stessa (diciamo che preferisco fumare all’astensione), non importa se conosco o meno il valore della variabile: preferisco questa opzione, punto e basta, e la scelgo senza ulteriori indugi (in questo caso, scelgo di fumare o di continuare a farlo)[11].
In questo caso, si dice che fumare è una strategia dominante: è la strategia migliore, qualunque sia lo stato del mondo a me sconosciuto. Per comprendere appieno la posta in gioco, ossia la distinzione tra causalità e correlazione, torniamo al primo caso, in cui le opzioni tra cui dobbiamo scegliere hanno un impatto causale sulle circostanze. L’espressione che definisce una strategia dominante — “a prescindere dalle circostanze, questa opzione è migliore delle altre” — perde allora ogni significato, poiché l’opzione determina causalmente le circostanze. A Mary piace fumare e sa che questa abitudine potrebbe causarle un cancro ai polmoni. A parità di altre condizioni, preferisce fumare piuttosto che non fumare; a parità di altre condizioni, preferisce non ammalarsi di cancro ai polmoni piuttosto che ammalarsi.
Dimostriamo (falsamente) utilizzando il principio della strategia dominante che è razionale per Mary continuare a fumare. Mary non sa se si ammalerà di cancro ai polmoni o meno. Non importa, perché se lo farà, preferisce continuare a fumare; ed è quello che preferisce anche se è scritto che non avrà il cancro ai polmoni. Quindi, per Mary, continuare a fumare è una strategia dominante. Qual è il valore di questa dimostrazione? Non ha alcun valore, ovviamente, perché ignora il legame causale tra la decisione di Maria e il fatto che si ammalerà o meno di cancro ai polmoni.
Cosa succederebbe se il legame tra le opzioni e le circostanze fosse controfattuale ma non causale? È qui che ha origine lo scisma che oggi divide l’etica razionale[12]. Per introdurre il dibattito, utilizzerò un’altra illustrazione. Non si tratta di un’illustrazione qualsiasi perché, per quanto riguarda la fede nel soprannaturale, non esistono Big Data possibili sul legame tra opzioni e conseguenze! I ‘dati’ non sono noti, eppure la scelta deve essere fatta. Questa è la famosa tesi di Max Weber sui legami tra l’etica protestante, e più specificamente la dottrina calvinista della predestinazione, e lo spirito del capitalismo[13].
La tesi assume la forma di un paradosso, e questo paradosso è lo stesso che abbiamo appena presentato sulla struttura della correlazione dovuta a una causa comune. Ricordiamo lo schema della spiegazione di Weber e, prima di tutto, la sua analisi, non della dottrina di Calvino, ma del modo in cui i Puritani del New England la reinterpretarono, in base al loro ambiente sociale e culturale e alla loro psicologia individuale e collettiva.
In virtù di una decisione divina presa dall’eternità, tutti appartengono a un campo, quello degli eletti o quello dei dannati, senza sapere quale. Gli esseri umani non possono fare assolutamente nulla riguardo a questo decreto; non c’è nulla che possano fare per guadagnare o meritare la loro salvezza. La grazia divina, tuttavia, si manifesta attraverso dei segni. La cosa importante è che questi segni non si osservano con l’introspezione, ma si acquisiscono con l’azione. Il più importante di questi segni — un’eredità del luteranesimo — è il successo ottenuto mettendo alla prova la propria fede in un’attività professionale[14].
Questa prova è costosa; richiede un lavoro instancabile e metodico, senza mai riposare nel possesso, senza mai godere della ricchezza. La ripugnanza per il lavoro”, dice Weber, “è il sintomo di un’assenza di grazia”.
La “conseguenza logica” di questo problema pratico, osserva Weber, avrebbe dovuto essere “ovviamente” il “fatalismo”. Il fatalismo, ossia la scelta di una vita oziosa, che manifesta una “ripugnanza al lavoro”, è in effetti la soluzione razionale, dal momento che, qualunque sia lo stato del mondo — in questo caso, se siamo tra gli eletti o tra i dannati — non abbiamo nulla da guadagnare dalla prova costosa dell’impegno professionale. Questa è chiaramente la “strategia dominante”. L’intero libro di Weber, tuttavia, si sforza di spiegare perché e come “la grande massa degli uomini comuni” ha fatto la scelta opposta.
Per la dottrina calvinista popolare, “considerarsi eletti era un dovere. Qualsiasi tipo di dubbio a questo proposito doveva essere respinto come una tentazione del diavolo, perché l’insufficiente fiducia in se stessi derivava da una fede insufficiente, cioè da un’insufficiente efficacia della grazia”. Questa fiducia in se stessi si otteneva “lavorando instancabilmente al proprio mestiere”, il mezzo per garantire il proprio stato di grazia.
Il dibattito tra i luterani e i calvinisti è ancora oggi di grande interesse. I primi accusarono i secondi di essere tornati al dogma della “salvezza per opere”, con grande dispiacere dei secondi, che erano indignati dal fatto che la loro dottrina potesse essere identificata con ciò che detestavano più di ogni altra cosa, la dottrina cattolica. Questa accusa equivale a dire che chiunque scelga di acquisire i segni della grazia a caro prezzo sta ragionando come se questi segni fossero la causa della salvezza — un comportamento magico, insiste l’accusa, poiché consiste nello scambiare il segno con la cosa[15] (l’elezione divina). Da qui il notevole paradosso storico e antropologico per cui una dottrina che all’inizio era perfettamente anti-meritocratica è stata in grado di generare un tipo di società altamente meritocratica: bisogna guadagnarsi la salvezza.
È possibile difendere la razionalità e l’etica della scelta calvinista[16]. Poiché in definitiva equivale a dotarsi del potere di scegliere la propria predestinazione — Weber si riferisce ai Puritani come ‘santi autoproclamati’ — cioè la capacità di determinare ciò che nel passato ci determina, questa difesa implica l’inclusione delle sue implicazioni controfattuali non causali nel calcolo delle conseguenze di un’azione. Per giustificare la scelta calvinista, non c’è bisogno di dire che i Puritani si ritenevano capaci di agire causalmente sul passato. Avevano solo bisogno di un potere controfattuale sul passato[17].
Sarebbe sbagliato pensare che questo tipo di dibattito sia interessante solo per alcuni metafisici chiusi nelle loro stufe. È al centro di alcune delle principali questioni di oggi, che si tratti della crisi dell’economia[18], della strategia di deterrenza nucleare[19], del rapporto tra religione e democrazia[20] o dell’atteggiamento da adottare di fronte alle catastrofi previste[21]. Una cosa è certa: se lasciato a se stesso, il rullo compressore dei Big Data schiaccerà le distinzioni concettuali più fondamentali di cui nessuna etica può fare a meno.
Note
[1] Jean-Pierre Dupuy, L’origine delle scienze cognitive. La meccanizzazione della mente , The MIT Press, 2000.
[2] Bach ne compose 24, una per ciascuna delle 12 scale cromatiche, in maggiore e minore.
[3] Possiamo ricordare che l’informatica è nata in parte dal genio di John von Neumann, che si trovò di fronte al compito umanamente impossibile di dover risolvere il sistema di equazioni che formalizzava la dinamica esplosiva della bomba a gas dell’idrogeno.
[4] “La fine della teoria: il diluvio di dati rende obsoleto il metodo scientifico”
[5] Dove vediamo che la parola latina datum , supina del verbo fare , che significa ciò che è dato, è perfettamente inappropriata. “Fatto”, da facere , è la parola giusta. Tutti i fatti sono costruiti.
[6] Chris Anderson, “La fine della teoria”, loc. cit .
[7] Kenneth Cukier e Viktor Mayer-Schoenberger, “L’ascesa dei Big Data. Come sta cambiando il modo in cui pensiamo al mondo”, Foreign Affairs , maggio-giugno 2013.
[8] La mia conoscenza nel campo di queste IA generative è essenzialmente il risultato della mia lettura dell’opera di Alexei Grinbaum, e soprattutto del suo ultimo libro, l’eccellente Parole de machines. Dialogo con un’intelligenza artificiale , Éditions humenSciences, 2023.
[9] Christine Korsgaard, Le fonti della normatività , Cambridge University Press, 1996.
[10] Una proposizione condizionale del tipo “se, allora” può essere indicativa [“Se domani piove non andrò a lavorare”] o controfattuale [“Se fossi più ricco comprerei una Lamborghini»]. Il termine “controfattuale” si riferisce alla presenza di un antecedente [“Se fossi più ricco”] contrario ai fatti (ahimè, non sono più ricco di quello che sono). Il comportamento di questi due tipi di condizionali nel nostro ragionamento varia completamente. Per fare un esempio classico, la proposizione “Se Shakespeare non ha scritto Amleto , l’ha scritto qualcun altro” è senza dubbio vera poiché l’opera esiste e ha necessariamente un autore. D’altra parte, è altamente problematico assegnare il valore di verità “vero” alla proposizione controfattuale “Se Shakespeare non avesse scritto Amleto , qualcun altro lo avrebbe fatto”. Possiamo pensare che solo il genio del Bardo potesse produrre questo capolavoro. Le proposizioni controfattuali riguardano mondi possibili che sono “vicini” al nostro mondo, il mondo attuale, l’unico che abbiamo. Non possiamo farne a meno, nei nostri pensieri e nei nostri ragionamenti, soprattutto quando si verifica un evento significativo che non sarebbe potuto verificarsi o, al contrario, non si verifica un evento che, se si fosse prodotto, avrebbe cambiato la nostra vita o il mondo , nel bene e nel male.
[11] Questo assioma si dice in termini di preferenze: se un soggetto preferisce un’opzione p ad un’altra q nel caso in cui lo stato del mondo appartiene ad un sottoinsieme X; e preferisce anche p a q nel complemento di X; allora deve preferire p a q anche se non sa se lo stato del mondo appartiene a X o al complemento di X.
[12] Per un’introduzione si possono consultare alcuni miei lavori: Jean-Pierre Dupuy, “Philosophical Foundations of a New Concept of Equilibrium in the Social Sciences: Projected Equilibrium”, Philosophical Studies , 100, 2000, p. 323-345; Jean-Pierre Dupuy, “Due temporalità, due razionalità: un nuovo sguardo al paradosso di Newcomb”, in Paul Bourgine e Bernad Walliser (a cura di), Economics and Cognitive Science , Pergamon, 1992, p. 191-220; Jean-Pierre Dupuy, “Conoscenza comune, senso comune”, Teoria e decisione , 27, 1989, p. 37-62; Jean-Pierre Dupuy (a cura di), Autoinganno e paradossi della razionalità , Pubblicazioni CSLI, Stanford University, 1998.
[13] Max Weber, L’etica protestante e lo spirito del capitalismo , Plon, 1964 (1904-1905).
[14] La parola tedesca usata da Max Weber, Beruf , ha il doppio significato di attività professionale e di vocazione, chiamata.
[15] Le parole “cosa” e “causa” hanno la stessa origine.
[16] Ho tentato di farlo in The Future of the Economy , Champs/Flammarion, 2012. Lo scomparso psicologo cognitivo Amos Tversky ha condotto una serie di esperimenti all’Università di Stanford, dove ha insegnato, adattando il paradosso di Max Weber a un contesto medico . I risultati sono impressionanti: la grande maggioranza degli studenti fa la scelta calvinista. Vedi Eldar Shafir e Amos Tversky, “Thinking through Uncertainty: Nonconsequential Reasoning and Choice”, Cognitive Psychology 24, n. 4, 1992, 449-74.
[17] Concetto dovuto al teologo calvinista e filosofo analitico Alvin Plantinga. Vedi il suo “On Ockham’s Way Out”, Faith and Philosophy 3, 1986, 235-69.
[18] Jean-Pierre Dupuy, Economia e futuro. Una crisi di fede , Michigan State University Press, 2014.
[19] Jean-Pierre Dupuy, Un breve trattato sulla metafisica degli tsunami , Michigan State University Press, 2015.
[20] Jean-Pierre Dupuy, Il segno del sacro, Stanford University Press, 2013.
[21] Jean-Pierre Dupuy, Come pensare alla catastrofe. Verso una teoria del catastrofe illuminato , Michigan State University Press, 2022.
________________
Autore: Jean-Pierre Dupuy, è un filosofo, Professore all’Università di Stanford.
Fonte:AOCmedia
https://www.asterios.it/catalogo/ia-intelligenza-artificiale