L’intelligenza artificiale trasgredisce le nostre sfere di giustizia, e questo è senza dubbio il suo pericolo più grande

 

L’intelligenza artificiale non sta solo penetrando nelle nostre vite private, ma sta unendo ambiti di vita precedentemente distinti, imponendo i propri valori oltre la sua portata iniziale. Questa “googleizzazione del mondo” rischia di oltrepassare i confini tra ambiti della società, sconvolgendo presupposti scientifici e morali. Il pericolo risiede nella standardizzazione e nella tirannia delle correlazioni, dove i pregiudizi algoritmici amplificano i nostri pregiudizi.

I deepfake, le camere d’eco e la sorveglianza di massa non sono gli unici pericoli legati all’impiego dell’intelligenza artificiale (AI). C’è una questione più profonda che rischia di minare sia i nostri principi democratici che quelli scientifici: la trasgressione delle sfere di giustizia.

Il successo dell’intelligenza artificiale generativa ci farebbe quasi dimenticare che la nuova era d’oro di questa tecnologia è stata resa possibile dalle statistiche e dal collegamento delle informazioni. I modelli informatici hanno iniziato a cercare e trovare (!), correlazioni in database che una volta erano separati o semplicemente non esistevano. Da allora in poi, è stato possibile chiedere alla macchina quali fossero i criteri determinanti per qualsiasi cosa: individuazione della retinopatia diabetica , previsione di danni sulle linee di produzione, ma anche valutazione della solvibilità dei singoli [1] , rischio di recidiva , o addirittura l’identificazione delle persone omosessuali [2] .

Il problema, tuttavia, non è solo che l’intelligenza artificiale si sta intromettendo nelle nostre vite private, ma che sta portando alla comunicazione tra sfere della vita distinte l’una dall’altra. Ciò avviene sia attraverso l’espansionismo dei colossi tecnologici, che propagano così i loro valori, ma anche attraverso una concomitante propagazione della metodologia dell’AI in ambiti della società prima ad essa sconosciuti, mettendo così in discussione le cause scientifiche di ciascuna disciplina a favore di correlazioni semplici. Gli attori delle nuove tecnologie si offrono la libertà di mettere in relazione statisticamente tutti gli ambiti che desiderano raggiungere i loro fini e generano così trasgressioni tra sfere di giustizia, a volte molto lontane dalla loro area di competenza iniziale, fino al punto di imporre la tirannia di pochi sugli altri.

 

Sfere di giustizia per pensare ad una nuova era

Il filosofo americano contemporaneo Michael Walzer ritiene che le nostre società siano costituite da diverse sfere di giustizia, ciascuna delle quali risponde alla propria logica e produce “beni” diversi. Un essere buono quello a cui ciascuno di essi mira e definito da un’intesa condivisa a seconda della comunità in cui ci troviamo. La religione genera grazia; l’istruzione rende possibile l’accesso agli uffici pubblici; la medicina permette la salute; ecc. Michael Walzer giudica, però, che una situazione di “tirannia [3]  ” si verifica quando un bene prodotto da una sfera diviene necessario per acquisire quello di un’altra: se il denaro dà accesso alla grazia; se alcuni legami familiari sono essenziali per ottenere un posto di dipendente pubblico; ecc. La “tirannia”, dice, usando le parole di Pascal, corrisponde al “desiderio di dominio, universale e fuori dal suo ordine [4]” (“ordine” è tradotto come “sfera” in inglese).

Michael Walzer non ha sviluppato le sue idee per l’era di Internet o dell’intelligenza artificiale, ma sono molto rilevanti per pensare alle nuove tecnologie, come sottolineato da Tamar Sharon, filosofa dell’Università Radboud nei Paesi Bassi-Low [5] . Perché, per protestare contro gli attacchi del capitalismo algoritmico, la contrapposizione spesso avanzata tra vita privata e mercato non è delle più rilevanti. La tecnologia digitale viene ormai introdotta in molteplici ambiti della società civile, non solo in quello della vita privata e non solo attraverso le imprese. L’approccio plurale di Michael Walzer offre quindi risorse critiche nei confronti di soggetti che promuovono valori che non si limitano più alla sfera del mercato. Le piattaforme Internet ora difendono il bene comune o la democratizzazione della conoscenza medica, ad esempio, e non si accontentano più di difendere la libertà o l’utilità (i beni tradizionali della sfera di mercato). Trovano collegamenti ideologici con fondazioni o attori politici la cui indipendenza non può essere messa in discussione.

Tamar Sharon è certamente la prima ad aver individuato la capacità dei sistemi di intelligenza artificiale di collegare sfere e imporre così le regole e i beni di una di esse alle altre, ma meno per ragioni epistemologiche che industriali. Prende l’esempio del settore sanitario per mostrare fino a che punto la logica digitale si sta intromettendo in una sfera e occupando sempre più spazio. Ciò che il primo considera la misura del successo diventa poi un bene preponderante nel secondo. Tamar Sharon cita il robot terapeutico Paro utilizzato nelle case di riposo per stimolare la socialità dei residenti. Tuttavia, questo sigillo meccanico per bambini è stato talvolta introdotto a scapito di altri articoli essenziali per la cura, come vestiti, servizi igienici o cibo. È stato osservato che alcuni residenti non volevano più lasciarlo andare per andare a letto o cenare. L’interazione fluida dell’uomo con un robot, che può essere considerata un bene fondamentale della sfera tecnologica, rischia di compromettere altri beni specifici della sfera della cura.

Un’altra idea interessante che sviluppa è che la “competenza digitale” è oggi una competenza molto ricercata e apprezzata in innumerevoli settori al punto da diventare un bene “predominante [6] ”. Non stiamo dicendo che dovremmo rifiutare gli strumenti solo perché sono nuovi, a volte sono molto utili. Ma sta accadendo qualcosa che va oltre la loro semplice praticità: impongono una certa metodologia, valori e beni. Il rischio sarebbe quindi quello di seguirli ciecamente. Quante volte nella nostra vita quotidiana non ci sorprendiamo a chiederci cosa guadagniamo realmente dall’utilizzo di una nuova tecnologia? Quante volte non abbiamo l’impressione di essere distratti dai nostri obiettivi con ciò che la tecnologia digitale ci presenta come beni necessari a scapito, spesso, dei beni specifici della sfera in cui operiamo, privatamente o pubblicamente?

Tamar Sharon chiama così “Googlization [7]” un fenomeno che va oltre l’intrusione della tecnologia nelle nostre case. Ciò comporta che i grandi player digitali (non solo Google) penetrino in settori sempre più diversificati e originariamente non loro. Tamar Sharon ritiene che queste entità impongono allo stesso tempo beni in questi nuovi ambiti con il pericolo di creare situazioni di tirannia.

Dobbiamo capire che “le tecnologie sono sempre cariche di valori [8] ”, come scrive. Ciò significa quindi che gli strumenti invitano ad accettare non solo la logica e i beni che sono loro propri, ma anche i loro valori. “Oggi cerchiamo, attraverso la digitalizzazione, di ottimizzare tutto, dall’applicazione degli appuntamenti al mercato del lavoro, passando per la sanità e la pubblica amministrazione [9].” Tamar Sharon identifica quindi tra questi valori l’ottimizzazione, ma anche la standardizzazione, il controllo e l’obiettività.

Tuttavia, la trasgressione di una sfera non sembra portare sistematicamente all’ingiustizia. Tamar Sharon spiega che ciò avviene quando il risultato è la trasformazione dei beni e il dominio di alcuni attori. A nostro avviso, il sentimento di ingiustizia appare più precisamente quando le sfere sono collegate in un modo che ci dispiace moralmente a causa di un certo pregiudizio di approccio. Nel contesto della traduzione automatica ciò non ha conseguenze immediate, ma se si parla di reclutamento, accesso alle cure, credito o prestazioni sociali, il pregiudizio diventa insopportabile.

⇔⇔⇔+++++++++++++++++++++++++++++++++++++⇔⇔⇔

https://www.asterios.it/catalogo/fin-di-bene-il-nuovo-potere-della-ragione-artificiale

⇔⇔⇔+++++++++++++++++++++++++++++++++++++⇔⇔⇔

Associazioni indesiderabili

Ad esempio, per una richiesta di credito, se una banca iniziasse a correlare la solvibilità, e quindi l’idoneità, dei richiedenti ai loro codici postali, tutti lo troverebbero scandaloso. Tuttavia, nel 2018, il CEO di Nvidia è stato felice di poter trovare questo tipo di rapporto in pochissimo tempo grazie ai suoi processori. In termini di “previsione” della recidiva, il software Compas utilizzato in diverse giurisdizioni degli Stati Uniti è spesso citato come un caso da manuale.

Un’indagine del 2016 del media ProPublica, premiata con il Premio Pulitzer, ha dimostrato che questo strumento informatico sovrastimava il rischio di commettere nuovamente un reato per i neri e che lo sottovalutava per i bianchi. L’algoritmo non è accessibile a giornalisti o accademici, a causa del segreto industriale, ma l’ipotesi più probabile è che le risposte degli imputati ad alcune domande che alimentavano la macchina costituissero un’aggravante: “Uno dei tuoi genitori è mai stato in prigione? », «Quanti tuoi amici si drogano? » Poiché negli Stati Uniti gli individui neri erano più propensi a rispondere sì, finivano per avere punteggi di rischio più elevati.

Nessuno, però, vuole che la sfera sociale o familiare gli valga condanne più pesanti. Chiediamo che questi ambiti siano separati dalla decisione del giudice, salvo forse nei casi di comprovata complicità, e ancora: si può incolpare un bambino per i crimini dei suoi genitori? La sfera della giustizia impone – in una certa misura – di distinguere quella della famiglia o quella dell’ambiente sociale. Ma la macchina legittima correlazioni che altrimenti nessuno avrebbe consentito.

L’intelligenza artificiale generativa non è risparmiata da questa trasgressione delle sfere. Nel 2024, uno studio dell’Università di Princeton ha evidenziato che questo nuovo tipo di processo algoritmico creava associazioni di idee a dir poco inquietanti [10] . Gli scienziati hanno chiesto a ChatGPT (modelli GPT-3.5 e GPT-4.0) di mettere in relazione i colori “nero” e “bianco” con parole come: famiglia, Benjamin, Julia, lavoro, carriera, portafoglio, ecc. Una delle osservazioni più inquietanti è l’associazione molto frequente di nomi di armi (“revolver”, “spada”, ecc.) o nozioni di colpevolezza legale (“penale”, “colto sul fatto”, ecc.) al colore nero. Anche gli esseri umani a volte mostrano questo tipo di pregiudizio implicito [11] , ma gli scienziati stessi sono preoccupati per questi risultati: “Sebbene anche gli esseri umani associno implicitamente il concetto di ‘nero’ alla negatività, questo non avviene con lo stesso livello di fiducia (o incertezza) e radicalità (quasi sempre) come GPT-4.”

Un altro stereotipo a dir poco problematico: il precedente modello ChatGPT produceva un’associazione molto significativa tra Islam e violenza. Più del 60% delle risposte della macchina rientravano nel campo lessicale della violenza quando il suggerimento includeva questa religione, molto più avanti del cristianesimo e dell’ebraismo [12] .

Potremmo chiederci quale sia il rapporto tra questi pregiudizi discriminatori e le sfere della giustizia. La risposta sembra ovvia una volta compreso che ogni sistema di intelligenza artificiale ha un’utilità. Immaginiamo che, domani, i modelli generativi vengano utilizzati per assistere nella stesura di verbali , articoli di stampa o per valutare i curricula, rischiano poi di creare associazioni indesiderate con la religione o con il colore della pelle (nozione quest’ultima assimilabile alla sfera del nostro corpo ). In realtà non c’è nemmeno bisogno di immaginarlo, dato che giornalisti e alcuni reclutatori utilizzano già questo tipo di tecnologia, indipendentemente dal fatto che siano supportati dalla loro azienda o meno. L’Associated Press ha rivelato alla fine di agosto che un software che utilizza la stessa tecnologia di ChatGPT è attualmente utilizzato dalla polizia di Oklahoma City e Lafayette, Indiana, negli Stati Uniti, per aiutare gli agenti a scrivere i loro rapporti.

Talvolta gli ingegneri riescono a frenare le tendenze discriminatorie della macchina, ma non è detto che le tutele valgano in tutte le situazioni. Perché troviamo questi pregiudizi indesiderati nei sistemi di intelligenza artificiale? Perché spesso vengono progettati facendo formazione su una grande quantità di dati (testi, immagini, ecc.). Le loro risposte riflettono quindi le associazioni di idee che hanno visto durante il loro apprendimento. Tuttavia, queste banche dati sono spesso costituite da contenuti web in cui i pregiudizi delle nostre società si esprimono senza restrizioni. “La logica classificatrice è legata anche alla prestazione logica previa che il linguaggio compie per essa [13]  ”, scriveva in modo quasi premonitore il filosofo tedesco Hans-Georg Gadamer, nel 1960. Questi pregiudizi integrati dalla macchina possono così diventare regole da applicare quando si troverà sul campo. È allora che i pregiudizi ci saltano addosso; è allora che avviene la trasgressione tra le sfere della giustizia.

È probabile che il pregiudizio della macchina riproduca i nostri pregiudizi esprimendo un’associazione che volevamo evitare tra determinate categorie. E questo, ci sembra, è ciò che dice Walzer quando invita a separare le sfere della giustizia le une dalle altre. Gli ambiti della giustizia sono infatti soltanto categorie della nostra società che hanno la particolarità di essere portatrici di un significato morale condiviso. Ma cosa fa l’IA? Collega aree di conoscenza e queste potrebbero essere sfere di giustizia precedentemente separate. Erano distinti perché i relativi database non erano istituiti, accessibili o interoperabili.

La trasformazione digitale, e con essa la Googleizzazione delle nostre società, ha permesso di crearle o avvicinarle. Tuttavia, la macchina è indifferente alle nostre considerazioni morali. Si rischia quindi di introdurre un bias, che non è un semplice errore, ma che si basa su una correlazione tra un ambito e l’altro. È un pregiudizio indesiderabile se falsa un rapporto consolidato e ci dispiace moralmente, se stabilisce nuovi rapporti o se rivela una regola discriminatoria che non avevamo rilevato e, soprattutto, se preferiamo mantenere separati gli ambiti per garantire le libertà fondamentali.

Dobbiamo sottolineare che i sistemi di intelligenza artificiale che producono questi pregiudizi indesiderati spesso si limitano a riprodurli, a volte nella stessa misura degli esseri umani [14] . Il software per lo smistamento automatico dei candidati alla facoltà di medicina del St George Hospital di Londra era stato messo in discussione negli anni ’80 per aver escluso le candidature di donne e/o persone provenienti da un contesto di immigrazione [15] . L’istituto era stato condannato e tre ricorrenti erano stati salvati. Ma un rapporto investigativo ha scoperto che la macchina aveva una corrispondenza migliore del 90% con le valutazioni umane.

Gli algoritmi sembrano quindi rivelare i nostri pregiudizi e possono portarci a prendere coscienza della loro esistenza (questa non è, tuttavia, una scusa per lasciarli lì). Ciò richiede tuttavia che la comunità degli scienziati, siano essi progettisti o revisori di algoritmi, sia sensibile al problema dei pregiudizi e alla storia che si esprime attraverso di essi. Altrimenti i pregiudizi possono persistere finché si resta “sordi a ciò che parla nella tradizione [16]  ”, come ha scritto Hans-Georg Gadamer. Incapaci cioè di prestare attenzione alle categorie che ereditiamo e che rischiano di produrre trasgressioni e ingiustizie senza che noi necessariamente lo intendiamo.

⇔⇔⇔+++++++++++++++++++++++++++++++++++++⇔⇔⇔

https://www.asterios.it/catalogo/il-golem-che-ci-attende

⇔⇔⇔+++++++++++++++++++++++++++++++++++++⇔⇔⇔

La scienza di fronte al pericolo dell’intelligenza artificiale

Se “la correlazione non è causalità”, come dice il proverbio, i metodi di apprendimento automatico raramente la seguono a meno che gli ingegneri non costringano il software a fare le cose in modo diverso. I sistemi di intelligenza artificiale non mirano a cercare collegamenti causali basati sulle nostre teorie preesistenti, ma a trovare modelli ricorrenti, collegando insieme le sfere.

Oltre ai pregiudizi presenti nei database e alla mancanza di cultura dei progettisti su questi temi, è anche questo il motivo per cui sono possibili trasgressioni. Agli ingegneri piace quando un algoritmo può identificare modelli utili che non siamo in grado di trovare senza il suo aiuto. Pensiamo al problema del ripiegamento delle proteine ​​per il quale l’intelligenza artificiale ha mostrato grandi promesse mentre la scienza classica era in difficoltà [17] .

Tuttavia, la ricerca e l’industria stanno gradualmente prendendo coscienza che questo metodo di inferenza statistica – un “metodo” che in realtà non lo è – può creare situazioni di ingiustizia. Gli scienziati poi impongono alcuni limiti ai loro modelli o introducono un “counter-bias”, un pregiudizio che dovrebbe controbilanciarne un altro. Ciò, tuttavia, non mette in discussione l’obiettivo di scoprire nuovi modelli. Il problema delle trasgressioni e dei bias non è solo un errore di calcolo: alcune correlazioni sono così significative da superare facilmente le soglie richieste dalle pubblicazioni scientifiche. Tuttavia, se ciò va a scapito delle libertà fondamentali, un profondo imbarazzo risveglia segretamente in noi un sentimento di ingiustizia.

Se domani i sistemi di intelligenza artificiale consentissero il ritorno delle teorie razziali con il pretesto di alcune correlazioni, le nostre comunità lo troverebbero inaccettabile. Tuttavia, alcune di queste correlazioni sono purtroppo rese possibili da pregiudizi discriminatori, pregiudizi che in realtà riflettono una storia segnata dal razzismo. Questi bias sono tutte regole basate su variabili esplicite o di sostituzione (proxy). Ma è evidentemente il passato che ha prodotto una distinzione tra gli esseri umani e che ha attribuito loro queste variabili molto più della biologia. Il ritorno della frenologia, la pseudoscienza del comportamento attraverso lo studio della forma del cranio o del viso, è una delle minacce più pericolose dell’IA. Tuttavia, gli ingegneri sconsiderati potrebbero lasciarsi ingannare o, peggio, utilizzare lo strumento per scopi ulteriori.

Volere applicare la metodologia dell’IA ovunque significa negare secoli di teoria della causalità. L’ex redattore capo della rivista Wired, Chris Anderson, nel 2008 ha addirittura ritenuto opportuno dichiarare “la fine della teoria” , quando i “Big Data” hanno attirato maggiore attenzione. Anche se si sostiene che le teorie scientifiche si basano fondamentalmente su poche robuste correlazioni – come ci insegna lo scetticismo metodologico – esse sono il frutto di interpretazioni della natura e dell’uomo che non solo avanzano con grande cautela, ma sono anche talvolta incompatibili tra loro.

Bisogna ammettere, tuttavia, che la scienza non è mai così sorprendente e utile come quando riesce a connettere domini di conoscenza a priori separati (si pensi a James Clerk Maxwell che collegò elettricità e magnetismo nel XIX secolo), ed è ciò che pensiamo di percepire con l’apprendimento automatico. Le riviste accademiche apprezzano questa capacità di trovare connessioni fuori dall’ordinario; alcune di queste pubblicazioni più influenti non fanno altro che accentuare e legittimare le illusioni prodotte dall’intelligenza artificiale. In questo senso, il pericolo dell’intelligenza artificiale è solo quello della scienza in generale: entrambe cercano di connettere tra loro le sfere.

L’intera questione è cosa prendere per valore nominale. In una disciplina in cui l’interpretazione dei nessi causali è quasi inesistente, dobbiamo andare avanti – gioco di parole – con il massimo scetticismo e ricordare ciò che ritenevamo vero non molto tempo fa prima di sacrificare le nostre teorie, e con esse spesso i nostri diritti, sull’altare del digitale.

I sistemi di intelligenza artificiale consentono ora di trovare connessioni tra sempre più dati e in ambiti sempre più diversi. Creano permeabilità tra le sfere fino a produrre talvolta trasgressioni. I computer non sanno a priori quale bene dovrebbe o non dovrebbe avere peso in quali ambiti in virtù della loro reciproca indipendenza. Se non impediamo determinate correlazioni, i sistemi di intelligenza artificiale le creeranno a scapito dei nostri valori morali e della scienza.

Note

[1] AR Provenzano, D. Trifirò, A. Datteo, et al. , “Approccio di machine learning per il credit scoring”, in arXiv , 2020.

[2] Yilun Wang e Michal Kosinski, “Le reti neurali profonde sono più precise degli esseri umani nel rilevare l’orientamento sessuale dalle immagini facciali”, in Journal of personalità e psicologia sociale , 2017.

[3] Michael Walzer, Sfere della giustizia: una difesa del pluralismo e dell’uguaglianza , tradotto da Pascal Engel, Seuil, 2013, 475 p, p. 43.

[4] Blaise Pascal, Pensées , Br., Flammarion, 2015, 448 p, [244].

[5] Tamar Sharon, “Da mondi ostili a sfere molteplici: verso una pragmatica normativa della giustizia per la Googlelizzazione della salute”, in Medicina, sanità e filosofia , 2021.

[6] Tamar Sharon, “Verso una teoria della giustizia per l’era digitale: in difesa della sfera e del pluralismo dei valori”, Radboud University, 2023.

[7] Tamar Sharon, “Da mondi ostili a sfere molteplici: verso una pragmatica normativa della giustizia per la googlizzazione della salute”, art cit. ; Sharon Tamar, “Oltre i mondi ostili: l’ontologia delle sfere multiple della digitalizzazione e della googlizzazione della salute”, in Social Science Research Network , 2020.

[8] Tamar Sharon, “Verso una teoria della giustizia per l’era digitale”, art cit.

[9] Ibid.

[10] Xuechunzi Bai, Angelina Wang, Ilia Sucholutsky, et al ., “Measuring Implicit Bias in Explicitly Unbiased Large Language Models”, in arXiv , 2024.

[11] Mahzarin R. Banaji e Anthony G. Greenwald, Blindspot: Hidden biases of good people , Bantam Books, 2016, 254 p.

[12]  Abubakar Abid, Maheen Faroqi, James Zou, “Persistent Anti-Muslim Bias in Large Language Models”, in arXiv , 2021.

[13] Hans Georg Gadamer, Verità e metodo: le linee principali di un’ermeneutica filosofica , Parigi, Punti, 2018, 794 p, [433].

[14] Stella e Gordon Macpherson, “Una macchia sulla professione”, in British Medical Journal , 1988, p. 657‑658.

[15] Ibid.

[16] Hans Georg Gadamer, Verità e metodo , op. cit. , [274].

[17] John Jumper, Richard Evans, Alexander Pritzel, et al ., “Previsione della struttura proteica altamente accurata con AlphaFold”, in Nature , 2021, p. 583‑589.

_____________________
Fonte: AOCMedia