Crisi finanziarie dell’intelligenza artificiale

 

La rapida adozione dell’intelligenza artificiale sta trasformando il settore finanziario. Questo primo di una serie di due studi sostiene che l’IA potrebbe aumentare il rischio finanziario sistemico o agire per stabilizzare il sistema, a seconda delle risposte endogene, delle complementarietà strategiche, della gravità degli eventi che affronta e degli obiettivi che le vengono assegnati. La capacità dell’IA di padroneggiare la complessità e rispondere rapidamente agli shock significa che le crisi future saranno probabilmente più intense di quelle che abbiamo visto finora.


https://www.asterios.it/catalogo/fin-di-bene-il-nuovo-potere-della-ragione-artificiale


 

Sia il settore finanziario privato che quello pubblico stanno espandendo l’uso dell’intelligenza artificiale (IA). Poiché l’IA elabora le informazioni molto più velocemente degli esseri umani, potrebbe contribuire a causare crisi finanziarie più frequenti e più intense di quelle che abbiamo visto finora. Ma potrebbe anche fare l’opposto e agire per stabilizzare il sistema.

Nella classificazione di Norvig e Russell (2021), vediamo l’IA come un “agente massimizzante razionale”. Questa definizione risuona con le tipiche analisi economiche della stabilità finanziaria. Ciò che distingue l’IA dalla modellazione puramente statistica è che non utilizza solo dati quantitativi per fornire consigli numerici; applica anche l’apprendimento guidato dagli obiettivi per addestrarsi con dati qualitativi e quantitativi. Pertanto, può fornire consigli e persino prendere decisioni.

È difficile valutare l’entità dell’uso dell’IA nel settore dei servizi finanziari. Il Financial Times riporta che solo il 6% delle banche pianifica un uso sostanziale dell’IA, citando preoccupazioni sulla sua affidabilità, perdite di posti di lavoro, aspetti normativi e inerzia. Alcuni sondaggi concordano, ma altri differiscono. La finanza è un settore altamente competitivo. Quando le istituzioni finanziarie start-up e alcune grandi banche godono di significativi miglioramenti in termini di costi ed efficienza utilizzando stack tecnologici moderni e assumendo personale in sintonia con l’IA, le istituzioni più conservative probabilmente non hanno altra scelta che seguire.

La rapida adozione dell’AI potrebbe rendere più efficiente la fornitura di servizi finanziari riducendo al contempo i costi. La maggior parte di noi ne trarrà beneficio.

Ma non è tutto positivo. Ci sono preoccupazioni diffuse sull’impatto dell’IA sul mercato del lavoro, sulla produttività e simili (Albanesi et al. 2023, Filippucci et al. 2024). Di particolare preoccupazione per noi è il modo in cui l’IA influisce sul potenziale di crisi finanziarie sistemiche, quegli eventi dirompenti che costano alle grandi economie trilioni di dollari e sconvolgono la società. Questo è stato il focus del nostro recente lavoro (Danielsson e Uthemann 2024).

Le radici dell’instabilità finanziaria

Supponiamo che l’IA non creerà nuove cause fondamentali di crisi, ma amplificherà quelle esistenti: leva finanziaria eccessiva che rende le istituzioni finanziarie vulnerabili anche a piccoli shock; autoconservazione in tempi di crisi che spinge i partecipanti al mercato a preferire le attività più liquide; e opacità del sistema, complessità e asimmetria informativa che fanno sì che i partecipanti al mercato diffidino l’uno dell’altro durante lo stress. Queste tre vulnerabilità fondamentali sono state alla base di quasi tutte le crisi finanziarie degli ultimi 261 anni, sin dalla prima crisi moderna del 1763 (Danielsson 2022).

Tuttavia, sebbene gli stessi tre fattori fondamentali determinino tutte le crisi, non è facile prevenire e contenere le crisi perché differiscono in modo significativo. Questo è prevedibile. Se le normative finanziarie devono essere efficaci, le crisi dovrebbero essere prevenute in primo luogo. Di conseguenza, è quasi assiomatico che le crisi si verifichino dove le autorità non stanno guardando. Poiché il sistema finanziario è infinitamente complesso, ci sono molte aree in cui il rischio può accumularsi.

La chiave per comprendere le crisi finanziarie sta nel modo in cui le istituzioni finanziarie ottimizzano: mirano a massimizzare i profitti dato il rischio accettabile. Quando si traduce questo in come si comportano operativamente, il criterio di Roy (1952) è utile: detto in modo succinto, massimizzare i profitti a condizione di non andare in bancarotta. Ciò significa che le istituzioni finanziarie ottimizzano per i profitti la maggior parte delle volte, forse 999 giorni su 1.000. Tuttavia, in quell’ultimo giorno, quando un grande sconvolgimento colpisce il sistema e una crisi è all’orizzonte, la sopravvivenza, piuttosto che il profitto, è ciò a cui tengono di più: il problema “un giorno su mille”.

Quando le istituzioni finanziarie danno priorità alla sopravvivenza, il loro comportamento cambia rapidamente e drasticamente. Accumulano liquidità e scelgono gli asset più sicuri e liquidi, come le riserve delle banche centrali. Ciò porta a corse agli sportelli, vendite forzate, crisi del credito e tutti gli altri comportamenti indesiderati associati alle crisi. Non c’è nulla di sconveniente in tale comportamento, ma non può essere facilmente regolamentato.

Quando entra in gioco l’intelligenza artificiale

Questi fattori di instabilità finanziaria sono ben compresi e sono sempre stati una preoccupazione, molto prima dell’avvento dei computer. Man mano che la tecnologia veniva sempre più adottata nel sistema finanziario, portava efficienza e beneficiava il sistema, ma amplificava anche i canali di instabilità esistenti. Ci aspettiamo che l’IA faccia lo stesso.

Quando si identifica come ciò avviene, è utile considerare i rischi sociali derivanti dall’uso dell’IA (ad esempio Weidinger et al. 2022, Bengio et al. 2023, Shevlane et al. 2023) e come questi interagiscono con la stabilità finanziaria. Nel farlo, arriviamo a quattro canali in cui l’economia è vulnerabile all’IA:

  1. Il canale della disinformazione emerge perché gli utenti dell’intelligenza artificiale non ne comprendono i limiti, ma ne diventano sempre più dipendenti.
  2. Il canale dell’uso malevolo si verifica perché il sistema è pieno di agenti economici dotati di grandi risorse che vogliono massimizzare i propri profitti e non sono troppo preoccupati delle conseguenze sociali delle loro attività.
  3. Il canale del disallineamento emerge dalle difficoltà nel garantire che l’intelligenza artificiale persegua gli obiettivi desiderati dai suoi operatori umani.
  4. Il canale della struttura di mercato oligopolistica deriva dai modelli di business delle aziende che progettano e gestiscono motori di intelligenza artificiale. Queste aziende godono di rendimenti di scala crescenti, che possono impedire l’ingresso nel mercato e aumentare l’omogeneità e la monocultura del rischio.

Come l’intelligenza artificiale può destabilizzare il sistema

L’intelligenza artificiale ha bisogno di dati per essere efficace, anche più degli esseri umani. Questo non dovrebbe essere un problema perché il sistema genera molti dati con cui lavorare, terabyte al giorno. Il problema è che quasi tutti quei dati provengono dal centro della distribuzione dei risultati del sistema piuttosto che dalle code. Le crisi riguardano tutte le code.

Ci sono quattro motivi per cui disponiamo di pochi dati sulle code.

La prima è la risposta endogena al controllo da parte dei partecipanti al mercato; questo è correlato al canale di disinformazione dell’IA. Un modo utile per capirlo è la critica di Lucas (1976) e la legge di Goodhart (1974): “Qualsiasi regolarità statistica osservata tenderà a crollare una volta che viene esercitata pressione su di essa per scopi di controllo”. I partecipanti al mercato non accettano stoicamente le normative. No, rispondono strategicamente. Non dicono a nessuno in anticipo come intendono rispondere alle normative e allo stress. Probabilmente non lo sanno nemmeno. Di conseguenza, le funzioni di reazione dei partecipanti al mercato sono nascoste. E qualcosa che è nascosto non è in un set di dati.

La seconda ragione, che deriva dal canale malevolo, è costituita da tutte le complementarietà strategiche che sono al centro del comportamento dei partecipanti al mercato durante le crisi. Si sentono obbligati a ritirare la liquidità perché lo stanno facendo i loro concorrenti. Nel frattempo, le complementarietà strategiche possono portare a equilibri multipli, dove risultati di mercato estremamente diversi potrebbero derivare da casualità. Entrambe queste conseguenze delle complementarietà strategiche significano che le osservazioni delle crisi passate non sono così informative per quelle future. Questo è un altro motivo per cui non abbiamo molte osservazioni dalle code.

Alla radice del problema ci sono due caratteristiche dell’IA: eccelle nell’estrazione di pattern complessi dai dati e impara rapidamente dall’ambiente in cui opera. Gli attuali motori di IA osservano cosa fanno i concorrenti e non sarebbe difficile per loro usare quelle osservazioni per migliorare i propri modelli di come funziona il mondo. Ciò significa in pratica che l’IA futura nelle aziende private e nelle organizzazioni pubbliche si allena, e quindi ottimizza, per influenzarsi a vicenda.

Allineare gli incentivi dell’IA con quelli del suo proprietario è un problema difficile: il canale di disallineamento. Può peggiorare durante le crisi, quando la velocità è essenziale e potrebbe non esserci tempo per l’IA di suscitare feedback umani per perfezionare gli obiettivi. Il modo tradizionale in cui il sistema agisce per prevenire gli equilibri di corsa potrebbe non funzionare più. Il problema di disallineamento sempre presente tra comportamento individuale razionale e risultati socialmente desiderabili potrebbe essere esacerbato se i regolatori umani non riescono più a coordinare gli sforzi di salvataggio e a “girare le braccia”. L’IA potrebbe aver già liquidato le proprie posizioni, e quindi causato una crisi, prima che il proprietario umano possa prendere il telefono per rispondere alla chiamata del presidente della Fed.

L’intelligenza artificiale probabilmente esacerberà il canale della struttura di mercato oligopolistica per l’instabilità finanziaria, ulteriormente rafforzato dalla natura oligopolistica del business dell’analisi dell’intelligenza artificiale. Man mano che le istituzioni finanziarie cominciano a vedere e reagire al mondo in modi sempre più simili, si coordinano nell’acquisto e nella vendita, portando a bolle e crolli. Più in generale, la monocultura del rischio è un importante motore di boom e crisi nel sistema finanziario. La progettazione dell’apprendimento automatico, i dati di input e il calcolo influenzano la capacità dei motori di intelligenza artificiale di gestire il rischio. Questi sono sempre più controllati principalmente da poche aziende tecnologiche e informatiche, che continuano a fondersi, portando a un mercato oligopolistico.

La preoccupazione principale di questa concentrazione di mercato è la probabilità che molte istituzioni finanziarie, comprese quelle del settore pubblico, ricevano la loro visione del mondo dallo stesso fornitore. Ciò implica che vedranno opportunità e rischi in modo simile, incluso il modo in cui questi sono influenzati dallo stress attuale o ipotetico. Nelle crisi, questo effetto omogeneizzante dell’uso dell’IA può ridurre l’incertezza strategica e facilitare il coordinamento sugli equilibri di esecuzione.

Considerata la recente ondata di fusioni tra fornitori di dati, è preoccupante che né le autorità garanti della concorrenza né quelle finanziarie sembrino aver pienamente compreso il potenziale aumento del rischio sistemico che potrebbe derivare dalla tecnologia oligopolistica dell’intelligenza artificiale.

Riepilogo

Se si trovano di fronte a minacce esistenziali per l’istituzione, l’IA ottimizza per la sopravvivenza. Ma è qui che la velocità e l’efficienza dell’IA vanno contro il sistema. Se altre istituzioni finanziarie fanno lo stesso, si coordinano su un equilibrio di crisi. Quindi, tutte le istituzioni si influenzano a vicenda perché prendono collettivamente la stessa decisione. Cercano tutte di reagire il più rapidamente possibile, poiché il primo a disfarsi di asset rischiosi è nella posizione migliore per resistere alla tempesta.

La conseguenza è una maggiore incertezza, che porta a un’estrema volatilità del mercato, nonché a circoli viziosi di feedback, come vendite a saldo, prelievi di liquidità e corse agli sportelli. Grazie all’intelligenza artificiale, lo stress che avrebbe potuto richiedere giorni o settimane per manifestarsi può ora verificarsi in minuti o ore.

Il motore dell’IA potrebbe anche fare il contrario. Dopotutto, solo perché l’IA può reagire più velocemente non significa che lo farà. Le prove empiriche suggeriscono che, sebbene i prezzi delle attività possano scendere al di sotto dei valori fondamentali in una crisi, spesso si riprendono rapidamente. Ciò significa acquistare opportunità. Se l’IA non è così preoccupata per la sopravvivenza e i motori convergono su un equilibrio di recupero in aggregato, assorbiranno lo shock e non si verificherà alcuna crisi.

Nel complesso, supponiamo che l’IA agirà per ridurre la volatilità e ingrassare le code. Potrebbe smussare le fluttuazioni a breve termine a spese di eventi più estremi.

Di particolare importanza è quanto siano preparate le autorità finanziarie a una crisi dell’IA. Ne parleremo in un articolo di VoxEU in uscita la prossima settimana, intitolato “Come le autorità finanziarie possono rispondere alle minacce dell’IA alla stabilità finanziaria”.

Riferimenti

Albanesi, S, A Dias da Silva, JF Jimeno, A Lamo e A Wabitsch (2023), “ Intelligenza artificiale e lavoro: prove dall’Europa ”, VoxEU.org, 29 luglio.

Bengio, Y, G Hinton, A Yao et al. (2023), “Gestire i rischi dell’intelligenza artificiale in un’era di rapido progresso”, preprint arXiv arXiv:2310.17688.

Filippucci, F, P Gal, C Jona-Lasinio, A Leandro e G Nicoletti (2024), “L’intelligenza artificiale dovrebbe restare o dovrebbe scomparire: le promesse e i pericoli dell’intelligenza artificiale per la produttività e la crescita ”, VoxEU.org, 2 maggio.

Danielsson, J (2022), “ L’illusione del controllo ”, VoxEU.org, 7 novembre.

Danielsson, J e A Uthemann (2024), “ Intelligenza artificiale e crisi finanziarie ”, disponibile su SSRN.

Goodhart, CAE (1974), Conferenza pubblica presso la Reserve Bank of Australia.

Lucas, RE (1976), “Valutazione econometrica delle politiche: una critica”, Carnegie-Rochester Conference Series on Public Policy , Volume 1, North-Holland.

Norvig, P e S Russell (2021), Intelligenza artificiale: un approccio moderno.

Roy, AD (1952), “La sicurezza prima di tutto e la detenzione di beni”, Econometrica 20: 431–449.

Shevlane, T, S Farquhar, B Garfinkel et al. (2023), “Valutazione del modello per rischi estremi”, preprint arXiv arXiv:2305.15324.

Weidinger, L, J Uesato, M Rauh et al. (2022), “Tassonomia dei rischi posti dai modelli linguistici”, Atti della conferenza ACM del 2022 su equità, responsabilità e trasparenza.

Nota degli autori: le opinioni e le conclusioni qui espresse appartengono agli autori e non rappresentano necessariamente i punti di vista della Banca del Canada.

Autori: Jon Danielsson, Direttore, Systemic Risk Centre London School Of Economics And Political Science e Andreas Uthemann, Principal Researcher Bank Of Canada; Research Associate presso il Systemic Risk Centre London School Of Economics And Political Science.

Fonte:VoxEU


https://www.asterios.it/catalogo/permacrisis-e-tardo-capitalismo