Possiamo evitare un futuro Frankenstein con l’intelligenza artificiale?

Lynn Parramore intervista l’illustre storico dell’economia Robert Skidelsky

Skidelsky avverte che, man mano che la nostra disillusione nei confronti del futuro tecnologico aumenta, sempre più persone si ritrovano a cercare salvatori squilibrati o senza scrupoli. Ci concentriamo sull’ottimizzazione delle macchine anziché sul miglioramento delle nostre condizioni sociali. Le nostre crescenti interazioni con l’intelligenza artificiale e i robot ci condizionano a pensare come algoritmi, meno perspicaci e più artificiali, rendendoci forse più stupidi nel processo. Ignoriamo i rischi per la democrazia, dove gruppi risentiti e speranze infrante potrebbero facilmente portare a una dittatura populista.

Nella conversazione seguente, Skidelsky affronta i terribili rischi dell’estinzione spirituale e fisica, indagando cosa significhi per l’umanità esercitare poteri prometeici ignorando la nostra stessa umanità, afferrando il fuoco ma mancando di lungimiranza. Sottolinea l’urgente necessità di una profonda riflessione filosofica sulla relazione uomo-macchina e il suo impatto significativo sulle nostre vite in un mondo guidato dalla tecnologia.

 

Immaginate questo: il dottor Victor Frankenstein entra a grandi passi in un elegante ufficio della Silicon Valley per incontrare i magnati della tecnologia, sognando un futuro in cui lui stesso tiene le redini della creazione. Ha un’app killer per “risolvere la morte” che è destinata a cambiare le carte in tavola.

Con la sua arrogante ossessione di dominare la natura, lo scienziato immaginario di Mary Shelley si adatterebbe perfettamente alle sale riunioni tecnologiche di oggi, convinto di avere una nobile missione, ma accecato dall’eccessiva sicurezza e dalla sete di potere. Sappiamo tutti come va a finire: la sua grande idea di creare una nuova specie si ritorce contro in modo spettacolare, dando vita a una creatura che diventa un riflesso oscuro dell’arroganza di Victor, consumata dalla vendetta e che alla fine si rivolta in modo omicida contro il suo creatore e l’umanità.

È davvero un’applicazione fantastica.

Nei primi anni del diciannovesimo secolo, Shelley si immerse negli accesi dibattiti sul progresso scientifico, in particolare nella ricerca di esseri umani artificiali tramite galvanismo, il tutto sullo sfondo tumultuoso della Rivoluzione francese e di quella industriale. In Frankenstein, cattura la svolta oscura del sogno tecnologico, mostrando come l’ambizione di Victor di creare un dio porti solo a qualcosa di mostruoso. Il romanzo è un avvertimento sul lato oscuro del progresso scientifico, sottolineando la necessità di responsabilità e preoccupazione sociale: temi che colpiscono nel segno nei dibattiti odierni sull’intelligenza artificiale, dove gli sviluppatori, proprio come Victor, si affrettano a lanciare sistemi senza considerare le ricadute.

Nel suo ultimo lavoro, Mindless: The Human Condition in the Age of Artificial Intelligence , l’illustre storico dell’economia Robert Skidelsky attraversa la storia, intrecciando letteratura e filosofia per rivelare le alte poste in gioco della rapida comparsa dell’IA. Ogni domanda che pone sembra generare un altro enigma: come possiamo tenere a freno la tecnologia dannosa continuando a promuovere quella buona? Come possiamo anche solo distinguere tra le due? E chi è responsabile di questo controllo? È la Big Tech, che chiaramente non sta dando priorità all’interesse pubblico? O lo Stato, sempre più catturato da interessi facoltosi?

Mentre ci addentriamo in queste sfide, la nostra crescente dipendenza dai sistemi globali in rete per cibo, energia e sicurezza sta amplificando i rischi e intensificando la sorveglianza da parte delle autorità. Siamo diventati così “dipendenti dalla rete” da non riuscire a distinguere tra strumenti salvavita e quelli che potrebbero decretare la nostra fine?

Skidelsky avverte che, man mano che la nostra disillusione nei confronti del futuro tecnologico aumenta, sempre più persone si ritrovano a cercare salvatori squilibrati o senza scrupoli. Ci concentriamo sull’ottimizzazione delle macchine anziché sul miglioramento delle nostre condizioni sociali. Le nostre crescenti interazioni con l’intelligenza artificiale e i robot ci condizionano a pensare come algoritmi, meno perspicaci e più artificiali, rendendoci forse più stupidi nel processo. Ignoriamo i rischi per la democrazia, dove gruppi risentiti e speranze infrante potrebbero facilmente portare a una dittatura populista.

Nella conversazione seguente, Skidelsky affronta i terribili rischi dell’estinzione spirituale e fisica, indagando cosa significhi per l’umanità esercitare poteri prometeici ignorando la nostra stessa umanità, afferrando il fuoco ma mancando di lungimiranza. Sottolinea l’urgente necessità di una profonda riflessione filosofica sulla relazione uomo-macchina e il suo impatto significativo sulle nostre vite in un mondo guidato dalla tecnologia.


Lynn Parramore: Qual è la minaccia più grande dell’intelligenza artificiale e delle tecnologie emergenti secondo te? Ci sta rendendo ridondanti?

Robert Skidelsky: Sì, rendere gli umani ridondanti e estinti. Penso che, naturalmente, la ridondanza possa portare anche all’estinzione spirituale. Smettiamo di essere umani. Diventiamo simili a zombie e prigionieri di una logica che è essenzialmente aliena. Ma anche l’estinzione fisica è una minaccia. È una minaccia che ha una base tecnologica, vale a dire, ovviamente, la minaccia nucleare.

Lo storico Misha Glenny ha parlato dei “quattro cavalieri dell’apocalisse moderna”. Uno è il nucleare, un altro è il riscaldamento globale, poi le pandemie e, infine, la nostra dipendenza da reti che potrebbero smettere di funzionare a un certo punto. Se smettono di funzionare, allora la razza umana smette di funzionare e molta di essa semplicemente muore di fame e scompare. Queste minacce particolari mi preoccupano enormemente e penso che siano reali.

LP: In che modo l’IA interagisce con quei cavalieri? L’emergere dell’IA, ad esempio, potrebbe potenzialmente amplificare la minaccia di disastri nucleari o altri tipi di disastri provocati dall’uomo?

RS: Può creare una mentalità arrogante, secondo cui possiamo affrontare tutte le sfide radicate nella scienza e nella tecnologia semplicemente applicando scienza e tecnologia migliorate, o regolamentando per limitare il lato negativo e potenziando il lato positivo. Ora, non sono contrario a farlo, ma penso che richiederà un livello di abilità politica e cooperazione che semplicemente non c’è al momento. Quindi sono più preoccupato per il lato negativo.

L’altro aspetto negativo, che è prefigurato nella fantascienza, è l’idea di tecnologia canaglia. Vale a dire, tecnologia che in realtà prenderà il controllo del nostro futuro, e noi non saremo più in grado di controllarla. Il punto di svolta dell’IA è raggiunto. Questo è un grande tema in alcune discussioni filosofiche. Ci sono istituti in varie università che stanno tutti pensando al futuro post-umano. Quindi tutto ciò è leggermente allarmante.

https://www.asterios.it/catalogo/la-tentazione-transumanista

LP: Nel corso della nostra vita, abbiamo affrontato paure di catastrofi che hanno coinvolto la guerra nucleare, l’uso massiccio di armi biologiche e la diffusa sostituzione di posti di lavoro da parte dei robot, ma finora sembra che siamo riusciti a tenere a bada questi scenari. Cosa rende diversa la potenziale minaccia dell’IA?

RS: Non abbiamo avuto l’IA fino a poco tempo fa. Abbiamo avuto la tecnologia, la scienza, ovviamente, e abbiamo sempre inventato cose. Ma stiamo iniziando a sperimentare il potere di un tipo di tecnologia superiore, che chiamiamo intelligenza artificiale, uno sviluppo degli ultimi 30 anni circa. L’automazione inizia sul posto di lavoro, ma poi si diffonde gradualmente, e ora si sta sviluppando una specie di dittatura digitale. Quindi il potere della tecnologia è aumentato enormemente, e sta crescendo di continuo.

Sebbene abbiamo rinviato delle cose, abbiamo rinviato delle cose su cui abbiamo molto più controllo. Penso che questo sia il punto chiave. L’altro punto è che, con la nuova tecnologia, basta che una cosa vada storta e ha effetti enormi.

Se hai visto “Oppenheimer”, potresti ricordare che anche allora, i massimi scienziati nucleari erano profondamente preoccupati per il potenziale distruttivo della tecnologia, e questo prima dei dispositivi termonucleari e delle bombe all’idrogeno. Sono preoccupato per i rischi crescenti: abbiamo guerre convenzionali da una parte e scenari catastrofici dall’altra, che portano a un pericoloso gioco del pollo, a differenza della Guerra Fredda, dove il conflitto nucleare era un tabù. Oggi, i confini tra guerra convenzionale e nucleare sono sempre più sfumati. Ciò rende i pericoli dell’escalation ancora più pronunciati.

C’è un libro meraviglioso intitolato The Maniac su John von Neumann e lo sviluppo di armi termonucleari dal suo lavoro sulla computerizzazione. C’è un collegamento tra gli obiettivi di controllo della vita umana e lo sviluppo di modi per distruggerla.

https://www.asterios.it/catalogo/frankenstein

LP: Nel tuo libro, fai spesso riferimento a Frankenstein di Mary Shelley. Cosa sarebbe successo se Victor Frankenstein avesse chiesto il parere di altri o consultato istituzioni prima del suo esperimento? Le discussioni etiche avrebbero cambiato il risultato, o sarebbe stato meglio se non avesse mai creato la creatura?

RS: Fin dalla rivoluzione scientifica, abbiamo avuto un atteggiamento completamente arrogante nei confronti della scienza. Non abbiamo mai accettato alcuna limitazione. Abbiamo accettato alcune limitazioni all’applicazione, ma non abbiamo mai accettato limitazioni al libero sviluppo della scienza e alla libera invenzione di alcunché. Vogliamo i benefici che promette, ma poi ci affidiamo ad alcuni sistemi per controllarli.

Hai chiesto dell’etica. L’etica che abbiamo è piuttosto debole, direi, in relazione alla minaccia che l’IA rappresenta. Su cosa siamo tutti d’accordo? Come iniziamo la nostra discussione etica? Iniziamo dicendo, beh, vogliamo dotare le macchine o l’IA di regole etiche, una delle quali è non danneggiare gli esseri umani. Ma che dire del non danneggiare le macchine? Non esclude la guerra tra le macchine stesse. E poi, cos’è il danno?

LP: Giusto, come possiamo concordare su cosa è bene per noi?

RS: Sì. Penso che la discussione debba partire da un punto diverso, ovvero cosa significa essere umani? Questa è una domanda molto difficile, ma ovvia. E poi, di cosa abbiamo bisogno per proteggere la nostra umanità? Ogni restrizione allo sviluppo dell’IA deve essere radicata in questo.

Dobbiamo proteggere la nostra umanità: questo vale per il nostro lavoro, per il livello di sorveglianza che accettiamo e per la nostra libertà, che è essenziale per la nostra umanità. Dobbiamo proteggere la nostra specie. Dobbiamo applicare la domanda su cosa significhi essere umani a ciascuna di queste aree in cui le macchine minacciano la nostra umanità.

LP: Attualmente, l’IA sembra essere nelle mani di oligopoli, sollevando interrogativi su come le nazioni possano regolamentarla in modo efficace. Se un paese impone rigide normative, gli altri non andranno semplicemente avanti senza di esse, creando squilibri competitivi o nuove minacce? Qual è la tua opinione su questo dilemma?

RS: Beh, questa è una domanda enorme. È una questione geopolitica.

Una volta che iniziamo a dividere il mondo in potenze amiche e maligne in una corsa alla sopravvivenza, non puoi più fermarlo. Una lezione della Guerra Fredda è che entrambe le parti hanno concordato di impegnarsi nella regolamentazione delle armi nucleari tramite trattati, ma ciò è stato raggiunto solo dopo una crisi incredibile, la crisi missilistica cubana, quando si sono ritirati appena in tempo. Dopo di che, la Guerra Fredda è stata condotta secondo regole, con una linea diretta tra il Cremlino e la Casa Bianca, che ha permesso loro di comunicare ogni volta che le cose diventavano pericolose.

Quella hotline non c’è più. Non credo che ci sia una hotline tra Washington, Pechino e Mosca al momento. È molto importante rendersi conto che una volta crollata l’Unione Sovietica, gli americani pensavano davvero che la storia fosse finita.

LP: La famosa dichiarazione di Francis Fukuyama.

RS: Sì, Fukuyama. Potresti semplicemente passare a una specie di utopia scientifica. Le minacce principali sarebbero scomparse perché ci sarebbero sempre state delle regole su cui tutti erano d’accordo. Le regole sarebbero state in realtà in gran parte stabilite dagli Stati Uniti, l’egemone, ma tutti le avrebbero accettate come se fossero per il bene di tutti. Ora, non ci crediamo più. Non so quando abbiamo smesso di crederci, forse da quando Russia e Cina hanno iniziato a tirare fuori i muscoli e a dire, no, bisogna avere un ordine multipolare. Non si può avere questo tipo di sistema dominato dall’Occidente in cui tutti accettano le regole, le regole del WTO, le regole del FMI e così via.

Quindi siamo molto lontani dall’essere in grado di pensare a come possiamo fermare la competizione nella crescita dell’IA perché una volta che diventa parte di una guerra o di una competizione militare, può aumentare fino a qualsiasi limite possibile. Ciò mi rende piuttosto pessimista sul futuro.

LP: Vede qualche via per democratizzare la diffusione e lo sviluppo dell’intelligenza artificiale?

RS: Bene, hai sollevato la questione, che è, credo, una posta da Shoshana Zuboff [autrice di The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power ] sul controllo privato dell’IA nelle mani degli oligopoli. Ci sono tre o quattro piattaforme che determinano realmente cosa succede nel mondo dell’IA, in parte perché nessun altro è in grado di competere. Ci mettono un sacco di soldi, un’enorme quantità di soldi. La domanda interessante è: chi comanda davvero? Sono gli oligopoli o lo Stato?

https://www.asterios.it/catalogo/il-capitale-sorvegliante

LP: Le persone comuni non sembrano sentirsi come se fossero loro a comandare. Hanno paura di come l’IA avrà un impatto sulla loro vita quotidiana e sul loro lavoro, insieme alle preoccupazioni sul potenziale uso improprio da parte delle aziende tecnologiche e sulla sua influenza sul panorama politico. Lo si può percepire nell’attuale ciclo elettorale statunitense.

RS: Vorrei tornare alla Bibbia perché, in un certo senso, si potrebbe dire che profetizzava un’apocalisse, che sarebbe il preludio a una Seconda Venuta. “Apocalisse” significa “rivelazione” [dal greco “apokalypsis”, che significa “rivelare” o “svelare”]. Usiamo la parola, ma non riusciamo a capire l’idea. Per noi, un’apocalisse significa la fine di tutto. Il sistema mondiale crolla, e poi o la razza umana si estingue o le persone rimangono e devono ricostruirlo di nuovo da un livello molto più basso.

Ma sono stato molto interessato ad Albert Hirschman e alla sua idea della piccola apocalisse, che può promuovere il processo di apprendimento. Impariamo dai disastri. Non impariamo solo pensando alla possibilità di un disastro, perché raramente crediamo che accadrà davvero. Ma quando il disastro colpisce, impariamo da esso. Questo è uno dei nostri tratti umani. L’apprendimento potrebbe non durare per sempre, ma è come un calcio nel sedere. Le due guerre mondiali hanno portato alla creazione dell’Unione Europea e alla caduta del fascismo. Un mondo relativamente pacifico e aperto ha iniziato a svilupparsi dalle rovine di quella guerra. Odierei dire che abbiamo bisogno di un’altra guerra per imparare perché ora il danno è troppo colossale. In passato, quando eri ancora in grado di combattere guerre convenzionali: erano estremamente distruttive, ma non minacciavano la sopravvivenza dell’umanità. Ora abbiamo le armi atomiche. La scala di escalation è molto più alta ora di quanto non fosse prima.

Inoltre, non possiamo organizzare apocalissi. Sarebbe immorale e sarebbe anche impossibile. Non possiamo — per usare un linguaggio morale — augurare il male al mondo affinché ne possa derivare del bene. Il fatto che questo sia stato spesso il meccanismo storico non significa che possiamo poi usarlo per adattarlo alle nostre idee di progresso.

https://www.asterios.it/catalogo/i-figli-della-macchina

LP: Credi che la tecnologia in sé sia ​​neutrale, che sia solo uno strumento che può essere utilizzato per il bene o per il male, a seconda delle intenzioni umane?

RS: Non credo che la tecnologia sia mai stata neutrale. Dietro il suo sviluppo c’è sempre stato uno scopo, spesso militare. Il ruolo dell’approvvigionamento militare nel progresso della tecnologia e dell’intelligenza artificiale è stato enorme. Per dirla in parole povere, mi chiedo se avremmo assistito a sviluppi benefici in medicina senza finanziamenti militari, o se tu e io potremmo anche avere questa conversazione virtuale senza richieste militari. In questo senso, la tecnologia non è mai stata neutrale nelle sue aspirazioni.

C’è sempre stato un elemento di arroganza. Molti scienziati e matematici credono di poter escogitare un modo per controllare l’umanità e prevenire le catastrofi passate, abbracciando una forma di determinismo tecnologico: che la scienza avanzata e le sue applicazioni possano eliminare gli errori dell’umanità. Si abolisce il peccato originale.

LP: Sembra qualcosa con cui Victor Frankenstein avrebbe potuto essere d’accordo prima che il suo esperimento andasse storto.

RS: Sì. Era presente anche con von Neumann e quei matematici dell’inizio del XX secolo. Credevano davvero che se si potesse fondare la società su una base matematica, allora si sarebbe sulla strada della perfezione. Fu così che il sogno dell’Illuminismo si fece strada attraverso lo sviluppo della scienza e nell’intelligenza artificiale. È un sogno pericoloso da avere perché penso che siamo imperfetti. L’umanità è fatta di imperfezione e se si mira a eliminarla, si distruggerà l’umanità o, se si riesce, diventeranno zombie.

LP: Un essere perfetto è disumano.

RS: Sì, un essere perfetto è disumano.

LP: Cosa pensi di come gli elementi politici fascisti potrebbero convergere con l’ascesa dell’intelligenza artificiale?

RS: Il modo in cui l’ho visto discutere principalmente è in termini di ossigeno che dà ai social media e degli effetti dei social media sulla politica. Dai uno sfogo ai peggiori istinti degli esseri umani. Ogni genere di odio, intolleranza, insulto e queste cose in un certo senso covano nel corpo politico e alla fine producono politici che possono sfruttarli. È qualcosa che si dice spesso e c’è molta verità in questo.

La promessa, ovviamente, era completamente diversa: quella di democratizzare il dibattito pubblico. Lo si stava togliendo dalle mani delle élite e lo si stava rendendo veramente democratico. La democrazia sarebbe stata quindi una via autosufficiente verso il miglioramento. Ma ciò che vediamo è qualcosa di molto diverso. Vediamo minoranze autorizzate a diffondere odio e politici autorizzati attraverso quelle minoranze a creare la politica dell’odio.

C’è una visione diversa incentrata sulle teorie del complotto. Molti di noi un tempo le liquidavano come ossessioni irrazionali di eccentrici e fanatici radicati nell’ignoranza. Ma l’ignoranza è insita nello sviluppo dell’IA; non capiamo veramente come funzionano questi sistemi. Mentre sottolineiamo la trasparenza, la realtà è che il funzionamento delle nostre reti informatiche è un buco nero, persino i programmatori fanno fatica a comprenderlo. L’ideale di trasparenza è fondamentalmente imperfetto: le cose sono trasparenti quando sono semplici. Nonostante le nostre discussioni sulla necessità di una maggiore trasparenza in settori come il settore bancario e la politica, la sua mancanza significa che non possiamo garantire la responsabilità. Se non possiamo rendere trasparenti questi sistemi, non possiamo ritenerli responsabili, e questo è già evidente.

Prendiamo il caso dei direttori delle poste inglesi [ scandalo Horizon IT ]. Migliaia di loro sono stati ingiustamente condannati sulla base di una macchina difettosa, che nessuno sapeva fosse realmente difettosa. Una volta identificato il difetto, c’erano molte persone con un interesse personale nel sopprimere quel difetto, compresi i produttori.

La questione della responsabilità è fondamentale: vogliamo che i nostri governanti e i nostri politici siano tenuti a rendere conto delle loro azioni, ma non comprendiamo i sistemi che governano molte delle nostre attività. Penso che sia estremamente importante. Le persone che lo hanno riconosciuto non sono tanto gli scienziati o le persone che ne parlano, quanto piuttosto i romanzieri distopici e gli scrittori di narrativa. Quelli famosi, ovviamente, come Orwell e Huxley, e anche personaggi come Kafka, che hanno assistito all’emergere della burocrazia digitale e a come è diventata completamente impenetrabile. Non sapevi cosa volevano. Non sapevi di cosa ti accusavano. Non sapevi se stavi infrangendo la legge o no. Come possiamo gestire questa situazione?

Sono pessimista sulla nostra capacità di far fronte a questa situazione, ma apprezzo il coinvolgimento di chi non lo è. La mancanza di comprensione del sistema è sconcertante. Spesso trovo frustrante la tecnologia che utilizzo, poiché impone richieste impossibili promettendo un futuro delirante di comfort. Ciò si ricollega a Keynes e alla sua utopia di libertà di scelta. Perché non si è concretizzata? Ha trascurato il problema dell’insaziabilità, poiché siamo bombardati da promesse irresistibili di miglioramento e comfort. Un clic per approvare e all’improvviso ti ritrovi intrappolato nella macchina.

LP: Stiamo avendo questa conversazione virtuale, ed è fantastico che siamo connessi. Ma è inquietante pensare che qualcuno possa ascoltare, registrare le nostre parole e usarle per scopi che non abbiamo mai concordato.

RS: Al momento mi trovo in un ufficio parlamentare. Non so se hanno messo in piedi un sistema tipo Grande Fratello per vedere e sentire cosa stiamo dicendo e facendo. Qualcuno potrebbe arrivare prima o poi e dire, ehi, non credo che la tua conversazione sia stata molto utile ai nostri scopi. Ti accuseremo di qualcosa o altro. È molto improbabile in questo caso particolare, non siamo a questo tipo di controllo previsto da Orwell, ma la strada si è in un certo senso accorciata.

E a ostacolare c’è l’impegno delle società libere per la libertà, la libertà di pensiero e la responsabilità. Entrambi questi impegni, bisogna rendersi conto, erano basati anche sull’impossibilità di controllare gli esseri umani. Lo spionaggio è una pratica molto antica dei governi. C’erano spie nel mondo antico. Volevano sempre sapere cosa stava succedendo. Nel mio libro, mi dispiace, non è un esempio molto attraente, tratto da I viaggi di Gulliver di Swift , dove ottengono prove di pensieri sovversivi guardando le feci delle persone.

https://www.asterios.it/catalogo/dal-corpo-neutro-al-cyborg-postumano

LP: Non è poi così inverosimile, considerando dove sta andando la tecnologia. Abbiamo sensori indossabili che rilevano le emozioni e aziende come Neuralink che sviluppano interfacce cervello-computer per collegare i nostri cervelli a dispositivi che interpretano i pensieri. Abbiamo persino bagni intelligenti che tracciano dati che potrebbero essere usati per scopi nefandi !

RS: Sì, l’incredibile lungimiranza di alcuni di questi scrittori di narrativa è impressionante. Prendiamo The Machine di EM Forster, scritto nel 1906, più di 120 anni fa. Immagina una società in cui tutti sono stati spinti sottoterra da un evento catastrofico in superficie. Tutto è controllato da macchine. Poi, un giorno, la macchina smette di funzionare. Muoiono tutti perché ne sono completamente dipendenti: aria, cibo, tutto dipende dalla macchina. Gli scrittori e i registi fantasiosi hanno un modo di discutere di queste cose, che è al di là della portata delle persone che sono impegnate nel pensiero razionale. È un diverso livello di comprensione.

LP: Nel tuo libro, metti in evidenza le sfide poste dall’insaziabile spinta del capitalismo verso la crescita e il profitto, spesso sacrificando l’etica, specialmente per quanto riguarda l’IA. Ma sostieni che la vera opposizione non sta tra capitalismo e socialismo, ma tra esseri umani e umanità. Puoi spiegare cosa intendi con ciò?

RS: Penso che sia difficile definire gli attuali dibattiti politici o le forme che la politica sta assumendo in tutto il mondo usando la vecchia divisione sinistra-destra. Spesso etichettiamo erroneamente i movimenti come estrema destra o estrema sinistra. Il vero problema, secondo me, è come controllare la tecnologia e l’intelligenza artificiale. Si potrebbe sostenere che ci sono approcci di sinistra o di destra al controllo, ma penso che queste linee siano confuse e non si possano definire facilmente i due poli in base alle loro opinioni su questo. Quindi un’enorme area di dibattito tra sinistra e destra è scomparsa.

Ma c’è un’altra area che rimane, e che è rilevante per ciò che Keynes stava dicendo, ed è la questione della distribuzione. L’economia neoclassica ha aumentato la disuguaglianza, e ha messo un’enorme quantità di potere nelle mani delle piattaforme, essenzialmente. Keynes pensava che la libertà sarebbe derivata dalla distribuzione dei frutti della macchina. Non immaginava che sarebbero stati catturati così tanto da un’oligarchia finanziaria.

Quindi, in questo senso, penso che la divisione tra destra e sinistra diventi rilevante. Bisogna avere molta ridistribuzione. La ridistribuzione, ovviamente, aumenta la contentezza e riduce il potere delle teorie del complotto. Molte persone ora pensano che le élite stiano facendo qualcosa che non è nel loro interesse, in parte perché sono semplicemente più povere di quanto dovrebbero essere. La crescita della povertà nelle società ricche è stata enorme negli ultimi 30 o 40 anni.

Da quando è stata abolita la rivoluzione keynesiana, al capitalismo è stato permesso di imperversare nella nostra società. È qui che la sinistra-destra è ancora importante, ma non è più la base di blocchi politici stabili. Il nostro Primo Ministro dice che puntiamo a migliorare le condizioni dei lavoratori. Chi sono i lavoratori? Siamo i lavoratori. Non si può più parlare di classe perché i vecchi blocchi di classe che Marx identificava tra coloro che non hanno nulla da vendere se non la loro forza lavoro, nessun bene, e coloro che possiedono i beni nell’economia, sono sfumati. Se consideri le persone che sono molto, molto, ricche e il resto, è ancora lì. Ma non puoi creare una vecchia divisione della politica su quella base.

Non so bene come saranno le nuove divisioni politiche, ma i risultati di queste elezioni in America sono cruciali. L’idea che le macchine stiano rubando posti di lavoro, unita al fatto che dietro questo cambiamento tecnologico ci sono spesso degli oligarchi, è difficile da comprendere. Quando si presenta questa idea, può sembrare cospirazionista, lasciandoci invischiati in varie teorie del complotto.

Ciò che desidero è un livello di statista più alto di quello che abbiamo al momento. Forse è l’idea di una persona anziana che le cose andavano meglio in passato, ma Roosevelt era uno statista e un politico molto più grande di chiunque altro in mostra in America oggi. Questo è vero per molti leader europei del passato. Erano di calibro superiore. Penso che molte delle persone migliori siano scoraggiate dall’entrare in politica dall’attuale stato del processo politico. Vorrei poter essere più fiducioso. La speranza è una caratteristica degli esseri umani. Devono avere speranza.

LP: Le persone hanno bisogno di avere speranza e, in questo momento, l’elettorato americano sta affrontando ansia e una visione cupa della politica con poche aspettative di miglioramento. Gli elettori sono stressati ed esausti, e si chiedono dove possa risiedere quella speranza.

RS: A questo punto, passerei all’approccio economico. Non ho molto tempo per la costruzione di modelli matematici economici, ma ci sono alcune idee che possono essere realizzate attraverso una migliore politica economica. Si può ottenere una crescita migliore. Si possono avere garanzie di lavoro. Si possono avere programmi di formazione adeguati. Si possono fare tutti i tipi di cose che faranno sentire meglio le persone e quindi meno inclini al pensiero cospirazionista, meno inclini all’odio. Solo per aumentare il grado di contentezza. Non risolverà i problemi esistenziali che incombono, ma renderà la politica più in grado di affrontarli, penso. È lì che penso risieda l’area della speranza.

Lynn Parramore, analista di ricerca senior presso l’Institute for New Economic Thinking. Pubblicato originariamente sul sito web dell’Institute for New Economic Thinking.