Nuovo brutalismo e ragion artificiale

 

I deliranti assalti propagandistici dell’Occidente, gli esercizi di ferocia a spese degli inermi, le azioni terroristiche contro i civili compiute alla luce del sole, ci dicono piuttosto che la guerra postmoderna non può più essere razionalizzata come la continuazione della politica con altri mezzi, come la vedeva Clausewitz. Proprio come il governo cibernetico delle cose, che anticipa comportamenti e accadimenti sul piano virtuale per poi riproiettarne sulla realtà le conseguenze normative e disciplinari, anche la guerra postmoderna si è emancipata dalla politica, e il suo carattere illimitato e genocidario esprime il venir meno di ogni pensiero strategico in Occidente, a favore di un non-pensiero meramente algoritmico. La dissoluzione del politico, cioè del contesto stesso nel quale si è in grado di stabilire le finalità della guerra, impedisce anche che se ne possa sancire definitivamente l’eventuale superamento.

In una conferenza su Lo spirito europeo e il mondo delle macchine, tenuta a Ginevra nel 1946, Georges Bernanos affermò, tra le altre cose, che le civiltà muoiono come gli uomini, ma non lo fanno allo stesso modo, perché in esse la decomposizione precede la morte. L’immagine di un carogna in decomposizione rende bene, mi sembra, l’idea del tipo di mondo in cui viviamo, perlomeno nel cosiddetto Occidente, in cui corruzioni multiformi e cangianti mescolano e sfigurano tutto, cancellando i confini tra le cose e rendendocele così penosamente illeggibili.

E se dunque non è più il tempo di analizzare in dettaglio il funzionamento di qualcosa che fondamentalmente non funziona più, possiamo comunque ricercare una teoria del presente, intesa letteralmente come capacità di vedere ciò che accade al di là degli schermi della società dello spettacolo e dell’infodemia dilagante ovunque, per mettere a nudo le radici del suo stesso disfunzionamento, e soprattutto la comune natura patologica dei soggetti che lo rappresentano e dei meccanismi lo regolano.

L’attuale sterminio genocida perpetrato a Gaza dall’IDF, ad esempio, si caratterizza come una delle peggiori voragini umanitarie della storia, certamente per la sua diabolica efferatezza, ma anche per il fatto di essere trasmesso in diretta audiovisiva, ovunque, orizzontalmente, e di essere perciò osservabile da chiunque voglia informarsi, e, nonostante questo, non solo non viene fatto quasi nulla per fermarlo, ma si continua ad inviare armi micidiali per la sua perpetuazione. Nella dimensione iperreale in cui siamo immersi, la diffusione in rete di un massacro di bambini palestinesi con droni controllati a distanza coesiste senza difficoltà con le discussioni sui concorsi della canzone spazzatura internazionale, sulle gare sportive o sulle disavventure sentimentali di qualche influencer, in un centrifugato di informazioni e intrattenimento che induce un’ipnosi collettiva assai più efficace della tradizionale censura, poiché elimina alla radice la ricerca di un riferimento reale, rendendo le persone insensibili alla contraddizione, impermeabili al dubbio e in definitiva incapaci di pensare. In questa totale dissonanza cognitiva risiede l’essenza del brutalismo politico e morale che si sta affermando ovunque nelle nostre esistenze collettive, seguendo il quale le nobili istituzioni del mondo libero, agendo come sicari per conto del grande capitale, oggi partecipano attivamente allo sterminio degli “animali umani” palestinesi, ucraini, russi.

Ma l’elemento che vorrei portare ora all’attenzione è il fatto che questo brutalismo dai tratti patologici si incardina perfettamente con il calcolo inconsapevole della cosiddetta intelligenza artificiale, l’insieme delle macchine e dei programmi che incarnano senza soluzione di continuità i dispositivi di morte della guerra robotica e quelli per la “buona gestione” della vita in un numero crescente di ambiti della cosiddetta società civile.

L’attuale escalation militare si inserisce infatti in una più generale escalation tecnologica che già da alcuni decenni per molti suoi aspetti ha i tratti di una vera e propria guerra ibrida contro la vita sulla Terra e contro l’umanità, ed alla quale la farsa pandemica ha impresso una potente accelerazione. Le emergenze che si susseguono ininterrottamente, saltando da una “crisi” all’altra senza soluzione di continuità, sembrano tutte aver ormai adottato una medicina comune: la spinta fanatica alla digitalizzazione di tutto. Emergenza permanente e digitalizzazione sembrano due poli indissociabili che si alimentano a vicenda.

La retorica dei vantaggi e dell’efficienza occulta la vera effettualità di tali trasformazioni, che, nel concreto, anche con l’ausilio delle cosiddette tecnoscienze convergenti (informatica e robotica, nanomateriali, sensoristica, biologia molecolare e computazionale, scienze cognitive, neuro-tecnologie), stanno completando un processo di lungo periodo verso la sistematica esternalizzazione di tutte le funzionalità umane in una congerie di dispositivi e piattaforme qualificati invariabilmente come smart, come a rimarcare il passaggio da qualcosa di imperfetto e inaffidabile, la vita e l’esperienza umana, a qualcosa di controllato ed efficiente. La crescente autorità di tali tutori artificiali si basa su una loro caratteristica, detta apprendimento automatico, che conferisce loro la capacità di amplificare autonomamente le proprie prestazioni e la propria efficacia attraverso la comparazione e la classificazione statistica di un numero enorme e crescente di esempi.

Si cerca in questo modo di realizzare il sogno che la cibernetica rincorre fin dagli anni ’40 del secolo scorso, un programma, tecnico e politico al tempo stesso, per la conservazione dell’ordine industriale, attraverso una buona gestione delle cose che superi definitivamente le incertezze, i difetti, i ritardi, l’imprevedibilità dell’azione umana. Una gestione che implica la progressiva eliminazione del contributo umano dagli accadimenti significativi, insieme alla moltiplicazione di entità evanescenti che ci allevano – in senso zootecnico – e ci tolgono ogni responsabilità. Un sistema di tecnologie il cui rapporto con l’utilizzatore è completamente rovesciato rispetto a quelle tradizionali, e la cui funzione primaria è quella di sottrarci possibilità di azione, e in cui si realizza quindi il rovesciamento del principio di utilità della tecnica in quello di utilità per la tecnica… dalla macchina al servizio dell’uomo, all’uomo come terminale di un dispositivo che lo supera e lo sovrasta.

Ora, nella misura in cui questo sistema basa la sua presunta efficacia sull’assorbimento continuo ed unilaterale di dati che provengono dalla vita reale, il suo efficientamento si misura dal grado di riducibilità dell’esperienza umana ad atti e comportamenti controllati e datificabili. Si innesca così un poderoso processo involutivo di degradazione culturale ed esperienziale, che forza l’umano ad adeguarsi alla ragione artificiale al fine di renderla più efficiente.

Il tipo di controllo sulla popolazione esercitato dalla ragione artificiale si basa essenzialmente su criteri comportamentali, ed implementa il passaggio “obbligato” dall’idea (alla base della ragione liberale) dell’individuo autonomo che prende decisioni razionali per se stesso, senza riferimenti ad alcuna comunanza di natura con altri esseri, a quella di un decisore “situato”, il cui comportamento è in gran parte reso automatico ed influenzato dal suo “ambiente di scelta” (pienamente compatibile con la parodia dell’individualismo dei desideri rivendicati come diritti). L’esercizio del potere, dunque, consiste in grande misura nella formattazione di “ambienti di scelta” e degli strumenti per gestirli.

Spesso, soprattutto da parte dei “diretti interessati”, si paventano rischi esistenziali e minacce di tipo “fantascientifico”, si prefigurano creature artificiali che ci sfuggiranno e si rivolteranno contro di noi, soggiogandoci con la loro superiorità cognitiva. Ma ciò con cui abbiamo a che fare sono piuttosto entità destinate a divenirci aliene, cioè capaci di prendere decisioni in modi e forme autonome e per noi incomprensibili. Il punto chiave è che si sta passando da macchine che supportano compiti e obbiettivi umani, a macchine che simulano intenzioni e decisioni umane attraverso algoritmi predittivi e al tempo stesso del tutto imperscrutabili: neppure gli ingegneri informatici che l’hanno progettata  possono sapere che cosa succede dentro la “scatola nera” di una rete neurale profonda, e dunque come l’algoritmo sia arrivato ad uno specifico risultato. Tutto ciò istituisce una “decisionalità artificiale” alla quale possiamo solo adattarci senza comprenderla, aiutati solo dalla disponibilità incondizionata, dalle sembianze antropomorfiche e dalle caratteristiche ergonomiche dei dispositivi tecnici.

Oggi, con grande rapidità e facilità, vengono rilevate voci, facce, espressioni e stati emotivi delle persone, al fine di profilare e classificare le loro vite per mezzo di algoritmi statistici per prendere poi decisioni sulla loro vita. Sono disponibili software che consentono di decidere sulla base di correlazioni tra dati di ogni tipo, senza alcun riferimento al contesto o al significato, presupponendo la possibilità di prevedere, ad esempio, se un cittadino commetterà un crimine, se un candidato per un impiego sarà abbastanza collaborativo, se uno studente abbandonerà gli studi prima del tempo, se un potenziale debitore restituirà un prestito o se una persona avrà bisogno di una particolare assistenza medica. Una dimensione totalitaria che prefigura una totale inversione dell’onere della prova, reintroducendo un criterio analogo a quello dei processi per stregoneria: si è colpevoli in quanto accusati.

L’intreccio inestricabile di correlazioni significative e correlazioni spurie nei big data (queste ultime derivanti solo dalla numerosità e non dalla natura dei dati), assegna a questo tipo di decisionalità algoritmica una dimensione marcatamente irrazionale, perché basata sull’idea “psicotica” che tutte le connessioni siano significative, indipendentemente dal riconoscimento di nessi causali. Tale caratteristica è strutturale, non è dovuta ad inefficienze o imprecisioni tecnicamente modificabili.

Detto in altri termini, un algoritmo non può propriamente “sbagliarsi” (il che comporterebbe l’inserimento in un contesto linguistico condiviso), dunque non può avere “ragione” o “torto”, ma può mentire, e lo fa spesso, senza tuttavia “sapere” di farlo. Mentire senza sapere di farlo è precisamente ciò che rende la ragione artificiale pericolosa e al tempo stesso paradigmatica del tipo di mondo, iperreale, in cui stiamo entrando.

Su questo piano inclinato, per gli stessi esseri umani la valutazione del peso degli accadimenti e la distinzione tra verità e falsità degli enunciati, divengono sempre più difficili non solo per l’intreccio tra realtà e virtualità, per le contrazioni e i rovesciamenti semantici della lingua corrente, ma soprattutto perché tali distinzioni sono sempre più irrilevanti nella misura in cui la vita si contrae entro “ambienti di scelta” programmabili. Come quando ci si trova in un ambiente di gaming, dove non ha senso approvare o disapprovare la violenza degli ultracorpi che invadono il pianeta terra, perché farlo servirebbe solo a perdere la partita.

Un analogo tipo di decisionalità algoritmica è in atto nella guerra robotica: lo sterminio di esseri umani e la distruzione sistematica e diffusa di abitazioni, servizi e infrastrutture civili in Palestina è perpetrato da Israele attraverso sistemi di IA, noti come The Gospel, Lavender e Where’s Daddy?, che elaborano in tempo reale enormi masse di dati su tutto ciò che vive e si muove su quel territorio, e generano a velocità spaventosa molte centinaia di obiettivi al giorno, assegnando a persone ed edifici un “punteggio” che indica probabili “correlazioni” con Hamas. La guerra “intelligente” dell’IDF è un esperimento genocidario basato su modalità di ottimizzazione automatica che lo rendono, di nuovo, omologo a un videogioco.

L’IA, un prodotto della corsa per la supremazia tecnologica globale durante il secondo conflitto mondiale, torna dunque oggi prepotentemente in guerra, e vi ritrova la sua investitura ideale nell’adempimento di una delle funzionalità strategiche del nostro tempo: la capacità di decidere chi può vivere e chi deve morire, e la conseguente messa in atto di procedure automatizzate di sterminio. L’uccisione e lo sterminio sono operazioni per le quali le tecnologie basate sull’IA, che non pensa ma calcola a velocità astronomica, sono idealmente perfette, e comunque molto più performanti degli esseri umani. In questa prospettiva, il ruolo chiave svolto dall’IA nel processo di escalation tecnologica globale, in atto da oltre un decennio, acquista tutto il suo significato. La potenza computazionale richiesta per addestrare modelli come GPT è inimmaginabilmente grande e dopo la messa a punto sul corpo vivo della società, può essere applicata a produrre morte su scala industriale (e ciò insieme alla spinta transumanista verso l’abbandono dei limiti somatici e temporali dell’animale umano verso una presunta cyber-immortalità). La stessa possibilità di superamento della soglia di deflagrazione di un conflitto terminale per l’umanità potrebbe trasferirsi negli imperscrutabili meandri del monologo interiore di una IA addestrata su miliardi di parametri ma priva di qualunque coscienza. E, quel che è peggio, non si vede alcuna possibilità di fermare questa corsa verso l’automazione dello sterminio, nella misura in cui questa si svolge in condizioni di competizione mortale: se un competitore si ferma gli altri ne trarranno immediato vantaggio.

L’esempio israelo-palestinese, per quanto possa apparire (per ora) estremo, ci aiuta a comprendere come la ragione artificiale operi una sintesi originale tra sterminio e burocrazia, agendo come una forma di colonialismo totalitario sul proprio stesso terreno. In effetti, le stesse dinamiche espansive e colonialiste che hanno caratterizzato le precedenti fasi storiche del dominio occidentale sul mondo, non potendo più esercitarsi sull’esterno (per complesse ragioni economiche e geopolitiche) si rivolgono ora verso il suo interno (anche il cosiddetto “grande reset” promosso dal WEF pare stia mutando traiettoria, e da progetto planetario si sta trasformando in progetto autoritario per il solo Occidente). In tale dinamica il collasso interno del modo di produzione viene subdolamente e sistematicamente negato attraverso la sua proiezione esterna, incarnata da provvidenziali nemici: il virus, il cambiamento climatico, i barbari assetati di sangue democratico e, puntualmente, le misure adottate per farvi fronte dall’attuale capitalismo emergenziale, digitale e autoritario, reiterano, su una scala sempre più granulare, la brutalità coloniale sulla sua stessa popolazione.

Inoltre, la dimensione psicopatica che intesse la strategia del caos dell’egemone USA sui fronti di guerra, inclusa l’attuale determinazione suicida a spingere il conflitto alle soglie dell’olocausto nucleare, non si possono spiegare solo con la necessità di fronteggiare la crisi economica con forme di keynesismo di guerra, come accaduto con il secondo conflitto mondiale, per la semplice ragione che una nuova guerra totale, oltre ad essere gestita e combattuta prevalentemente dalle macchine, non sarebbe un mezzo per distruggere e poi ricostruire, facendo ripartire su nuove basi il meccanismo dell’accumulazione, ma cancellerebbe puramente e semplicemente ogni traccia di vita sul pianeta.

I deliranti assalti propagandistici dell’Occidente, gli esercizi di ferocia a spese degli inermi, le azioni terroristiche contro i civili compiute alla luce del sole, ci dicono piuttosto che la guerra postmoderna non può più essere razionalizzata come la continuazione della politica con altri mezzi, come la vedeva Clausewitz. Proprio come il governo cibernetico delle cose, che anticipa comportamenti e accadimenti sul piano virtuale per poi riproiettarne sulla realtà le conseguenze normative e disciplinari, anche la guerra postmoderna si è emancipata dalla politica, e il suo carattere illimitato e genocidario esprime il venir meno di ogni pensiero strategico in Occidente, a favore di un non-pensiero meramente algoritmico. La dissoluzione del politico, cioè del contesto stesso nel quale si è in grado di stabilire le finalità della guerra, impedisce anche che se ne possa sancire definitivamente l’eventuale superamento. Precisamente, di nuovo, come in un videogioco.

Infine, come si diceva, la stessa dimensione “psicopatica” pervade i dispositivi di selezione e distruzione degli obiettivi nella guerra robotica e i dispositivi di decisionalità ed azione dell’IA predittiva nella vita civile. Il potere e la capacità di decidere chi compirà o reitererà un reato, chi non riuscirà a pagare le tasse o chi avrà bisogno di certe cure mediche, si connette senza soluzione di continuità al potere e alla capacità di decidere chi può vivere e chi deve morire. In questo senso, Gaza rappresenta non una singolarità storica e geopolitica, ma un possibile destino di disumanizzazione che ci attende tutti.

Autore: Stefano Isola vive a Firenze, dov’è nato nel 1959. È professore ordinario di Fisica Matematica presso l’Università di Camerino, ed è autore di numerose pubblicazioni scientifiche su temi di sistemi dinamici, probabilità, teoria ergodica, epistemologia, storia della scienza e teoria musicale, nonché di alcuni libri e saggi divulgativi di storia e critica sociale. Ha svolto anche attività di editore, agricoltore, musicista e compositore.

Disponibile in Amazon e IBS.it Libreria online https://www.asterios.it/catalogo/fin-di-bene-il-nuovo-potere-della-ragione-artificiale