Come proteggersi dall’intelligenza artificiale dannosa?

 

Di fronte alla grande confusione del discorso sugli usi malevoli dell’IA, che oscilla tra disinvolta disattenzione e previsioni apocalittiche, è fondamentale avviare una riflessione più rigorosa sui rischi penali legati alle diverse forme di sfruttamento abusivo dell’IA e ai danni che causeranno agli individui e alla società.

L’ondata di annunci quotidiani sugli ultimi progressi tecnici compiuti dai giganti dell’intelligenza artificiale o la disponibilità al grande pubblico di modelli generativi tanto versatili quanto potenti delineano i contorni di profonde trasformazioni in campi diversi come l’istruzione, il lavoro, la salute, l’intrattenimento e il commercio.

Il fenomeno storico della coevoluzione tra delinquenza e tecnologia implica quindi che l’intelligenza artificiale rappresenterà inevitabilmente una tecnologia dirompente per gli attori malintenzionati, che troveranno in essa risorse preziose per amplificare i profitti criminali generati dal crimine informatico. Anche il miliardario americano Warren Buffett si è detto preoccupato di questo sviluppo nel suo ultimo rapporto agli azionisti della società di investimento Berkshire Hathaway, affermando che le frodi basate sull’intelligenza artificiale potrebbero diventare l’industria più redditizia di tutti i tempi .

Se i problemi etici sollevati dai pregiudizi inerenti all’intelligenza artificiale e dalla sua propensione a riprodurre la discriminazione sociale hanno finora catturato l’attenzione, le questioni legate alla sicurezza appaiono più chiaramente, stemperando gli immensi guadagni attesi. Come per molte altre tecnologie, i benefici promessi si concretizzeranno solo se i rischi associati potranno essere efficacemente controllati. L’equilibrio instabile che questo tipo di tensione genera è familiare a settori come il trasporto aereo, l’industria nucleare o le aziende farmaceutiche.

Tuttavia, c’è ancora molta confusione nel discorso sui rischi derivanti da usi malevoli dell’IA, che oscillano tra la tranquillizzante spensieratezza dei colossi del settore , monopolizzati dalla conquista di quote di mercato che garantiscono loro una redditività ancora sfuggente, da un lato e, dall’altro, le previsioni apocalittiche degli esperti che sollevano lo spettro di un’estinzione della specie umana da parte di una superintelligenza artificiale ribelle entro la fine del secolo.

In questo contesto, è quindi fondamentale avviare una riflessione più rigorosa sui rischi penali legati alle diverse forme di sfruttamento abusivo dell’IA e sui danni che arrecheranno alle persone e alla società. Ciò consentirà di andare oltre le opinioni basate su semplici aneddoti, per quanto edificanti, e di sviluppare così una riflessione sistemica e strade di risposta che vadano oltre le mere considerazioni tecniche e siano capaci di tenere conto anche dei rischi “orfani” che gravano popolazioni più vulnerabili e minore copertura mediatica.

Il cybercrime rappresenta infatti un vero e proprio ecosistema socio-tecnico, formato da entità organizzate in tre comunità: una comunità industriale che tende a favorire l’innovazione a scapito della sicurezza del consumatore, una comunità delinquenziale che sfrutta le numerose vulnerabilità aperte dalla negligenza dei primi, e una comunità di sicurezza diversificata che cerca di adattarsi alle innovazioni criminali. Le interazioni tra queste entità e queste comunità sono regolate da rapporti di competizione, predazione e cooperazione che formano configurazioni varie e in continua evoluzione [1] . L’adozione di questo quadro analitico ci consente di distinguere quattro configurazioni principali in cui l’uso dannoso dei sistemi di intelligenza artificiale produce rischi e danni specifici che richiedono misure di prevenzione e mitigazione differenziate.

 

Quattro configurazioni di IA dannosa: una gradazione di rischi e danni

In questa fase preliminare delle nostre conoscenze, la tipologia più utile è quella che utilizza come criterio principale le vittime prese di mira dagli usi dannosi dell’IA e l’entità del danno causato. Altri sforzi per identificare e classificare i rischi per la sicurezza hanno preferito concentrarsi sulla loro natura tangibile o immateriale, nonché sulla loro manifestazione immediata o futura [2] , ma concentrarsi sui diversi livelli di vittimizzazione consente di considerare meglio gli interventi preventivi richiesti. Dal basso verso l’alto, vediamo che i rischi e i danni causati da usi dannosi dei sistemi di intelligenza artificiale si fanno sentire su scala individuale, organizzativa, comunitaria e infine sistemica.

In primo luogo, gli strumenti di intelligenza artificiale generativa sono sempre più utilizzati dai truffatori contro le singole vittime per manipolarle attraverso hyperfake che consentono di clonare la voce o l’immagine di una persona cara o di una celebrità amata: i nonni ricevono chiamate di soccorso dai nipoti che glielo chiedono per trasferire ingenti somme di denaro per farli uscire di prigione o liberarli da un rapimento immaginario, gli utenti di un sito di incontri online interagiscono con avatar fisicamente attraenti che li convincono a investire i propri risparmi in investimenti dubbi, o addirittura gli investitori sconsiderati vengono indirizzati verso le piattaforme con rendimenti colossali dopo aver visto video di personalità sui social media (Elon Musk, il primo ministro Trudeau in Canada, il governatore della banca centrale della Romania, ecc.) che sostengono inconsapevolmente questi investimenti fraudolenti.

La produzione e distribuzione di immagini pornografiche non consensuali mediante applicazioni false rappresenta un’altra fonte di vittimizzazione individuale. I casi che coinvolgono star famose come Taylor Swift sono stati ampiamente pubblicizzati negli ultimi mesi, ma questa dura prova colpisce anche milioni di donne e adolescenti che vengono molestati e umiliati pubblicamente. In un recente sondaggio condotto su 1.636 adulti francesi nel 2023, l’1% del campione ha affermato che immagini o video di pornografia non consensuale che li raffigurano sono stati prodotti utilizzando strumenti di intelligenza artificiale e lo 0,8% degli intervistati indica che sono stati distribuiti o diffusi iperfake pornografici non consensuali. condiviso tramite media digitali [3] .

Anche se questa cifra può sembrare minima, rappresenta tuttavia quasi 420.000 vittime ogni anno, che nel 99% dei casi sono anche donne , il che evidenzia la profonda disuguaglianza di genere di fronte a questa piaga. La produzione di queste immagini non consensuali è molto facilitata dalla disponibilità di centinaia di applicazioni scaricabili dagli “app store” dei colossi digitali che permettono di posizionare un volto su un corpo nudo in pochi clic e senza alcuna competenza tecnica. Ciò spiega quindi, sempre secondo l’indagine sopra citata, che lo 0,6% del campione potrebbe dichiarare di aver prodotto e condiviso pornografia non consensuale in Francia nel 2023, che rappresenta più di 310.000 persone.

Le organizzazioni pubbliche e private costituiscono il secondo gruppo di bersagli preferiti per gli autori malintenzionati dell’IA: gli hyperfake vengono innanzitutto utilizzati per rafforzare la credibilità delle truffe del “falso presidente”, in cui i dipendenti vengono manipolati da truffatori che si fingono membri dell’alta dirigenza per avviare ordini di trasferimento ai conti esteri da loro controllati. Un caso particolarmente di alto profilo è quello di questa contabile di Hong Kong che ha trasferito 26 milioni di dollari a dei truffatori , dopo aver partecipato a una riunione su Zoom in cui era convinta di ricevere queste istruzioni direttamente dal direttore finanziario dell’azienda (con sede nel Regno Unito) e da mezzo dozzina di altri colleghi, i cui volti e le cui voci erano stati interamente ricreati da strumenti di intelligenza artificiale a partire da video disponibili su Internet.

L’intelligenza artificiale rischia inoltre di indebolire i processi di autenticazione di dipendenti e clienti all’interno delle organizzazioni, con la rapida diffusione di strumenti che creano copie molto realistiche di falsi documenti di identità o filtri video che consentono lo scambio di volti . L’intelligenza artificiale probabilmente aumenterà artificialmente le capacità tecniche degli hacker aiutandoli a programmare nuovi malware che gli strumenti di sicurezza tradizionali avranno difficoltà a rilevare, perché mai osservati prima, o rendendo accessibile a tutti la creazione di sofisticate campagne di phishing o ransomware ad alte prestazioni . Dall’avvento degli strumenti di intelligenza artificiale generativa, il volume delle email di phishing è aumentato del 1.265% . Infine, le organizzazioni che utilizzano sistemi di intelligenza artificiale dovranno proteggersi dagli aggressori che cercheranno di avvelenare questi strumenti per estrarre informazioni sensibili come dati personali o proprietà intellettuale (brevetti, strategie aziendali, ecc.).

In quest’anno in cui l’intero pianeta sembra andare alle urne, il terzo livello di rischio deriva dal danno che la disinformazione provoca alla coesione sociale delle comunità. La velocità con cui gli strumenti di intelligenza artificiale generativa consentono di creare da zero contenuti credibili, scioccanti e accattivanti, li rende un potente motore di persuasione di massa, alimentando sfiducia, dubbio e apatia all’interno delle società prese di mira. Se le potenzialità dei video di hyperfaking sono note da diversi anni, senza che se ne osservasse un uso diffuso da parte degli attori della disinformazione , il crollo dei costi di produzione causato dalla proliferazione di strumenti di intelligenza artificiale consumer ad alte prestazioni, nonché di modelli disponibili in open source, è in il processo di democratizzazione di questa pratica.

L’intelligenza artificiale non viene utilizzata solo per produrre video completamente fittizi: può anche personalizzare i contenuti in base ai destinatari e automatizzare un coinvolgimento più profondo con loro , o generare rapidamente testo e commenti ai post sui social media in più lingue, rendendo le attività di disinformazione molto più persuasive e difficili da comprendere. rilevare. Nel maggio 2024 la società OpenAI ha inoltre rivelato di aver rilevato e interrotto campagne di influenza portate avanti da interessi cinesi, russi, nordcoreani e israeliani utilizzando il suo strumento ChatGPT. Questa industrializzazione della produzione di notizie false facilitata dall’intelligenza artificiale significa che nel giugno 2024 c’erano più siti di notizie locali fraudolenti che siti legittimi negli Stati Uniti .

Il quarto e ultimo livello di rischio dannoso è di natura sistemica. Comprende tutte le configurazioni ancora molto prospettiche in cui i sistemi di intelligenza artificiale avrebbero raggiunto un tale livello di autonomia e coscienza (la famosa intelligenza artificiale generale), da essere in grado di prendere decisioni e avviare azioni che potrebbero andare contro gli interessi dell’umanità e minacciano la sopravvivenza stessa della nostra specie. Ciò potrebbe, ad esempio, assumere la forma di una catastrofica destabilizzazione dei mercati finanziari, della distruzione di infrastrutture critiche di distribuzione dell’elettricità o dell’acqua potabile o addirittura della creazione di agenti patogeni devastanti. Uno studio recente che dimostra che alcuni sistemi di intelligenza artificiale possono utilizzare l’inganno per raggiungere i propri obiettivi senza che gli venga chiesto esplicitamente di utilizzare questa strategia contribuisce ad alimentare i timori di una perdita di controllo su questa tecnologia [4] .

Sebbene la maggioranza degli esperti concordi nel ritenere queste ipotesi altamente improbabili, alcune voci influenti, come quella di uno dei padrini del deep learning, Yoshua Bengio, sono molto più allarmiste, chiedendo addirittura una moratoria sullo sviluppo di IA sempre più potenti strumenti [5] . In uno studio condotto nel 2023 con esperti di intelligenza artificiale, si stima che le probabilità di una completa estinzione dell’umanità causata dall’intelligenza artificiale entro il 2100 siano del 3% e che quelle di un disastro che causi la morte del 10% degli esseri umani siano del 12%. Tuttavia, un gruppo di superforecaster a cui è stato chiesto di considerare gli stessi rischi si è rivelato molto meno pessimista, con probabilità rispettivamente dello 0,38% e del 2,13% [6] . Una spiegazione di questa variazione è che gli esperti tendono a sovrastimare i rischi a cui dedicano la loro vita professionale.

https://www.asterios.it/catalogo/fin-di-bene-il-nuovo-potere-della-ragione-artificiale

Rispondi razionalmente piuttosto che emotivamente

Questo entusiasmo per i rischi tecnici relativamente improbabili è accompagnato da un’apparente indifferenza per usi dannosi già molto reali che probabilmente conosceranno una crescita esponenziale nei prossimi anni. La tipologia presentata sopra ci consente quindi di focalizzare nuovamente la nostra attenzione sui bisogni attuali piuttosto che sui sogni futuri, concentrandoci più in profondità sulle configurazioni socio-tecniche che sono interessate da questi rischi. Ciò comporta tre implicazioni pratiche in termini di risposte istituzionali per preparare la società a questa imminente pandemia di IA dannosa.

In primo luogo, per tenere meglio conto della diversità degli attori che utilizzano l’IA dannosa, delle loro motivazioni e dei loro livelli di competenza, nonché dei tipi di vittime e della natura del danno subito, risulta essenziale una maggiore mappatura e modellizzazione della gestione sistematica del rischio. Consentiranno di identificare per ciascuna configurazione di usi dannosi le strategie di risposta più adeguate, i servizi pubblici più idonei a gestirli, gli intermediari del settore privato più idonei a supportarli e gli indicatori più affidabili per valutare l’efficacia delle misure che sono stati implementati. Sono infatti emerse iniziative relative allo sviluppo di sistemi di IA sicuri o all’integrità del dibattito democratico , ma rimangono ancora vincolate da logiche settoriali e non consentono di formare una visione complessiva del problema.

https://www.asterios.it/catalogo/ia-intelligenza-artificiale

Inoltre, dipendiamo ancora da resoconti mediatici molto frammentati e aneddotici di questi rischi emergenti, che favoriscono interpretazioni sensazionalistiche e ansiogene a scapito di metodologie più rigorose ancorate alla tradizione scientifica. Potremmo – e dovremmo – fare molto di più, creando unità di monitoraggio o osservatori che riuniscano analisti governativi, rappresentanti dell’industria e ricercatori di discipline tecniche, nonché delle scienze sociali e umanistiche. Questi gruppi di competenze si baserebbero su diverse fonti di dati che permetterebbero di monitorare l’evoluzione di questi rischi e mobiliterebbero strumenti di previsione altrettanto diversi come il Red Teaming , la progettazione speculativa ( design fiction ) o la previsione della minaccia ( threachcasting ) per immaginare adeguate risposte.

Questa conoscenza più dettagliata dei rischi consentirebbe poi di proporre un’architettura normativa più agile e scaglionata, basata su sistemi di varia intensità (dai semplici incentivi alle misure coercitive più restrittive) e non affidandosi esclusivamente a leggi e all’adozione di misure coercitive. nuove leggi, ma anche sullo sfruttamento sapiente dei meccanismi di mercato, sulla diffusione di nuovi standard tecnici, o anche sulla promozione di nuove norme di comportamento [7] . Senza presupporre la sua struttura finale, questa architettura sarebbe più efficace se potesse fare affidamento su un’autorità di meta-regolamentazione della sicurezza dell’IA in grado di coordinare e armonizzare le azioni disperse delle autorità di regolamentazione esistenti.

Infine, al di là delle risposte derivanti dalle iniziative statali e da una maggiore responsabilità dei giganti digitali, sarà essenziale garantire la più ampia diffusione possibile delle conoscenze sull’IA dannosa al fine di sensibilizzare i decisori politici, gli imprenditori e la popolazione all’emergere di queste nuovi rischi e le loro particolarità. Sarà fondamentale calibrare i messaggi affinché non suscitino paure controproducenti, pur essendo sufficientemente concreti e accessibili da favorire l’adozione di misure di protezione efficaci e di facile attuazione. Sarà inoltre essenziale mettere a disposizione del pubblico strumenti gratuiti per rilevare usi dannosi dell’intelligenza artificiale e mitigare i danni.

In altre parole, qualsiasi nazione che rivendica lo status di leadership nel campo dell’intelligenza artificiale dovrà anche dotare i propri cittadini e le proprie imprese di adeguati sistemi di resilienza informatica di fronte alla proliferazione dei rischi per la sicurezza inerenti a questa tecnologia dirompente. Di fronte alla complessità di un simile compito, solo un approccio ecosistemico sarà in grado di generare le soluzioni richieste.

Note

[1] Dupont, Benoît (2024), Cybercrime: approccio ecosistemico allo spazio digitale. Dunod: Parigi.

[2] Hoffmann, Mia e Heather Frase (2023), Aggiunta di struttura al danno dell’intelligenza artificiale: un’introduzione all’AI Harm Framework di CSET . Centro per la sicurezza e le tecnologie emergenti: Washington.

[3] Umbach, Rebecca, Beard, Gemma, Henry, Nicola e Colleen Berryessa (2024), Immagini intime sintetiche non consensuali: prevalenza, atteggiamenti e conoscenza in 10 paesi, Atti della conferenza CHI sui fattori umani nei sistemi informatici ,

[4] Park, Peter, Goldstein, Simon, O’Gara, Aidan, Chen, Michael e Dan Hendrycks (2024), Inganno dell’intelligenza artificiale: un’indagine su esempi, rischi e potenziali soluzioni, Patterns , 5

[5] Bengio, Yoshua (2023), AI e rischio catastrofico, Journal of Democracy , 34

[6] Karger, Ezra et al. (2023), Previsione dei rischi esistenziali: prove da un torneo di previsione a lungo termine , Forecasting Research Institute: Sacramento.

[7] Braithwaite, John (2011), The essence of responsive adjustment, UBC Law Review , 44 (3): 475-520; Lessig, Lawrence (2006) Versione del codice 2.0 , Libri di base: New York.

Autore: Benoit Dupont è un Criminologo, professore all’Università di Montreal, titolare della Canada Research Chair in Cybersecurity.


https://www.asterios.it/catalogo/la-mente-umana-e-la-mente-artificiale