Le politiche e le istituzioni pubbliche dovrebbero essere progettate per garantire che le innovazioni stiano migliorando il mondo; ma per come stanno le cose, molte tecnologie vengono implementate nel vuoto, con i progressi dell’intelligenza artificiale che sollevano una bandiera rossa dopo l’altra. L’era dell’autoregolamentazione leggera deve finire.
Il mondo della tecnologia ha generato una nuova abbondanza di notizie in prima pagina nel 2022. A ottobre, Elon Musk ha acquistato Twitter – una delle principali piattaforme di comunicazione pubblica utilizzate da giornalisti, accademici, aziende e responsabili politici – e ha proceduto a licenziare la maggior parte del suo personale di moderazione dei contenuti, indicando che l’azienda si affiderebbe invece all’intelligenza artificiale.
Quindi, a novembre, un gruppo di dipendenti di Meta ha rivelato di aver ideato un programma di intelligenza artificiale in grado di battere la maggior parte degli umani nel gioco di strategia Diplomacy. A Shenzhen, in Cina, i funzionari stanno utilizzando i ” gemelli digitali ” di migliaia di dispositivi mobili connessi al 5G per monitorare e gestire i flussi di persone, il traffico e il consumo di energia in tempo reale. E con l’ultima iterazione del modello di previsione della lingua di ChatGPT, molti stanno dichiarando la fine del saggio universitario.
In breve, è stato un anno in cui le già serie preoccupazioni su come le tecnologie vengono progettate e utilizzate si sono approfondite in dubbi ancora più urgenti. Chi comanda qui? Chi dovrebbe essere responsabile? Le politiche e le istituzioni pubbliche dovrebbero essere progettate per garantire che le innovazioni stiano migliorando il mondo, eppure molte tecnologie vengono attualmente utilizzate nel vuoto. Abbiamo bisogno di strutture di governance inclusive orientate alla missione che siano incentrate su un vero bene comune. Governi capaci possono dare forma a questa rivoluzione tecnologica per servire l’ interesse pubblico .
Si consideri l’intelligenza artificiale, che l’Oxford English Dictionary definisce ampiamente come “la teoria e lo sviluppo di sistemi informatici in grado di eseguire compiti che normalmente richiedono intelligenza umana, come la percezione visiva, il riconoscimento vocale, il processo decisionale e la traduzione tra lingue”. L’intelligenza artificiale può migliorare le nostre vite in molti modi. Può migliorare la produzione e la gestione degli alimenti, rendendo l’agricoltura più efficiente e migliorando la sicurezza alimentare. Può aiutarci a rafforzare la resilienza contro i disastri naturali , progettare edifici ad alta efficienza energetica , migliorare l’accumulo di energia e ottimizzare la diffusione delle energie rinnovabili . E può migliorare l’accuratezza della diagnostica medica se combinata con le valutazioni dei medici.
Queste applicazioni renderebbero la nostra vita migliore in molti modi. Ma senza regole efficaci in atto, è probabile che l’IA crei nuove disuguaglianze e amplifichi quelle preesistenti. Non è necessario guardare lontano per trovare esempi di sistemi basati sull’intelligenza artificiale che riproducono pregiudizi sociali sleali . In un recente esperimento , i robot alimentati da un algoritmo di apprendimento automatico sono diventati apertamente razzisti e sessisti. Senza una migliore supervisione, gli algoritmi che dovrebbero aiutare il settore pubblico a gestire i benefici del welfare possono discriminare le famiglie che ne hanno davvero bisogno. Altrettanto preoccupante, le autorità pubbliche in alcuni paesi stanno già utilizzando la tecnologia di riconoscimento facciale basata sull’intelligenza artificiale per monitorare il dissenso politico e sottoporre i cittadini a regimi di sorveglianza di massa.
Anche la concentrazione del mercato è una delle principali preoccupazioni. Lo sviluppo dell’IA — e il controllo dei dati sottostanti — è dominato solo da pochi giocatori potenti in poche località. Tra il 2013 e il 2021, la Cina e gli Stati Uniti hanno rappresentato l’ 80% degli investimenti privati nell’IA a livello globale. Ora c’è un enorme squilibrio di potere tra i proprietari privati di queste tecnologie e il resto di noi.
Ma l’intelligenza artificiale viene potenziata anche da massicci investimenti pubblici . Tale finanziamento dovrebbe essere governato per il bene comune, non nell’interesse di pochi. Abbiamo bisogno di un’architettura digitale che condivida in modo più equo i frutti della creazione di valore collettivo . L’era dell’autoregolamentazione leggera deve finire. Quando permettiamo al fondamentalismo di mercato di prevalere, lo Stato e i contribuenti sono condannati a venire in soccorso a posteriori (come abbiamo visto nel contesto della crisi finanziaria del 2008 e della pandemia di COVID-19), di solito a caro prezzo e con cicatrici sociali di lunga durata. Peggio ancora, con l’IA non sappiamo nemmeno se basterà un intervento ex post . Come ha recentemente sottolineato The Economist, gli stessi sviluppatori di intelligenza artificiale sono spesso sorpresi dalla potenza delle loro creazioni.
Fortunatamente, sappiamo già come evitare un’altra crisi indotta dal laissez-faire. Abbiamo bisogno di una missione di intelligenza artificiale “etica fin dalla progettazione” che sia sostenuta da una solida regolamentazione e da governi capaci che lavorino per dare forma a questa rivoluzione tecnologica nell’interesse comune, piuttosto che solo nell’interesse degli azionisti. Con questi pilastri in atto, il settore privato può e vuole unirsi allo sforzo più ampio per rendere le tecnologie più sicure ed eque.
Un controllo pubblico efficace dovrebbe garantire che la digitalizzazione e l’IA creino opportunità per la creazione di valore pubblico. Questo principio è parte integrante della Raccomandazione dell’UNESCO sull’etica dell’IA , un quadro normativo adottato da 193 Stati membri nel novembre 2021. Inoltre, gli attori chiave si stanno ora assumendo la responsabilità di riformulare il dibattito, con l’amministrazione del presidente degli Stati Uniti Joe Biden che propone un disegno di legge sull’IA dei diritti e l’Unione europea che sviluppa un quadro olistico per governare l’IA.
Tuttavia, dobbiamo anche mantenere gli usi dell’IA da parte del settore pubblico su una solida base etica. Con l’intelligenza artificiale che supporta sempre più processi decisionali, è importante garantire che i sistemi di intelligenza artificiale non vengano utilizzati in modi che sovvertono la democrazia o violano i diritti umani.
Dobbiamo anche affrontare la mancanza di investimenti nelle capacità innovative e di governance del settore pubblico. COVID-19 ha sottolineato la necessità di capacità più dinamiche del settore pubblico . Ad esempio, senza solidi termini e condizioni che disciplinino i partenariati pubblico-privati, le aziende possono facilmente cogliere l’agenda.
Il problema, tuttavia, è che l’ esternalizzazione degli appalti pubblici è diventata sempre più un ostacolo allo sviluppo delle capacità del settore pubblico. I governi devono essere in grado di sviluppare l’intelligenza artificiale in modo da non dipendere dal settore privato per i sistemi sensibili, in modo da poter mantenere il controllo su prodotti importanti e garantire il rispetto degli standard etici. Allo stesso modo, devono essere in grado di supportare la condivisione delle informazioni e protocolli e metriche interoperabili tra dipartimenti e ministeri. Tutto ciò richiederà investimenti pubblici nelle capacità del governo, seguendo un approccio orientato alla missione .
Dato che così tante conoscenze ed esperienze sono ora concentrate nel settore privato, le sinergie tra il settore pubblico e quello privato sono inevitabili e auspicabili. L’orientamento alla missione riguarda la scelta dei volenterosi, co-investendo con partner che riconoscono il potenziale delle missioni guidate dal governo. La chiave è dotare lo stato della capacità di gestire il modo in cui i sistemi di intelligenza artificiale vengono implementati e utilizzati, piuttosto che giocare sempre al recupero. Per condividere i rischi e i benefici degli investimenti pubblici, i responsabili politici possono associare condizioni al finanziamento pubblico. Inoltre possono, e dovrebbero, richiedere a Big Tech di essere più aperta e trasparente .
È in gioco il futuro delle nostre società. Non dobbiamo solo risolvere i problemi e controllare i rischi al ribasso dell’IA, ma anche definire la direzione della trasformazione digitale e dell’innovazione tecnologica in senso più ampio. All’inizio di un nuovo anno, non c’è momento migliore per iniziare a gettare le basi per un’innovazione senza limiti nell’interesse di tutti.
Le autrici: Gabriela Ramos è vicedirettrice generale per le scienze sociali e umane presso l’UNESCO. Mariana Mazzucato, Professore di Economia dell’Innovazione e Valore Pubblico presso l’University College di Londra, è Direttrice Fondatrice dell’UCL Institute for Innovation and Public Purpose , Presidente del Consiglio dell’Organizzazione Mondiale della Sanità sull’Economia della Salute per Tutti , e co-presidente delCommissione globale sull’economia dell’acqua . È autrice di The Value of Everything: Making and Taking in the Global Economy (Penguin Books, 2019), The Entrepreneurial State: Debunking Public vs. Private Sector Myths (Penguin Books, 2018) e, più recentemente, Mission Economy: Una guida Moonshot per cambiare il capitalismo (Penguin Books, 2022).
Fonte: Project Syndicate, 26-12-2022
https://www.asterios.it/catalogo/ia-intelligenza-artificiale