Intelligenza Artificiale. OpenAI, una storia in tre fasi

L’eco incontrato dal lancio di ChatGPT nel novembre 2022 è venuto a sottolineare la posizione centrale occupata da OpenAI nel panorama contemporaneo della ricerca sull’intelligenza artificiale. Eppure la storia dell’organizzazione fondata sotto l’egida di noti investitori e imprenditori della Silicon Valley rimane in gran parte sconosciuta. Interessarsi è tanto più necessario in quanto la singolare traiettoria di OpenAI non è meno rivelatrice di tendenze più ampie relative all’orientamento scientifico, economico e ideologico delle startup e delle grandi aziende dell’industria digitale.

L’analisi congiunta di una serie di fonti documentarie associate a OpenAI (pubblicazioni scientifiche, post di blog, articoli di stampa, documentazione tecnica, video dimostrativi, repository GitHub, profili di social media) consente di rendere conto della progressiva evoluzione degli sforzi di ricerca e ingegneria dell’organizzazione: nei primi giorni successivi alla sua fondazione nel dicembre 2015, questi sforzi si concentrano principalmente sulla robotica e sull’apprendimento per rinforzo, uno dei tre principali paradigmi di apprendimento macchina noto come “deep” (deep learning) con apprendimento supervisionato e la sua controparte non supervisionata [ 1 ]; successivamente, l’intervallo 2018-2021 corrisponde a un periodo cruciale per la strategia industriale di OpenAI, il cui posizionamento economico, scientifico e ideologico sarà ora pienamente allineato con l’obiettivo prioritario di sviluppare e implementare modelli di grandi dimensioni; infine, la svolta degli anni 2020 sembra dare inizio a un terzo momento in cui, per affrontare i limiti e gli eccessi di questi stessi modelli, la struttura californiana riunisce i risultati dei due periodi precedenti attorno a questioni di sicurezza e “allineamento”.

Questa prima fase si apre con l’annuncio, nel dicembre 2015, della creazione dell’organizzazione no-profit OpenAI Inc. nel penultimo giorno di una delle principali conferenze scientifiche sull’intelligenza artificiale, Neural Information Processing Systems (NeurIPS), tenutasi a Montreal quell’anno. La formalizzazione dell’esistenza dell’organizzazione segue diversi mesi di intense discussioni e negoziazioni tra diverse figure importanti della Silicon Valley, fucina di innovazione tecnologica negli Stati Uniti [2]. Una sera di luglio 2015, Sam Altman, allora presidente dell’acceleratore di startup YC Combinator, organizza una cena al Rosewood Sand Hill Hotel, situato vicino alla Stanford University e sede di importanti aziende digitali come Google o Meta.

Un amico di lunga data di Sam Altman, il miliardario Elon Musk incontra lì Greg Brockman, CTO di Stripe — una startup di elaborazione dei pagamenti online che ha attraversato il programma di incubazione YC Combinator — così come diversi specialisti di intelligenza artificiale tra cui Ilya Sutskever, ricercatore presso Google Brain ed ex dottorando di uno dei “tre padri fondatori del deep learning”: Geoffrey Hinton [3] .

Uniti dalla paura dell’avvento dell’Artificial General Intelligence (AGI) e dalla frustrazione per la mancanza di apertura dei colossi del settore (Google, Microsoft, Meta), Musk e Altman hanno incaricato Brockman di reclutare un team di ricercatori e ingegneri per formare il cuore della futura organizzazione.

Poco pratico della ricerca in intelligenza artificiale, Brockman si è poi rivolto a Yoshua Bengio, fondatore del Quebec Institute of Artificial Intelligence (Mila) e altro pioniere del deep learning, per stilare una lista in cui ritroviamo alcuni membri fondatori del team di ricerca OpenAI , tra cui: Andrej Karpathy, uno studente di dottorato della Stanford University che verrà successivamente reclutato dallo stesso Elon Musk per diventare il capo della ricerca sull’intelligenza artificiale di Tesla, prima di tornare finalmente in OpenAI nel febbraio 2023; Durk Kingma, famoso per aver introdotto un nuovo tipo di modelli generativi , codificatori automatici variazionali e l’algoritmo di ottimizzazione di Adam, il cui articolo è ormai citato più di 140.000 volte; John Schulman, allora studente di dottorato presso l’Università della California, ha assunto un ruolo guida nella ricerca sull’apprendimento per rinforzo all’interno di OpenAI, in particolare proponendo l’algoritmo di ottimizzazione della politica prossimale utilizzato per InstructGPT o ChatGPT.

Nel novembre 2015, un mese prima del lancio ufficiale di OpenAI, Brockman ha riunito i principali candidati per una giornata in un vigneto della Napa Valley, regione californiana rinomata per i suoi vini fin dal XIX secolo, per convincere gli ultimi indecisi, e ai quali lascia altre tre settimane di riflessione. Piuttosto che cercare di eguagliare gli stipendi delle aziende concorrenti [4] , il trio dietro al progetto – Elon Musk, Sam Altman e Greg Brockman – sottolinea le ambizioni di trasparenza, condivisione e apertura della futura organizzazione no-profit. Il post del blog annunciando la creazione di OpenAI afferma: “I ricercatori saranno fortemente incoraggiati a pubblicare il proprio lavoro, che si tratti di articoli, post di blog o codice, e i nostri brevetti (se presenti) saranno condivisi con il mondo. Collaboreremo liberamente con altri attraverso molte istituzioni e speriamo di lavorare con le aziende per condurre ricerche e implementare nuove tecnologie “.

I tentativi di reclutamento di Brockman, uniti a questa posizione apertamente diretta contro i protagonisti dominanti nella ricerca sull’intelligenza artificiale, li hanno portati a reagire: da un lato, all’inizio di novembre 2015, Google ha concesso in licenza Apache 2.0 della sua libreria TensorFlow, precedentemente riservata per uso interno, come Facebook annuncia la disponibilità del design server chiamato “Big Sur” all’inizio di dicembre; d’altra parte, i ricercatori e gli ingegneri avvicinati da Brockman riceveranno una moltitudine di offerte di lavoro o aumenti di stipendio dai principali futuri concorrenti di OpenAI. Queste proposte, alcune delle quali fatte durante la conferenza NeurIPS stessa, sarebbero state tali che l’annuncio della creazione di OpenAI sarebbe stato finalmente rinviato a venerdì 11 dicembre, in ritardo rispetto alla data inizialmente prevista. Interrogato da un giornalista di Wired , il ricercatore Wojciech Zaremba riporta così proposte da due a tre volte superiori a quelle che un giovane dottorando in informatica della New York University poteva aspettarsi.

Tuttavia, ciò non impedisce il lancio della Onlus, strutturata attorno a due presidenti (Elon Musk e Sam Altman), un direttore tecnico (Greg Brockman), un direttore della ricerca (Ilya Sutskever), un team affiatato di ricercatori e ingegneri e alcuni consulenti esterni (Yoshua Bengio, Peter Abbeel). Allo stesso tempo, OpenAI beneficia di un finanziamento di un miliardo di dollari da parte di un gruppo di investitori e venture capitalist: oltre al trio già citato (Elon Musk, Sam Altman, Greg Brockman), troviamo il co-fondatore di LinkedIn (Reid Hoffman), co-fondatore di PayPal e Palantir (Peter Thiel), co-fondatore di YC Combinator (Jessica Livingston),

Dietro le motivazioni addotte durante la creazione di OpenAI, tra i rischi posti dall’avvento delle intelligenze artificiali cosiddette “forti” e l’opacità delle grandi aziende digitali, i due presidenti, Elon Musk e Sam Altman, potrebbero avere anche più diretti interessi sull’esito di questo progetto: le aziende guidate dalla prima (Tesla e SpaceX) e quelle supportate dalla seconda attraverso YC Combinator, di cui è presidente fino al 2019, saranno in prima linea per integrare nei propri prodotti e servizi i sistemi di intelligenza artificiale sviluppati all’interno della nuova struttura, che in cambio potrebbero beneficiare di un accesso privilegiato a determinati dati da parte di queste stesse società.

Il trasferimento a San Francisco fa parte di una crescente dinamica di strutturazione organizzativa e ideologica del collettivo di gestione durante i due anni successivi alla creazione di OpenAI.

Riunitosi prima nell’appartamento di Greg Brockman, il piccolo team di ricerca OpenAI migrerà poi negli attuali locali dell’organizzazione, situati nello stesso edificio storico — il Pioneer Building — a San Francisco della società Neuralink co-fondata da Elon Musk. Il piano terra ospita spazi comuni (caffetteria e bar self-service) e sale riunioni di varie dimensioni, mentre i due piani superiori ospitano le aree di sperimentazione della robotica e gli uffici dei dipendenti, a cui si accede dalla scala centrale che lo stesso Sam Altman avrebbe progettato così che tutti possano incrociarsi regolarmente lì. L’influenza di Altman si ritrova anche nel design della biblioteca dell’organizzazione, che ricorda sia le sue librerie parigine preferite sia la Bender Room della biblioteca della Stanford University che ha visitato quando era studente lì. Questa mossa è più in generale parte di una crescente dinamica di strutturazione organizzativa e ideologica del collettivo di gestione, ricerca e ingegneria durante i due anni successivi alla creazione di OpenAI.

Oltre alle nuove assunzioni in aggiunta ai soci fondatori di OpenAI [5] , con 45 dipendenti a inizio 2017, questa dinamica prevede la redazione di uno statuto interno, pubblicato ad aprile 2018, che ribadisce l’obiettivo principale dell’organizzazione – l’emergere di un’AGI benefica per l’intera umanità [6] – formulando quattro principi da seguire: la più ampia distribuzione possibile dei benefici degli attuali sistemi di intelligenza artificiale e della futura AGI; assistenza a qualsiasi organizzazione suscettibile di portare all’AGI entro un periodo di due anni; ricerca all’avanguardia sulle sfide tecniche e sociali dell’intelligenza artificiale; cooperazione proattiva con altre istituzioni di ricerca e di regolamentazione. Secondo Karen Hao, giornalista del MIT Technology Review che ha potuto trascorrere alcuni giorni presso la sede di OpenAI e intervistare circa 30 persone con varie conoscenze dell’organizzazione, l’importo dello stipendio per ogni dipendente sarebbe definito in base al grado di appartenenza e nel rispetto dei principi enunciati nella Carta.

Attraverso di essa si rinnova anche la convinzione nel futuro avvento di un’intelligenza artificiale con capacità pari o di gran lunga superiori a quelle degli esseri umani: sempre secondo Karen Hao, i dipendenti di OpenAI votano ogni anno per dare la loro stima di quando l’AGI esisterà, con quasi la metà disposta a scommettere che accadrà entro il 2035.

Dai primi incontri tra i membri fondatori del team di ricerca OpenAI, una delle strade privilegiate per raggiungere l’obiettivo finale dell’avvento di un AGI risulta essere una combinazione di robotica e software di apprendimento per rinforzo. Contrariamente alla visione che oggi ne possiamo avere, i primi contributi dell’organizzazione riguardano quindi non la formazione di grandi modelli (di linguaggio, codice, immagini, audio), ma la progettazione di “toolkit” software per la ricerca nell’apprendimento per rinforzo: ad esempio, OpenAI Gym riunisce una suite diversificata di ambienti, che rappresentano altrettanti compiti di varia difficoltà (eseguire calcoli, giocare ai videogiochi Atari o ai giochi da tavolo, controllare un robot in un simulatore fisico, ecc.), al fine di facilitare lo sviluppo e il benchmarking di rinforzo degli algoritmi di apprendimento.

Successivamente, questo insieme di ambienti si arricchisce progressivamente di ulteriori elementi (la piattaforma software Universe , gli ambienti open source di RoboSchool , i videogiochi di Gym Retro , i cosiddetti compiti di esplorazione “sicura” di Safety Gym ), che mirano costantemente a sfidare agenti addestrati attraverso l’apprendimento per rinforzo: generalizzare da un ambiente all’altro (ad esempio, da un gioco Atari a un altro), far interagire più agenti nello stesso ambiente o farli rispettare determinati vincoli specifici.

Questa crescente complessità della formazione di uno o più agenti all’interno di ambienti virtuali mira a rispondere a una delle principali sfide della ricerca in robotica, il “trasferimento sim-to- reale  “, ovvero il fatto che la performance di un agente in un ambiente virtuale è probabile che l’ambiente si deteriori bruscamente a causa del divario che esiste tra questo ambiente e la “realtà” (reality gap). Tuttavia, non ricorrere ad ambienti digitali – videogiochi, simulatori fisici, realtà virtuale – implica tenere conto di alcuni inconvenienti significativi: affrontare un noioso processo di raccolta e pre-elaborazione dei dati, non più sintetici, ma naturali (immagini, video) ; anticipare possibili guasti che potrebbero mettere in pericolo il robot fisico e il suo ambiente immediato; accettare i tempi di addestramento molto più lunghi dei robot fisici rispetto alle loro controparti virtuali. Di fronte a queste insidie, i ricercatori e gli ingegneri di OpenAI propongono una soluzione, la randomizzazione del dominio, che consiste nel diversificare ulteriormente la varietà di dati di addestramento sintetici (condizioni di illuminazione, trame non realistiche, posizioni della telecamera e degli oggetti) per ridurre il più possibile il “divario di realtà” beneficiando al tempo stesso dei vantaggi degli ambienti virtuali.

Mentre l’implementazione e lo sviluppo di una suite di software come OpenAI Gym rimane ancora relativamente riservata al grande pubblico, le altre applicazioni della ricerca di OpenAI nell’apprendimento per rinforzo e nella robotica beneficiano di una più ampia copertura mediatica. Sulla scia delle successive vittorie di AlphaGo e AlphaGo Zero della società rivale DeepMind, gli algoritmi di apprendimento per rinforzo di OpenAI brilleranno contro i giocatori dilettanti e professionisti di Dota 2, un videogioco a priori sfavorevole agli agenti autonomi per diversi motivi (complessità delle regole, lunghezza delle sequenze di gioco, visibilità parziale dello spazio di gioco, ampia scelta di azioni). Eppure, nell’aprile 2019, una squadra di cinque agenti, denominata OpenAI Five, è diventata il primo sistema di intelligenza artificiale a vincere contro i campioni del mondo in carica di un gioco di eSport. Sul versante della robotica, i ricercatori e gli ingegneri di OpenAI si stanno concentrando su un compito molto specifico, la manipolazione degli oggetti, dimostrando che l’addestramento svolto esclusivamente in simulazione, unito alla randomizzazione del dominio, può consentire a una mano robotica di manipolare un blocco, o addirittura risolvere un cubo di Rubik con una mano .

Come interpretare questo marcato interesse dei membri fondatori di OpenAI per l’apprendimento per rinforzo e la robotica? A nostro avviso, questo doppio interesse è dovuto a tre elementi: sul piano scientifico, l’implementazione e il miglioramento di una suite software come OpenAI Gym risponde a una reale esigenza da parte della comunità di ricerca sul reinforcement learning che, nonostante la popolarità del suo metodi, manca ancora di procedure e strumenti standardizzati per algoritmi di benchmarking; sul piano industriale, il timore del dominio incontrastato di Google su questi due ambiti di ricerca è motivato dalla successiva acquisizione di Boston Dynamics (2013) poi DeepMind (2014), società in cui Elon Musk aveva investito 1,65 milioni di dollari dal 2011; infine, sul piano ideologico, l’alleanza tra algoritmi di apprendimento per rinforzo e macchine robotiche è forse ciò che meglio prefigura, nell’immaginario ambivalente dei vertici di OpenAI, condiviso tra fascinazione e repulsione per uno scenario apocalittico degno del film Terminator, i principali rischi futuri che verranno a pesare sull’umanità.

A causa di potenziali conflitti di interesse tra la ricerca condotta presso OpenAI e la ricerca condotta all’interno di Tesla, Elon Musk alla fine ha lasciato il consiglio di amministrazione dell’organizzazione nel febbraio 2018.

Tuttavia, nonostante questi tre elementi e le ricadute simboliche delle applicazioni sopra menzionate, il rafforzamento del movimento di strutturazione organizzativa avviato dalla creazione di OpenAI ha portato l’organizzazione a disinvestire progressivamente queste due linee di ricerca a favore di un esplicito riposizionamento verso lo sviluppo e distribuzione di modelli di grandi dimensioni. Dopo le prime discussioni avviate internamente durante la stesura dello statuto, la consapevolezza di una reale necessità di una visione strategica di medio e lungo periodo si affianca infatti ad una constatazione relativa ai limiti intrinseci dello status di organizzazione a non profit per corrispondere a quello di OpenAI con i principali concorrenti nel perseguimento di AGI.

Da questo punto di vista, l’anno 2018 segna un vero e proprio punto di svolta dal quale una serie di eventi influenzeranno il posizionamento scientifico, economico e ideologico dell’entità californiana. Secondo un articolo di Semafor , uno dei principali fattori scatenanti è stata la preoccupazione di Elon Musk, allora co-presidente di OpenAI, per l’ascesa di Google nell’intelligenza artificiale dalla metà degli anni 2010: successive acquisizioni di Boston Dynamics e DeepMind, echi mediatici del vittorie di AlphaGo e AlphaGo Zero, creazione della divisione AI di Google, rilascio della seconda generazione di unità di elaborazione tensoriale (TPU), popolarità della libreria TensorFlow, pubblicazione del famoso articolo all’origine della nuova architettura neurale “Transformer”.

Questa preoccupazione ha spinto Elon Musk a tentare di prendere il controllo di OpenAI ma, di fronte alla resistenza di altri membri fondatori, ha finito per lasciare il consiglio di amministrazione dell’organizzazione nel febbraio 2018 a causa di potenziali conflitti di interesse che emergono tra le ricerche svolte presso OpenAI e quelle svolte all’interno di Tesla [7] . Mentre Musk si era impegnato a investire quasi 1 miliardo di dollari in diversi anni in OpenAI, la sua uscita dal consiglio di amministrazione segna, secondo fonti Semafor, la fine del suo sostegno finanziario all’organizzazione, che deve quindi affrontare i crescenti costi imposti dalla formazione di modelli di grandi dimensioni estremamente avidi di potenza di calcolo. Nel giugno dello stesso anno fu infatti il ​​primo modello” Transformer generative pre-trained  ”, dotato di 117 milioni di parametri, che nasce, inaugurando così la linea dei large language models (large language models, LLMs) che sono GPT-2 , GPT-3, e più recentemente GPT-4 .

 

In tutte le Librerie e in Amazon e/o direttamente dal sito di Asterioshttps://www.asterios.it/catalogo/ia-intelligenza-artificiale

Figura in ascesa in OpenAI in seguito al ritiro di Musk, Sam Altman ha poi valutato diverse opzioni inconcludenti – come il ricorso a finanziamenti federali o il lancio di una nuova criptovaluta – per rafforzare la base finanziaria della struttura, prima di portare finalmente a termine due grandi operazioni: da un lato, a marzo 2019, l’organizzazione no-profit OpenAI Inc. ha costituito un’entità a scopo di lucro, OpenAI Limited Partnership, che consente di vendere azioni ai dipendenti e attrarre nuovi investitori attraverso lo status di società ibrida a scopo di lucro; dall’altro, dopo una prima fusione nel 2016 e un incontro tra i rispettivi presidenti di OpenAI e Microsoft durante la conferenza annuale Allen & Company Sun Valley, spesso definita “campo estivo per miliardari”, le due società hanno annunciato a luglio 2019 una partnership pluriennale che consiste, per Microsoft, nell’investire un miliardo di dollari (in particolare sotto forma di crediti utilizzabili sui propri platform Azure cloud ) e, per OpenAI, fornire un accesso privilegiato ai suoi modelli esistenti e futuri.

Poiché rafforzata da altri dieci miliardi di investimenti da parte di Microsoft nel gennaio 2023, questa partnership mina le ambizioni di indipendenza, apertura e condivisione stabilite nella carta OpenAI, già indebolite dalla decisione di “un rilascio graduale dei modelli GPT-2 considerato per un certo periodo come potenziali supporti per usi dannosi [8] .

Le gigantesche risorse di calcolo messe a disposizione da Microsoft consentono all’azienda guidata da Sam Altman di impegnarsi a pieno nello sviluppo e nel deployment di modelli di grandi dimensioni in grado di elaborare un’ampia gamma di modalità di dati: dal testo, con GPT seriali; codice, con il modello Codex , una versione del quale supporta l’assistente Copilot di GitHub, società acquisita nel 2018 da Microsoft; immagini, con DALL·E poi DALL·E 2 ; audio, con Jukebox e più recentemente Whisper. Il punto di svolta degli anni 2020 sembra segnare ancora di più un riorientamento degli sforzi di ricerca e ingegneria come il capo della robotica di OpenAI, Wojciech Zaremba, annuncia durante un podcast dalla startup Weights & Biases, datato luglio 2021, che il suo team ha effettivamente sciolto da ottobre 2019, quando sono stati pubblicati i risultati relativi alla risoluzione di un Cubo di Rubik da parte di una mano robotica.

Le principali giustificazioni addotte sono duplici: da un lato, la relativa mancanza di dati naturali disponibili per l’addestramento di sistemi embedded e robot, in particolare per quanto riguarda i set di dati estremamente ampi utilizzati in altri campi della ricerca sull’intelligenza artificiale (visione assistita da computer, elaborazione automatica del linguaggio); d’altra parte, la robotica non è più considerata la via privilegiata per realizzare un AGI, perché le capacità generaliste e multimodali dei modelli di fondazione sembrano ora essere più vicine a quelli che alcuni considerano gli ipotetici inizi di un’entità artificiale sovrumana.

Se la ricerca in robotica subisce un costo di arresto nel 2019[9], quella nell’apprendimento per rinforzo troverà invece un nuovo respiro a cavallo degli anni 2020, integrandosi nell’obiettivo prioritario di sviluppo e diffusione di grandi modelli attraverso la sicurezza e problemi di allineamento. Già presenti fin dai primi giorni dell’organizzazione, queste sfide erano inizialmente confinate agli agenti che si evolvevano all’interno di ambienti simulati, prima di assumere un’importanza crescente come l’implementazione massiccia di modelli che, nonostante il miglioramento delle loro prestazioni, sono sempre inclini a generare, potenzialmente imprecisi, contenuti discriminatori o pericolosi.

È proprio attorno a questo tema di allineamento tra sistemi di intelligenza artificiale e valori umani che avviene l’incontro tra la ricerca nel rinforzamento dell’apprendimento e la ricerca sui modelli di grandi dimensioni, in particolare quando si tratta di modelli di linguaggio di grandi dimensioni ormai utilizzati da milioni di persone e integrati in applicazioni commerciali (motore di ricerca, agente conversazionale, strumento di assistenza alla programmazione).

Dal GPT-2 al recente GPT-4, alcune versioni dei principali modelli linguistici di OpenAI sono il risultato di un processo che combina l’apprendimento non supervisionato, l’apprendimento supervisionato e l’apprendimento per rinforzo — apprendimento per rinforzo da feedback umano (apprendimento per rinforzo da feedback umano, RLHF ) – per garantire l’allineamento di questi modelli con le preferenze, le istruzioni e le intenzioni umane [10] .

Ancora in gran parte perfezionabile, questo metodo costituisce una risposta tecnica a una questione politica fondamentale a cui OpenAI risponde solo in parte: in un momento di crescente consapevolezza delle autorità di regolamentazione e di proliferazione di alternative open source, il progetto di allineamento dei sistemi di intelligenza artificiale rischia così essere nient’altro che vuota retorica fino a quando non vengono chiariti i valori e gli esseri umani a cui si riferisce costantemente.

Valentin Goujon è un sosciologo, coordinatore del seminario Flashlab e del gruppo di lavoro “DIGITAL MATERIALS” associato all’INTERNET & SOCIETY CENTER.