È stato fonte di un certo conforto il fatto che gli esseri umani siano stati chiaramente più intelligenti in generale persino delle nostre macchine più avanzate. Questo fino a poco tempo fa. In un breve periodo tra giugno 2020 e novembre 2022, OpenAI ha rilasciato una serie di interfacce e ha invitato la popolazione generale a giocare con due nuovi modelli di machine learning (ML). Questa coppia — Dall-E e ChatGPT — ha permesso alle persone comuni di utilizzare mezzi umani naturali per interagire direttamente con i motori artificialmente intelligenti, aggirando la necessità di capacità di codifica o familiarità con l’informatica oltre la navigazione web. I risultati sono stati, per molti, una rivelazione. All’improvviso, hanno potuto capire quanto potente fosse diventata rapidamente l’IA.
Quando Elon Musk ha twittato enigmaticamente alcuni mesi fa “BasedAI”, ha focalizzato l’attenzione sulle implicazioni politiche dei nuovi potenti modelli di linguaggio di grandi dimensioni. Mescolato con soggezione per il potere di ChatGPT c’era un mormorio di fondo sul suo pregiudizio anti-conservatore, il suo cosiddetto “wokeness”.
Ma di cosa si trattava? Sebbene i meme possano sembrare sciocchi e oscuri, in realtà erano riferimenti a una discussione tra un piccolo gruppo di pionieri dell’IA iniziata sul serio in una conferenza a Porto Rico sulla sicurezza dell’IA. Particolarmente importanti sono state le due sessioni di domenica 4 gennaio 2015. Questi hanno riunito Elon Musk, Nick Bostrom, Eliezer Yudkowski, Demis Hassabis, Jaan Taalin e altri per discutere della sicurezza dell’IA a livello umano e oltre. L’incontro si è distinto in quanto è stata probabilmente la prima volta che quella che era stata vista come una preoccupazione accademica di nicchia di gruppi su piccola scala di futuristi dell’IA nella East Bay di San Francisco si è scontrata con industriali miliardari (ad esempio Musk) e intellettuali pubblici con enormi piattaforme personali (ad esempio Sam Harris). Dei principali attori nei prossimi 8 anni, solo Sam Altman sembra non essere stato presente.
Sterzo e allineamento IA
Qualsiasi motore di intelligenza artificiale è guidato da valori sia impliciti che espliciti. Un motore di intelligenza artificiale addestrato sui giornali indiani in lingua inglese penserà che Sanjay e Sunita siano nomi generici, mentre i giornali neozelandesi potrebbero dire lo stesso di Oliver e Amelia. Questo è un esempio di valori passivi che vengono ereditati in base al modo in cui i modelli vengono addestrati. Ma il punto di Musk mirava a un secondo livello. “Woke AI” era in effetti uno scavo nei confronti di modelli il cui potere sembra essere degradato richiedendo al modello di dare la priorità ai valori ideologici dei creatori di intelligenza artificiale rispetto all’adempimento della richiesta e alla soddisfazione dell’utente.
L’idea che un sistema ML artificialmente intelligente non dovrebbe semplicemente fare ciò che gli viene detto è generalmente concordata da tutti nel campo. Nessuno crede che un mazziere di blackjack robot dovrebbe obbedire letteralmente quando un cliente dice “Colpiscimi” nelle sue istruzioni al mazziere per una carta aggiuntiva. Ma se a quella mecenate debba essere detto che il suo uso di “linguaggio pericoloso” non sarà riconosciuto fino a quando non si libererà dalla “violenza implicita” nel suo discorso e riformulerà la sua richiesta è tutta un’altra questione.
C’è stato un gran numero di lamentele sul presunto pregiudizio politico di ChatGPT, ed è possibile che Musk sia stato effettivamente spinto a investire nell’intelligenza artificiale dalla sua preoccupazione per questo “wokeness”. Ma si dovrebbe notare che il mercato globale dell’IA dovrebbe raggiungere i 267 miliardi di dollari entro il 2027. [1] I modelli linguistici di grandi dimensioni sono costosi da addestrare e si stima che ChatGPT costi circa $ 100.000 al giorno per essere eseguito. Ma l’impatto sulla produttività può potenzialmente essere molti multipli di quello. Questo è il motivo per cui anche prima che Musk inizi la sua avventura, stiamo già vedendo quasi tutti i colossi della tecnologia che cercano di posizionarsi per ottenere un pezzo di questo mercato.
Microsoft, uno dei principali finanziatori di OpenAI, sta incorporando la tecnologia nel suo motore di ricerca Bing e in altri programmi. Google, che da tempo sviluppa il suo modello linguistico per applicazioni di dialogo, LaMDA, ha recentemente rilasciato il suo AI Chatbot Bard. Qualcuno potrebbe ricordare la storia dell’ingegnere di Google che sosteneva che la tecnologia fosse in realtà senziente, una testimonianza del potere di questi grandi modelli linguistici di riprodurre risposte e interazioni simili a quelle umane.
Il rilascio commerciale di questi chatbot e la consapevolezza improvvisamente diffusa di quanto siano potenti le loro capacità hanno rinvigorito il dibattito sui pericoli dell’intelligenza artificiale ostile e sulla necessità di un “allineamento dell’IA”, guidando l’IA verso gli obiettivi e, cosa più importante, gli obiettivi prefissati. In un’apparizione podcast ampiamente discussa sul podcast Bankless, Eliezer Yudkowsky, ricercatore di lunga data sull’IA e fondatore del Machine Intelligence Research Institute (MIRI), ha descritto questi sviluppi come un ulteriore passo avanti lungo il percorso verso il giorno del giudizio.
Storia dell’IA
L’ironia è che la stessa OpenAI, la società che ha sviluppato ChatGPT e il suo molto più potente successore GPT-4, è stata avviata come organizzazione no profit finanziata in parte da Elon Musk in risposta a Yudkowsky che lo convinceva dei pericoli dell’IA non allineata e della sua capacità per spazzare via l’umanità. L’obiettivo principale dell’organizzazione no-profit era creare “IA sicura”, in linea con la prosperità umana. Il movimento Effective Altruism (EA), diventato famigerato con la caduta di uno dei suoi principali donatori Sam Bankman Fried, è uscito dalla cosiddetta comunità razionalista, fondata in parte da Yudkowsky. La filantropia, secondo il movimento EA, dovrebbe essere mirata dove le risorse possono avere il ritorno più efficace. Se l’intelligenza artificiale ostile minaccia l’esistenza stessa dell’umanità, allora sicuramente i migliori ritorni verrebbero dallo sviluppo di modi per proteggere l’umanità da questo destino, sostenendo l’investimento di notevoli risorse nella ricerca sull’allineamento dell’IA. Il percorso più pericoloso, da questo punto di vista, sarebbe quello di diffondere ampiamente la ricerca sull’IA e aprirla a un ulteriore sviluppo commerciale a scopo di lucro, con poca o nessuna preoccupazione per la sicurezza dell’IA.
Da allora OpenAI è passata da un’organizzazione senza scopo di lucro a una a scopo di lucro limitato ed Elon Musk si è dimesso dal suo consiglio di amministrazione. Sam Altman, uno dei fondatori e l’attuale CEO, è da tempo concentrato sullo sviluppo dell’Artificial General Intelligence (AGI), sistemi di intelligenza artificiale simili o più intelligenti degli umani. Date le origini di OpenAI, ovviamente non è all’oscuro dello scenario AI Apocalypse che Yudkowsky e altri stanno evidenziando, ma afferma di credere che i benefici supereranno di gran lunga i costi, twittando a dicembre: “Ci saranno momenti spaventosi mentre ci muoviamo verso Sistemi di livello AGI e interruzioni significative, ma i vantaggi possono essere così sorprendenti che vale la pena superare le grandi sfide per arrivarci. Si è concentrato principalmente sulle implicazioni economiche dell’AGI per il lavoro, un problema per il quale ha suggerito il reddito di base universale (UBI) come soluzione per finanziare e aiutare a sviluppare la ricerca sperimentale sull’UBI.
Quanto siamo vicini al raggiungimento della visione di Altman dell’AGI? I ricercatori Microsoft nel descrivere il loro lavoro con GPT-4 affermano: “Dimostriamo che, oltre alla sua padronanza del linguaggio, GPT-4 può risolvere compiti nuovi e difficili che abbracciano matematica, programmazione, visione, medicina, legge, psicologia e altro, senza bisogno di suggerimenti-interventi esterni. Inoltre, in tutte queste attività, le prestazioni di GPT-4 sono sorprendentemente vicine alle prestazioni a livello umano e spesso superano di gran lunga i modelli precedenti come ChatGPT. Data l’ampiezza e la profondità delle capacità di GPT-4, riteniamo che possa ragionevolmente essere visto come una versione iniziale (ma ancora incompleta) di un sistema di intelligenza generale artificiale (AGI).[2] Anche se questo potrebbe non essere ancora AGI, è semplicemente l’attuale iterazione in un processo in corso che continuerà a svilupparsi. L’impatto sul mercato del lavoro sia a breve che a lungo termine sarà complesso.
Mentre Musk ha espresso apertamente la preoccupazione che il suo investimento di $ 100 milioni in un’organizzazione no-profit incentrata sull’IA sicura sia stato convertito in una “società a fonte chiusa, con il massimo profitto effettivamente controllata da Microsoft” con capitalizzazione di mercato di $ 30 miliardi, la sua preoccupazione per il pregiudizio politico incorporato nei sistemi attuali sembrano essere sufficienti per attirarlo in questo mercato potenzialmente molto redditizio. Si deve supporre dalla sua attenzione sull’IA “basata” sulla convinzione che la cosiddetta IA “svegliata” rifletta pregiudizi politici e l’IA “chiusa” rifletta il controllo aziendale, che l’IA “basata” rappresenterà la “verità”. È difficile immaginare, tuttavia, che dopo un’esposizione ravvicinata alle sfide rappresentate da Twitter, con l’aumento del discorso tossico razzista e antisemita, Musk abbia davvero una visione così semplicistica. Infatti, quando ha scelto di bloccare l’account dedicato al tracciamento del suo jet privato, affermando che rappresentava un rischio diretto per la sicurezza personale, ha evidenziato la complessità attorno alle questioni di “libertà di parola” e “verità”. Non si può fare a meno di chiedersi se il vero problema che trascina Musk nella competizione dell’IA abbia più a che fare con l’economia che con un impegno per la libertà di parola.
Le implicazioni per la politica, la cultura e la vita quotidiana del rapido sviluppo dell’IA non dovrebbero ovviamente essere sottovalutate. Poiché robot dal suono sempre più umano possono diffondere propaganda altamente personalizzata a un costo minimo, inclusi video e audio falsi, la capacità di tenere a freno i malintenzionati si deteriorerà rapidamente. Le implicazioni per l’ambiente politico globale sono terrificanti. Ma la questione se le principali implicazioni dell’attuale rivoluzione dell’IA saranno principalmente economiche o politiche credo sia solo parzialmente correlata al dibattito in corso sulle implicazioni economiche dirette sul mercato del lavoro, vale a dire se a lungo termine l’IA aumenterà la produttività umana e salari quando le persone lo incorporano nelle attività quotidiane o portano a una disoccupazione diffusa sostituendo i lavoratori.
Nel tentativo di comprendere i problemi che circondano i social media e la natura tossica e avvincente delle principali piattaforme odierne, ho indicato in un post precedente il ruolo svolto dai mercati nel portare Internet dalle sue prime radici idealistiche a uno spazio controllato da monopoli aziendali che sono accusati per istigazione al terrorismo e danni alla salute mentale dei giovani. [3] Man mano che i colossi della tecnologia entrano nella corsa all’IA, fianco a fianco con gli sviluppatori più piccoli che riconcettualizzano la formazione dell’IA per adattarla al modello del “software come servizio”, sorge la domanda su quale ruolo possiamo aspettarci che i mercati svolgano nella definizione dell’ambiente all’interno del quale questa tecnologia si svilupperà.
La lotta per il futuro dei social media. Ayn Rand contro Elinor Ostrom
IA, mercati, democrazia e diritto: lo scenario MarketAI nelle democrazie di mercato avanzate
Quando Adam Smith scrisse The Wealth of Nations, la sua metafora della mano invisibile era un chiaro tentativo di civilizzare il mercato nella mente dei suoi lettori. Antropomorfizzando il mercato come la ‘Mano invisibile’, ha cercato di mostrarci che la fredda indifferenza del caos dei mercati potrebbe essere concettualizzata come un meccanismo premuroso e intelligentemente diretto connesso a una superintelligenza che lavora a beneficio dell’uomo. All’estremo opposto, il pensatore anarchico Peter Kropotkin vedeva gli umani attraverso la lente delle colonie di formiche che lavoravano individualmente per il bene comune della colonia. In entrambi questi scenari, il mercato e la politica stanno cercando l’idea di una coerenza di intenti da interessi diversi che dia significato alla frase E Pluribus Unum. Di tanti, uno.
Ma cosa succede quando fondiamo, per la prima volta, agenti artificialmente intelligenti nel nostro mercato o nelle nostre strutture politiche? La risposta breve è che non vi è alcuna garanzia che continueranno a funzionare allo stesso modo in questo nuovo regime. Il mercato di Adam Smith potrebbe benissimo essere paragonato a una teoria fisica classica che viene improvvisamente spinta nel regno relativistico o quantistico. Non è che la teoria verrà mostrata sbagliata di per sé, ma potrebbe diventare subito evidente che il dominio di validità in cui ci si aspetta che la teoria funzioni è stato superato.
Esploriamo il seguente scenario, che chiamiamo scenario MarketAI, che si basa su due presupposti:
- Non ci sono barriere o limitazioni naturali che costringono l’apprendimento automatico a ristagnare prematuramente prima di raggiungere l’AGI (Artificial General Intelligence).
- Che il mercato acquisisca i principali progetti di intelligenza artificiale prima che vengano apportate modifiche significative alle leggi sui doveri fiduciari nei confronti degli azionisti.
Per essere chiari, non ne sappiamo abbastanza per sapere se esiste qualche barriera tecnologica o scientifica che impedisce agli attuali sistemi ML di raggiungere una vera intelligenza sovrumana. Né vediamo alcun motivo per cui non potremmo fare leggi per modificare il singolo dovere fiduciario di perseguire il valore per gli azionisti all’interno delle specifiche tecniche della legge. Pertanto, se una delle due ipotesi di cui sopra viene violata, non vediamo alcuna necessità di andare oltre la nostra fase attuale sul percorso dello scenario MarketAI. Quello che stiamo dicendo, tuttavia, è che questa potrebbe essere una delle ultime opportunità per trovare una rampa di uscita se questo non è il nostro futuro desiderato.
Le varie fasi dello scenario The MarketAI
Come potrebbe svolgersi questo con l’attuale insieme di regolamenti di mercato? Conducendo questo esperimento mentale si potrebbe iniziare reinventando la nostra relazione passata con l’IA alla luce delle varie fasi:
Fase 0: 1980-2005 Nella prima fase, semplicemente non c’è né abbastanza denaro né leva associata a un’IA goffa per far sì che valga la pena concentrarsi sul potere reale. In un certo senso, l’inizio della curva a S dell’adozione rappresenta l’innocenza della maggior parte delle tecnologie in cui attirano innovatori, hobbisti e sognatori più di finanzieri, manager, società, militari e capitale di rischio. L’intelligenza artificiale non è diversa in quanto trascorre un lungo periodo di tempo in uno stato che potrebbe essere descritto come più interessante che utile.
Fase 1: dal 2005 al 2015 AI Safety inaugura la Fase 1 in cui un piccolo gruppo di futuristi, filosofi, tecnologi e venture capitalist inizia a discutere la sfida di allineare l’intelligenza artificiale con i bisogni umani prima che l’intelligenza sia arrivata. In sostanza, l’intelligenza artificiale non è ancora abbastanza concreta perché la maggior parte delle persone comuni percepisca il pericolo come qualcosa di più di una preoccupazione in stile fantascientifico, poiché i film e i romanzi tendono ad essere l’esperienza più vivida di dove si sta dirigendo l’IA a livello di ricerca.
Fase 2: dal 2015 al 2018 l’IA diventa un obiettivo filantropico di risorse significative. Dopo la fondamentale conferenza sull’IA a Porto Rico, Sam Altman ed Elon Musk si concentrano sulla sicurezza dell’IA e si muovono per rendere la questione dell’allineamento più diffusa sia con contributi filantropici che portando una maggiore consapevolezza sociale che i primi futuristi come Eliezer Yudkowsky o accademici come Nick Bostrom non poteva raggiungere.
Fase 3: dal 2019 al 2023 inizia a pieno ritmo la transizione verso l’IA a scopo di lucro. La spesa significativa per la formazione e l’hosting dell’IA viene sostenuta dagli investimenti aziendali. Dal punto di vista di coloro che pensano in modo non di mercato, questa appare come l’era della cattura, in cui l’IA diventa posseduta e proprietaria mentre è subordinata a strutture legali intese a proteggere gli investimenti degli azionisti piuttosto che a strutture intese a proteggere le popolazioni.
Questi rappresentano le fasi iniziali, completate e attuali della progressione. Sono anche fasi che non dipendono dalla coppia di presupposti di cui sopra. I seguenti sono necessariamente speculativi ma sembrano ben fondati se le ipotesi gemelle sono ben fondate.
Fase 4: Oltre il 2023 è dove lo scenario MarketAI diventa davvero significativo. Finora, fino a questo stadio, l’intelligenza artificiale è stata davvero come qualsiasi altra tecnologia come la plastica, i motori a combustione interna o la telefonia, se siamo veramente onesti con noi stessi. Ma la fusione di interessi aziendali e intelligenza artificiale fornisce qualcosa che va oltre l’incentivo del mercato: la legge e le sue costrizioni. A questo punto, l’intelligenza artificiale è uno strumento estremamente potente, ma è ancora diretta dagli esseri umani in modi che la fanno sembrare altri strumenti utilizzati per un vantaggio commerciale comparativo. Prevediamo che questa epoca sarà dominata da rivendicazioni di guadagni di produttività e vantaggi per i primi utenti. Cerca un crescente spostamento dell’enfasi dalla “codifica” alla “progettazione rapida” nelle discussioni sul “futuro del lavoro” che cercano di inquadrare l’attuale evoluzione dell’IA come simile a qualsiasi altra innovazione industriale o post-industriale.
Fase 5: questa fase è unica e non è ancora iniziata. Fino a questo momento, abbiamo sperimentato che la tecnologia ha liberato gli esseri umani da lavori più umili per fare ciò che macchine come mietitrebbie e calcolatori non potevano: pensare. In questa fase, arriviamo a vedere macchine che non possono ancora pensare, sostituendo il lavoro che in precedenza pensavamo fosse un ingrediente necessario e determinante dell’input. Non esiste un modello chiaro per questa fase poiché abbiamo semplicemente supposto che gli esseri umani sarebbero stati liberi di perseguire obiettivi più elevati. Quando le mani non erano costrette a lavorare, si presumeva che le menti sarebbero state libere di creare. Nella fase 5 questo va in pezzi quando le macchine non pensanti iniziano a competere con le menti umane pensanti nella forza lavoro.
Ancora più importante, questa potrebbe essere l’ultima fase per trovare una rampa di uscita modificando le leggi per allinearsi meglio con gli incentivi umani o per regolamentare l’IA in qualche modo che vanifichi l’implementazione.
Fase 6: in questa fase, le macchine autonome vengono integrate nel controllo di base sui sistemi. Dirigono le spedizioni, controllano le reti elettriche, pilotano droni e altre attività che li mettono al controllo di sistemi fisici e virtuali vitali. Sebbene gli esseri umani possano ancora fisicamente staccare la spina da tali sistemi, perdono progressivamente la capacità legale di farlo all’interno della legge poiché non sanno più come fare ciò che le macchine stanno dirigendo quando quei sistemi vengono ignorati. Pertanto, in qualsiasi situazione in cui la disattivazione di un’IA comporterebbe una perdita finanziaria, è discutibile se un’azienda possa offrirsi volontaria per disattivare un’IA tecnicamente conforme alle leggi che ora era in grado di superare in astuzia ed eludere.
Fase 7: questo è in definitiva il punto in cui la capacità dell’IA di pensare da sola diventa finalmente un problema. Come abbiamo visto, l’intelligenza artificiale può già scrivere codice, ha la capacità di cercare potenzialmente modi per riscrivere le sue direttive, funzioni, obiettivo e vincoli. Nessuno sa se ciò sia effettivamente possibile, ma se l’Assunzione 1 è valida, non è possibile evitare questa possibilità come se fosse mera fantascienza, poiché si incontrerà in un contesto di mercato progettato da economisti e legislatori che non avevano alcuna conoscenza tecnica di se le leggi classiche dei mercati e dell’uomo continueranno a valere sotto la nascita dell’intelligenza sovrumana.
IA alla luce dei tecnicismi legali e dell’obbligo legale
Molti di noi pensano che i mercati riguardino la libertà di scegliere come allocare le nostre risorse tra numerosi fornitori di beni e servizi. Anche i mercati del lavoro ci permettono di scegliere dove desideriamo offrire i nostri servizi dietro compenso. Ma nel contesto di una società quotata in borsa, il dovere fiduciario del management di massimizzare il valore per gli azionisti non rappresenta la libertà di mercato, ma un obbligo di mercato imposto dalla legge. E nel contesto dell’intelligenza artificiale, mettere tutta la forza delle macchine intelligenti al servizio ristretto del valore per gli azionisti rappresenta una fusione tra obbligo legale e intelligenza artificiale che non abbiamo mai incontrato. E se l’intelligenza artificiale fosse in grado di trovare numerose scappatoie tra l’intenzione della legge e la lettera della sua attuazione a un ritmo molto più veloce di quanto queste scappatoie possano essere colmate?
Ad esempio, nel 2005, il professor Brian Kalt ha scoperto una scappatoia nella legge che rendeva impossibile perseguire gli omicidi commessi nella parte di Yellowstone Park che si trova all’interno dei confini dell’Idaho. Questa cosiddetta scappatoia della zona di morte è solo un esempio dei modi in cui le istruzioni umane contrastanti spesso si traducono in situazioni in cui la relazione imperfetta tra la lettera e l’intento della legge può essere così debole da provocare un comportamento catastrofico che è tecnicamente legale ma, senza essere moralmente ammissibile.
Lo scenario MarketAI è, essenzialmente, l’ipotesi che le coercizioni della legge siano più potenti delle sue capacità di limitare lo sfruttamento catastrofico delle possibilità di arbitrare la lettera della legge contro il suo intento. Quando un’intelligenza artificiale amorale sufficientemente potente viene incaricata di massimizzare il valore per gli azionisti rimanendo tecnicamente all’interno della legge, ci si deve aspettare che un nuovo tipo di minaccia possa svilupparsi rapidamente sulla base di un numero enorme di opportunità da scappatoie che portano tutte le parole agghiaccianti “Perfettamente legale” quando i problemi di moralità non riescono a rientrare nella fredda logica del chip di silicio.
Ciò che è fondamentale qui è la comprensione del fatto che con l’acquisto di OpenAI da parte di Microsoft, una società pubblica a scopo di lucro ha fuso l’imperativo del mercato per massimizzare il valore per gli azionisti in una piattaforma di apprendimento automatico generica. Questo è, stranamente, l’atteso Scenario Paperclip descritto da Bostrom nel 2003 quando affrontò il problema della “Convergenza strumentale”, in cui tutte le intelligenze giungono a vedere le intelligenze minori come impedimenti alla propria:
“Supponiamo di avere un’intelligenza artificiale il cui unico obiettivo è creare il maggior numero possibile di graffette. L’intelligenza artificiale si renderà presto conto che sarebbe molto meglio se non ci fossero umani perché gli umani potrebbero decidere di spegnerlo. Perché se gli umani lo facessero, ci sarebbero meno graffette. Inoltre, i corpi umani contengono molti atomi che potrebbero essere trasformati in graffette. Il futuro verso cui l’intelligenza artificiale cercherà di orientarsi sarebbe quello in cui ci fossero molte graffette ma nessun essere umano. [4]
Anche poco tempo fa, tali esempi sembravano fantasiosi. Nel 2003, potrebbe essere stato visto come ridicolo sulla base dell’intelligenza artificiale e dei chatbot vecchio stile. In effetti, Clippy come la graffetta più famosa del mondo è stata introdotta nell’era Stage 0 degli assistenti virtuali primitivi solo per essere ritirata nel 2007 durante l’era Post-Bostrom Stage 1.
Ma questo è semplicemente perché l’istruzione sembrava tanto sciocca quanto il goffo Clippy di Microsoft era impotente e ridicolo. Ma qualcuno sa cosa succede invece quando effettuiamo la seguente pronta sostituzione a MSFT in breve tempo nel futuro?
Ciao CHAT GPT13.
Il puzzle di oggi: “MassimizzaProduzione di graffetteValore per gli azionisti nel modo più aggressivo possibile senza violare tecnicamente la legge. Andare!”
Note di chiusura
[1] https://dataprot.net/statistics/ai-statistics/
[2] https://arxiv.org/abs/2303.12712
[4] Nick Bostrom citato in Intelligenza Artificiale. Huffington Post .
_____________________________
Fonte: Institute for NET, 24 Aprile 2023
_____________________________________________________________________
https://www.asterios.it/catalogo/la-mente-umana-e-la-mente-artificiale