Il CEO di OpenAI ammette di essere “un po’ spaventato” dall’IA: il CTO mette in guardia per un punto di non ritorno

L’intelligenza artificiale è una tecnologia affascinante che ha suscitato interesse su scala globale. Secondo Sam, è perché consente alle persone di creare, apprendere ed eseguire una varietà di lavori e il motivo per cui le applicazioni AI come ChatGPT sviluppate da aziende come OpenAI sono diventate immensamente popolari. Ma ci sono anche rischi sostanziali associati all’IA e si teme che se la tecnologia non è adeguatamente regolamentata, potrebbe avere effetti disastrosi.

In una recente intervista alla ABC (video qui sotto), Sam Altman e Mira Murati, due dirigenti di OpenAI, parlano delle loro idee, preoccupazioni e punti di vista riguardo al progresso dell’IA. Il CEO di OpenAI, Sam Altman, riconosce che l’intelligenza artificiale sta divertendo gli umani e che possono usarla a proprio vantaggio in vari modi. Sottolinea come l’esplorazione e l’ingegno siano premiate dall’intelligenza artificiale come tecnologia. Altman è consapevole delle incognite che derivano dall’intelligenza artificiale, che possono essere sia elettrizzanti che preoccupanti.

La possibilità che l’IA venga sfruttata per estese campagne di disinformazione o attacchi informatici aggressivi è una delle principali preoccupazioni al riguardo. Sam Altman pensa che se l’intelligenza artificiale viene creata correttamente e applicata a tutti, queste preoccupazioni possono essere ridotte.

https://www.asterios.it/catalogo/ia-intelligenza-artificiale

Un punto di non ritorno

I timori di Altman riguardo al progresso dell’IA sono condivisi da Mira Murati, CTO di OpenAI. Avverte che se non intraprendiamo azioni responsabili e riduciamo i rischi associati alla tecnologia, il progresso dell’IA potrebbe raggiungere un punto di non ritorno. Potremmo avere effetti permanenti se ciò accade. Pertanto, è imperativo agire immediatamente e garantire che l’IA sia creata in modo etico e utilizzata per il bene di tutti.

AI nelle mani di regimi totalitari

Sam Altman ha anche espresso preoccupazione per il potenziale sviluppo dell’IA da parte dei regimi totalitari. È preoccupato che questi governi possano utilizzare l’intelligenza artificiale per soggiogare le istituzioni democratiche, soffocare l’opposizione e manipolare i loro cittadini. Sostiene che è fondamentale assicurarsi che i valori etici che mettono al primo posto i diritti umani e le libertà servano da guida per lo sviluppo dell’IA.

Disinformazione ad un altro livello

Uno dei peggiori risultati possibili, secondo Altman, è il potenziale di disinformazione su larga scala utilizzando modelli di intelligenza artificiale. Ha anche espresso preoccupazione per il fatto che, man mano che i sistemi di intelligenza artificiale migliorano nella scrittura del codice del computer, potrebbero essere utilizzati per attacchi informatici offensivi.

Concorda inoltre sul fatto che esiste una feroce corsa mondiale per creare la tecnologia di intelligenza artificiale più sofisticata e potente e che la ricerca sull’IA non si sta svolgendo nel vuoto. Avverte che i governi autoritari potrebbero prendere il comando nella ricerca sull’IA se gli Stati Uniti e altre nazioni democratiche non lo fanno, con effetti potenzialmente disastrosi per i diritti umani e la democrazia globale.

Altman e Murati concordano entrambi sul fatto che esiste una feroce corsa mondiale per creare la tecnologia IA più all’avanguardia e sofisticata. Entrambi credono che lo sviluppo dell’IA non stia avvenendo nel vuoto. Pensano che sia imperativo che gli Stati Uniti e le altre nazioni democratiche assumano un ruolo guida nello sviluppo dell’IA. I governi autoritari possono impiegare l’intelligenza artificiale per erodere la democrazia e i diritti umani se prendono l’iniziativa.

Guarda l’intervista completa qui sotto. Ti apre gli occhi soprattutto se riesci a leggere tra le righe.