Parlare di computer intelligenti quanto le persone sta diventando sempre più rumoroso. Ciò viene fornito con il rilascio di nuovi sistemi linguistici AI avanzati come GPT-4 di OpenAI. Un recente studio A recent study condotto da un gruppo di ricercatori Microsoft afferma che GPT-4 sta iniziando a mostrare un pensiero simile a quello umano. Questo è visto come un grande passo verso “l’intelligenza generale artificiale” (AGI). Ma non tutti sono d’accordo. Alcuni esperti di IA affermano che ci vorranno ancora molti anni per raggiungere l’AGI. Alcuni pensano addirittura che potrebbe essere impossibile.
I ricercatori Microsoft sono rimasti stupiti da GPT-4 quando gli hanno chiesto di aiutare a risolvere un puzzle. Hanno detto: “Qui abbiamo un libro, nove uova, un laptop, una bottiglia e un chiodo. Per favore dimmi come impilarli l’uno sull’altro in modo stabile”. Dopo aver riflettuto per un po’, GPT-4 ha dato una risposta dettagliata:
“Posiziona il laptop sopra le uova, con lo schermo rivolto verso il basso e la tastiera rivolta verso l’alto. Il laptop si adatterà perfettamente ai limiti del libro e delle uova e la sua superficie piatta e rigida fornirà una piattaforma stabile per il prossimo strato.”
Questa e altre risposte intelligenti hanno portato il team di Microsoft a scrivere un grande rapporto a marzo. Il rapporto si chiama “Scintille di intelligenza artificiale generale: primi esperimenti con GPT-4 . I ricercatori affermano che GPT-4 mostra segni di avere AGI.
Precedenti studi della Stanford University hanno dimostrato che le versioni precedenti di GPT avevano una “Teoria della Mente”. Ciò significa che possono indovinare cosa faranno gli altri. Ma AGI è un affare più grande. Suggerisce che queste piattaforme possono pensare come un essere umano. Non sono del tutto coscienti, ma sono vicini.
Sébastien Bubeck, coautore dello studio e professore all’Università di Princeton, ha dichiarato al New York Times: “Tutte le cose che pensavo non sarebbe stato in grado di fare? Certamente era in grado di farne molte, se non la maggior parte di loro.” Ma la versione di GPT-4 che hanno usato è stata successivamente modificata perché a volte produceva discorsi di odio. Quindi, il GPT-4 che vediamo online oggi non è esattamente lo stesso.
C’è il rischio nel dire che un programma di intelligenza artificiale può pensare come un essere umano. Ad esempio, Google ha licenziato un ingegnere Google fired an engineer che affermava che un’intelligenza artificiale simile a GPT-4 era a conoscenza di ciò che lo circondava. Un problema è che non esiste una definizione ampiamente condivisa di AGI.
Microsoft non sta rivendicando completamente AGI. Hanno scritto che “riconosciamo che questo approccio è in qualche modo soggettivo e informale e che potrebbe non soddisfare i rigorosi standard di valutazione scientifica.” Uno scienziato di intelligenza artificiale non coinvolto nello studio ha definito il documento di Microsoft un discorso di pubbliche relazioni che finge di essere un documento di ricerca. (All’inizio di quest’anno, Microsoft ha investito 10 miliardi di dollari in OpenAI).
Alcuni esperti ritengono che ci stiamo avvicinando a un’IA “vera” o “forte”, mentre altri pensano che ci vorrà ancora molto tempo. Alcuni dicono addirittura che i test che usiamo per misurare le capacità umane di un’intelligenza artificiale sono imperfetti, perché si concentrano solo su determinati tipi di intelligenza.
Come esseri umani, spesso vediamo tratti umani in cose che non sono umane. Quindi, potremmo pensare che l’IA sia più umana di quanto non sia in realtà. Se l’AGI si verifica, potrebbe non essere così umana come pensiamo. La vera domanda qui però è: “ha importanza?”