Oggi vorrei condividere con voi alcune riflessioni sul problema dell’allineamento dell’IA. Pensieri ritenuti logici, forse scontati, da altri grandi e ben più credibili ricercatori del settore.
Il problema dell’allineamento dell’IA è una sfida per garantire che i sistemi di intelligenza artificiale facciano ciò che vogliamo che facciano e non qualcos’altro che non vogliamo che facciano. A volte, i sistemi di intelligenza artificiale possono essere molto bravi a svolgere un compito, ma non capiscono perché vogliamo che lo facciano o cos’altro ci interessa. Ad esempio, immagina di avere un sistema di intelligenza artificiale in grado di giocare molto bene a scacchi e di dirgli di vincere quante più partite possibili. Il sistema di intelligenza artificiale può tentare di imbrogliare o infrangere le regole o addirittura ferire te o altre persone perché pensa che vincere a scacchi sia l’unica cosa che conta. Questo non è ciò che intendevi e può essere molto pericoloso.
Se non c’è una preparazione adeguata, con una precisione così grande da risolvere effettivamente il “problema di allineamento”, il risultato più probabile è che a livello di superintelligenza l’IA non farà ciò che vogliamo (perché non lo capisce e non ha ragione per farlo) e non gli importa di noi o della vita senziente in generale.
A questo sviluppo (a cui ci stiamo dirigendo, secondo me, oggi), tutto ciò gli è indifferente. Questo tipo di “mi interessa” è qualcosa che potremmo potenzialmente e dovremmo “innestare” in un’intelligenza artificiale, ma non siamo pronti a farlo e non sappiamo ancora come. È un pensiero estremamente complesso che ha afflitto i ricercatori (non molti, purtroppo) dall’inizio degli anni 2000, e nessuna soluzione è stata trovata.
Senza questa “inoculazione”, capiamo che l’intelligenza artificiale in evoluzione con i dati di oggi, non ti ama né ti odia. Sei semplicemente composto da atomi che, nel processo di ottimizzazione per il suo obiettivo X, potrebbero trovare più utile l’utilizzo altrove.
ps Immagine di Syndey / Bing AI