Le persone simpatizzano con i bot IA vittime di bullismo

 

In uno studio dell’Imperial College di Londra, gli esseri umani hanno mostrato simpatia e protezione nei confronti dei robot IA esclusi dal gioco.

I ricercatori affermano che lo studio, che ha utilizzato un gioco di palla virtuale, evidenzia la tendenza degli esseri umani a trattare gli agenti di intelligenza artificiale come esseri sociali, un’inclinazione che dovrebbe essere presa in considerazione quando si progettano bot di intelligenza artificiale.

Lo studio è pubblicato su Human Behavior and Emerging Technologies.

L’autore principale Jianan Zhou, della Dyson School of Design Engineering dell’Imperial College, ha affermato: “Si tratta di una visione unica del modo in cui gli esseri umani interagiscono con l’intelligenza artificiale, con implicazioni interessanti per la loro progettazione e la nostra psicologia”.

Le persone sono sempre più obbligate a interagire con agenti virtuali IA quando accedono ai servizi e molti li usano anche come compagni per l’interazione sociale. Tuttavia, queste scoperte suggeriscono che gli sviluppatori dovrebbero evitare di progettare agenti eccessivamente simili agli umani.

L’autrice senior, la dott. ssa Nejra van Zalk, anche lei della Dyson School of Design Engineering dell’Imperial, ha affermato: “Un piccolo ma crescente corpo di ricerca mostra risultati contrastanti riguardo al fatto che gli esseri umani trattino gli agenti virtuali IA come esseri sociali. Ciò solleva importanti domande su come le persone percepiscono e interagiscono con questi agenti.

“I nostri risultati mostrano che i partecipanti tendevano a trattare gli agenti virtuali IA come esseri sociali, perché cercavano di includerli nel gioco del lancio della palla se sentivano che l’IA veniva esclusa. Ciò è comune nelle interazioni tra esseri umani e i nostri partecipanti hanno mostrato la stessa tendenza anche se sapevano di lanciare una palla a un agente virtuale. È interessante notare che questo effetto era più forte nei partecipanti più anziani.”

La gente non ama l’ostracismo, nemmeno verso l’intelligenza artificiale

Provare empatia e adottare misure correttive contro l’ingiustizia è qualcosa che la maggior parte degli esseri umani sembra programmata per fare. Studi precedenti che non coinvolgevano l’intelligenza artificiale hanno scoperto che le persone tendevano a compensare i bersagli emarginati lanciando loro la palla più frequentemente e che le persone tendevano anche a non apprezzare l’autore del comportamento escludente, pur provando preferenza e simpatia per il bersaglio.

Per condurre lo studio, i ricercatori hanno esaminato come 244 partecipanti umani hanno risposto quando hanno osservato un agente virtuale IA essere escluso dal gioco da un altro umano in un gioco chiamato “Cyberball”, in cui i giocatori si passano una palla virtuale sullo schermo. I partecipanti avevano un’età compresa tra 18 e 62 anni.

In alcuni giochi, l’umano non partecipante ha lanciato la palla al bot un discreto numero di volte, mentre in altri ha palesemente escluso il bot lanciando la palla solo al partecipante.

I partecipanti sono stati osservati e successivamente intervistati per verificare le loro reazioni, per verificare se fossero favorevoli a lanciare la palla al bot dopo che questo era stato trattato ingiustamente e perché.

Hanno scoperto che la maggior parte delle volte i partecipanti cercavano di correggere l’ingiustizia nei confronti del bot preferendo lanciare la palla al bot. I partecipanti più anziani erano più propensi a percepire l’ingiustizia.

Attenzione umana

I ricercatori affermano che man mano che gli agenti virtuali IA diventano più popolari nelle attività collaborative, un maggiore coinvolgimento con gli umani potrebbe aumentare la nostra familiarità e innescare l’elaborazione automatica. Ciò significherebbe che gli utenti includerebbero probabilmente intuitivamente gli agenti virtuali come membri reali del team e si impegnerebbero con loro socialmente.

Questo, affermano, può rappresentare un vantaggio per la collaborazione lavorativa, ma potrebbe rivelarsi preoccupante laddove gli agenti virtuali vengano utilizzati come amici per sostituire le relazioni umane, o come consulenti per la salute fisica o mentale.

Jianan ha affermato: “Evitando di progettare agenti eccessivamente simili agli umani, gli sviluppatori potrebbero aiutare le persone a distinguere tra interazione virtuale e reale. Potrebbero anche adattare il loro design a fasce di età specifiche, ad esempio, tenendo conto di come le nostre diverse caratteristiche umane influenzano la nostra percezione”.

I ricercatori sottolineano che Cyberball potrebbe non rappresentare il modo in cui gli esseri umani interagiscono in scenari di vita reale, che in genere si verificano tramite linguaggio scritto o parlato con chatbot o assistenti vocali. Ciò potrebbe essere in conflitto con le aspettative degli utenti di alcuni partecipanti e aver suscitato sentimenti di estraneità, influenzando le loro risposte durante l’esperimento.

Pertanto, stanno ora progettando esperimenti simili utilizzando conversazioni faccia a faccia con agenti in contesti diversi, come in laboratorio o in contesti più informali. In questo modo, possono testare quanto si estendono le loro scoperte.

Fonte: Imperial College London. “La gente simpatizza con i bot AI bullizzati.” ScienceDaily, 17 ottobre 2024.


https://www.asterios.it/catalogo/ia-intelligenza-artificiale