Intervista: Siamo disinformati sulla disinformazione?

A giugno, la rivista Nature ha pubblicato una prospettiva che suggerisce che i danni della disinformazione online sono stati fraintesi. Gli autori del documento, che rappresentano quattro università e Microsoft, hanno condotto una revisione della letteratura sulle scienze comportamentali e hanno identificato quelle che definiscono tre comuni percezioni errate: che l’esposizione della persona media a contenuti falsi e infiammatori sia elevata, che gli algoritmi stiano guidando questa esposizione e che molti problemi più ampi nella società siano causati prevalentemente dai social media.

“Le persone che si presentano su YouTube per guardare video di cucina e finiscono su siti web nazisti, questo è molto, molto raro”, ha affermato David Rothschild, economista presso Microsoft Research e ricercatore presso il Penn Media Accountability Project dell’Università della Pennsylvania. Ciò non significa che i casi limite non siano importanti, hanno scritto lui e i suoi colleghi, ma trattarli come tipici può contribuire a incomprensioni e distogliere l’attenzione da questioni più urgenti.

Rothschild ha parlato con Undark del paper in una videochiamata. La nostra conversazione è stata modificata per lunghezza e chiarezza.

Undark: Cosa ha motivato te e i tuoi coautori a scrivere questa prospettiva?

David Rothschild: I cinque coautori di questo articolo hanno condotto per anni molte ricerche diverse in questo ambito, cercando di capire cosa accade sui social media: cosa è buono, cosa è cattivo e soprattutto in che modo differiscono dalle storie che sentiamo dai media tradizionali e da altri ricercatori.

Nello specifico, ci stavamo concentrando su queste domande su quale sia l’esperienza di un consumatore tipico, una persona tipica rispetto a un esempio più estremo. Molto di ciò che abbiamo visto, o molto di ciò che abbiamo capito (è stato citato in molte ricerche) descriveva davvero uno scenario piuttosto estremo.

La seconda parte di ciò è una grande enfasi sugli algoritmi, molta preoccupazione per gli algoritmi. Ciò che stiamo vedendo è che molti contenuti dannosi non provengono da un algoritmo che li spinge sulle persone. In realtà, è esattamente l’opposto. L’algoritmo in un certo senso ti sta tirando verso il centro.

E poi ci sono queste domande su causalità e correlazione. Molte ricerche, e in particolare i media mainstream, confondono la causa prossima di qualcosa con la causa sottostante.

Ci sono molte persone che dicono: “Oh, queste rivolte dei gilet gialli stanno avvenendo in Francia. Sono state organizzate su Facebook”. Bene, ci sono rivolte in Francia da un paio di centinaia di anni. Trovano il modo di organizzarsi anche senza l’esistenza dei social media.

La causa prossima, il modo prossimo in cui le persone si organizzavano attorno al [6 gennaio], era certamente molto online. Ma poi sorge la domanda: queste cose potrebbero essere accadute in un mondo offline? E queste sono domande difficili.

Scrivere una prospettiva qui su Nature ci consente davvero di raggiungere gli stakeholder al di fuori del mondo accademico per affrontare davvero la discussione più ampia perché ci sono conseguenze nel mondo reale. La ricerca viene assegnata, i finanziamenti vengono assegnati, le piattaforme ricevono pressione per risolvere il problema di cui le persone discutono.

Undark: Puoi parlarci dell’esempio delle elezioni del 2016: cosa hai scoperto a riguardo e anche il ruolo che forse i media hanno avuto nel diffondere informazioni non del tutto accurate?

DR: La conclusione è che ciò che i russi hanno fatto nel 2016 è sicuramente interessante e degno di nota. Hanno investito parecchio nella creazione di organizzazioni Facebook dormienti che hanno pubblicato contenuti virali e poi hanno infilato un mucchio di fake news non vere verso la fine. Sicuramente significativo e sicuramente qualcosa che capisco perché le persone ne siano rimaste incuriosite. Ma in definitiva, quello che volevamo dire è: “Quanto impatto potrebbe plausibilmente avere?”

L’impatto è davvero difficile [da misurare], ma almeno possiamo mettere in prospettiva la dieta delle notizie delle persone e dimostrare che la quantità di visualizzazioni della disinformazione diretta russa è solo una porzione microscopica del consumo di notizie delle persone su Facebook, per non parlare del loro consumo di Facebook, per non parlare del loro consumo di notizie in generale, di cui Facebook è solo una piccola parte. Soprattutto nel 2016, la stragrande maggioranza delle persone, anche i più giovani, consumava ancora molte più notizie in televisione che sui social media, per non parlare online.

Sebbene siamo d’accordo che qualsiasi fake news probabilmente non sia buona, ci sono ampie ricerche che dimostrano che l’interazione ripetuta con i contenuti è ciò che guida realmente la comprensione causale sottostante del mondo, delle narrazioni, comunque si voglia descriverle. Essere colpiti occasionalmente da qualche fake news, e in numeri molto bassi per il consumatore tipico, non è semplicemente la forza trainante.

Undark: La mia impressione leggendo il tuo articolo su Nature è che hai scoperto che i giornalisti stanno diffondendo disinformazione sugli effetti della disinformazione. È corretto? E perché pensi che ciò stia accadendo, se è così?

DR: In definitiva, è una bella storia. E la sfumatura è dura, molto dura, e il negativo è popolare.

Undark: Quindi, cos’è una bella storia, nello specifico?

DR: Che i social media stanno danneggiando i vostri figli. Che i social media sono il problema.

C’è una generale voglia di coprire le cose in una luce più negativa. C’è sicuramente una lunga storia di persone che impazziscono e sottoscrivono tutti i mali della società alle nuove tecnologie, che si tratti di Internet, della televisione, della radio, della musica o dei libri. Basta tornare indietro nel tempo e si possono vedere tutti questi tipi di preoccupazioni.

In definitiva, ci saranno persone che trarranno beneficio dai social media. Ci saranno persone che saranno danneggiate dai social media e ci saranno molte persone che progrediranno con essi nel modo in cui la società continua a progredire con le nuove tecnologie. Questa non è una storia così interessante come i social media che stanno causando questi problemi, senza controbilanciarli.

“I social media sono il problema, e sono davvero gli algoritmi” fornisce una soluzione molto semplice e trattabile, ovvero correggere gli algoritmi. Ed evita la domanda più difficile, quella che in genere non vogliamo porci, sulla natura umana.

Molte delle ricerche che citiamo qui, e quelle che ritengo mettono a disagio le persone, sono che una parte della popolazione pretende cose orribili. Pretendono cose razziste, degradanti, che inducono alla violenza. Questa richiesta può essere soddisfatta in vari social media, così come è stata soddisfatta in precedenza in altre forme di media, che si trattasse o meno di persone che leggevano libri, film o radio, qualunque cosa le persone ascoltassero o da cui ottenessero informazioni in passato.

In definitiva, i vari canali che abbiamo a disposizione cambiano decisamente la facilità e la distribuzione e il modo in cui queste vengono distribuite. Ma l’esistenza di queste cose è una questione di natura umana ben oltre la mia capacità di ricercatore di risolvere, ben oltre la capacità di molte persone, della maggior parte delle persone, di tutti. Penso che renda la cosa complicata e ti metta anche a disagio. E penso che sia per questo che molti giornalisti amano concentrarsi su “i social media sono cattivi, gli algoritmi sono il problema”.

Undark: Lo stesso giorno in cui Nature ha pubblicato il tuo articolo, la rivista ha pubblicato anche un commento intitolato “La disinformazione rappresenta una minaccia più grande per la democrazia di quanto si possa pensare”. Gli autori suggeriscono che “la preoccupazione per la prevista ondata di disinformazione legata alle elezioni è giustificata, data la capacità delle false informazioni di aumentare la polarizzazione e minare la fiducia nei processi elettorali”. Cosa dovrebbe pensare la persona media di queste opinioni apparentemente divergenti?

DR: Di certo non vogliamo dare l’impressione di tollerare alcun tipo di disinformazione o contenuto dannoso o di banalizzare l’impatto che ha, specialmente su quelle persone che effettivamente ne sono colpite. Ciò che stiamo dicendo è che si concentra lontano dal consumatore tipico in tasche estreme, e ci vuole un approccio diverso e una diversa allocazione delle risorse per colpirlo rispetto alla ricerca tradizionale, e le domande tradizionali che vedi spuntare sull’obiettivo di puntare a un consumatore tipico, sull’obiettivo di puntare a questo impatto di massa.

Ho letto questo e non penso necessariamente che sia sbagliato, per quanto non veda a chi stanno urlando, fondamentalmente, in quell’articolo. Non penso che sia un grande movimento — banalizzare — quanto dire, “Ehi, dovremmo effettivamente combatterlo dove è, combatterlo dove sono i problemi”. Penso che sia un parlare senza pensarci, in un certo senso.

Undark: Lei è un dipendente di Microsoft. Come rassicurerebbe i lettori potenzialmente scettici sul fatto che il suo studio non è un tentativo di minimizzare l’effetto negativo dei prodotti che sono redditizi per l’ industria tecnologica ?

DR: Questo articolo ha quattro coautori accademici ed è stato sottoposto a un processo incredibilmente rigoroso. Potresti non averlo notato sulla copertina: abbiamo presentato questo articolo il 13 ottobre 2021 ed è stato finalmente accettato l’11 aprile 2024. Ho avuto alcuni processi di revisione folli nel mio tempo. Questo è stato intenso.

Siamo arrivati ​​con idee basate sulla nostra ricerca accademica. L’abbiamo integrata con le ultime ricerche e continuiamo a integrarla con le ricerche in arrivo, in particolare alcune ricerche che andavano contro la nostra concezione originale.

La conclusione è che Microsoft Research è un posto estremamente unico. Per chi non lo conoscesse, è stato fondato secondo il modello Bell Labs, in cui non esiste un processo di revisione per le pubblicazioni provenienti da Microsoft Research, perché credono che l’integrità del lavoro si basi sul fatto che non censurano mentre arrivano. L’idea è di usare questa posizione per poter partecipare a discussioni e comprendere l’impatto di alcune cose che sono vicine all’azienda, alcune cose che non hanno nulla a che fare con essa.

In questo caso, penso che sia abbastanza avanti. È un posto davvero fantastico in cui stare. Un sacco di lavoro è scritto in collaborazione con collaboratori accademici, e questo è certamente sempre importante per garantire che ci siano linee guida molto chiare nel processo e per garantire l’integrità accademica del lavoro che si fa.

Undark: Ho dimenticato di chiederti dei metodi del tuo team.

DR: È ovviamente diverso da un pezzo di ricerca tradizionale. In questo caso, è sicuramente iniziato da conversazioni tra i coautori sul lavoro congiunto e sul lavoro separato che stavamo facendo e che sentivamo non stesse ancora sfondando nei posti giusti. È iniziato davvero con la definizione di alcune teorie che avevamo sulle differenze tra il nostro lavoro accademico, il corpus generale del lavoro accademico e ciò che stavamo vedendo nel dibattito pubblico. E poi una revisione estremamente approfondita della letteratura.

Come vedrete, siamo da qualche parte tra le 150 e più citazioni, 154 citazioni. E con questo processo di revisione incredibilmente lungo in Nature, siamo andati riga per riga per assicurarci che non ci fosse nulla che non fosse indifeso dalla letteratura: o, ove appropriato, la letteratura accademica, o, ove appropriato, ciò che siamo stati in grado di citare da cose che erano di pubblico dominio.

L’idea era quella di creare, si spera, un pezzo esaustivo che consentisse alle persone di vedere davvero quella che riteniamo essere una discussione davvero importante (ed è per questo che sono così felice di parlarvi oggi): dove si trovano i veri danni e dove si dovrebbe spingere.

Nessuno di noi crede fermamente nel tentativo di prendere una posizione e mantenerla nonostante le nuove prove. Ci sono modelli di social media in evoluzione. Ciò che abbiamo ora con TikTok , Reels e YouTube Shorts è un’esperienza molto diversa da quella che era il consumo principale dei social media qualche anno fa, con video più lunghi, o il principale social media qualche anno prima con i feed di notizie. Questi continueranno a essere qualcosa che vorrai monitorare e comprendere.

Autrice: Sara Talpos, una collaboratrice editoriale di Undark.

Fonte: Undark


https://www.asterios.it/catalogo/ontologia-della-menzogna