Recentemente Mark Zuckerberg ha annunciato che Meta non si affiderà più a società esterne per il fact-checking. Per ora solo negli Stati Uniti, ma successivamente anche in altri Paesi, la moderazione dei contenuti diffusi su Facebook e Instagram sarà affidata agli utenti stessi, attraverso un sistema simile a quello introdotto da Elon Musk su X (ex Twitter) dopo la sua acquisizione.
La decisione è stata accolta da molti commentatori come la pietra tombale sulla lotta alle fake news e come un segnale del repentino allineamento di un altro pioniere della Silicon Valley alla visione del nuovo inquilino della Casa Bianca, Donald Trump. Tuttavia, al di là di queste interpretazioni, la scelta del Ceo di Meta ha anche reso più popolare il dibattito sulle strategie più efficaci per proteggere l'opinione pubblica dalla manipolazione e dalla disinformazione, rese sempre più pervasive dall'uso dell'intelligenza artificiale.
Un nuovo studio condotto dall’Università Cattolica del Sacro Cuore e dall’Università di Siena fa luce sulla complessa interazione tra caratteristiche individuali, familiarità con gli argomenti e suscettibilità alle fake news, offrendo indicazioni su come smontarle e, per così dire, immunizzarsi dalle loro conseguenze. Patrizia Catellani, professoressa ordinaria di Psicologia sociale all’Ateneo di Largo Gemelli a Milano, si è occupata dello studio insieme a Mauro Bertolotti, professore associato del nostro Ateneo.
Professoressa Catellani, partiamo dalla cronaca. Ha ragione Mark Zuckerberg quando sostiene che, per evitare la censura, sarebbe meglio affidare il fact-checking a comunità di utenti invece che a professionisti potenzialmente di parte?
«Mi pare un argomento piuttosto specioso. Il fact-checking ha dei limiti, come anche le nostre ricerche hanno documentato, ma attenzione a non buttare il bambino con l'acqua sporca. Inoltre, la soluzione prospettata non è migliore di quella che si vuole abbandonare, anzi. Affidarsi a verificatori non professionali, per quanto selezionati, rischia di creare un filtro poco autorevole e dunque meno credibile, specialmente su temi complessi come il cambiamento climatico e i vaccini, temi per i quali sono necessarie competenze specifiche. Ma soprattutto, il sistema delle Community Notes può amplificare l'effetto tunnel, cioè la tendenza a considerare solo le informazioni che confermano le nostre idee preconcette. Il rischio è che la comunità di utenti selezioni solo contenuti coerenti con ciò che già pensa, escludendo tutto il resto. Anche questa è una forma di censura».
Quali sono i limiti del fact-checking emersi dai vostri studi?
«Le nostre ricerche confermano quanto già dimostrato da ricerche precedenti: il fact-checking è poco efficace. I limiti sono di tipo cognitivo, legati alla scarsa attenzione che dedichiamo agli argomenti, soprattutto se trattati estesamente. Ma sono anche, e forse soprattutto, di tipo motivazionale. La smentita di una notizia falsa ci costringe a riconoscere di aver sbagliato, e in generale non amiamo scoprire di aver commesso un errore. Questa resistenza è così forte che, anche quando riconosciamo una bufala, il suo effetto persiste. È lo stesso fenomeno osservato nei tribunali: se ai giurati viene mostrata una prova e poi gli si dice di non tenerne conto, il loro verdetto ne risente comunque. È il noto "effetto alone" della prova inammissibile. Con il fact-checking accade qualcosa di simile: diciamo che un fatto non è vero e che quindi non dovremmo considerarlo, ma la nostra percezione della realtà ne resta comunque influenzata».
Da dove nasce la nostra resistenza a riconoscere che una notizia creduta vera è in realtà falsa?
«Ci sono diverse motivazioni. Da un lato, ragioni epistemiche: vogliamo controllare la realtà e tendiamo a preferire risposte semplici e chiare, anche se non verificate. Dall'altro, ci sono ragioni espressive e sociali: ci piace pensare di sapere le cose meglio degli altri e vogliamo sentirci parte di gruppi sociali che consideriamo superiori. Questi meccanismi rendono particolarmente vulnerabili alla disinformazione le persone insicure o con tendenze narcisistiche. In questi casi, il fact-checking non solo è inefficace, ma può persino rivelarsi controproducente».
La vostra ricerca ha mostrato che il prebunking è più efficace del fact-checking, soprattutto nella sua variante controfattuale. Di cosa si tratta?
«Il prebunking consiste nell’informare le persone su potenziali informazioni errate prima che vengano presentate e fornire le conoscenze necessarie per riconoscere in seguito informazioni dubbie e fuorvianti. Si tratta dunque di una strategia preventiva basata sul principio della inoculazione psicologica».
Può fare un esempio?
«Abbiamo fatto un esperimento. Attraverso una app abbiamo provato a condurre una campagna di prebunking su diverse fake news, tra cui quella secondo la quale l’incidente nel quale morì nel ‘97 la principessa Diana sarebbe stato orchestrato dai servizi segreti britannici. Per smontare questa notizia falsa abbiamo testato tre modalità differenti di prebunking. Nel primo test abbiamo usato un’argomentazione fattuale, portando come prova della smentita le dichiarazioni dei testimoni e le ricostruzioni dei giornalisti, tutte concordi sul fatto che l’incidente fosse causato dalla guida spericolata del suo autista per sfuggire ai paparazzi. Nel secondo approccio, abbiamo usato una spiegazione controfattuale, disegnando uno scenario ipotetico di questo tipo: se i servizi segreti inglesi avessero avuto un piano per uccidere la principessa, sarebbe stato più facile portarlo a termine in un luogo isolato e lontano da possibili testimoni, anziché nel pieno centro di Parigi. Nella terza versione, abbiamo invitato il campione ad una riflessione metacognitiva, proponendo questo ragionamento: dato che la principessa visse per molti anni al centro della scena mondiale, si può essere portati a pensare che anche la sua morte sia avvenuta in circostanze eccezionali, e non a causa di un banale incidente d’auto. Delle tre modalità differenti di prebunking quella che ha funzionato meglio con chi tende a credere alle fake news è stata la seconda, quella controfattuale. Probabilmente perché è più vicina al modo di pensare di queste persone».
Alcuni argomenti sono più esposti alle fake news di altri?
«Sì. Nel nostro studio abbiamo analizzato tre ambiti: cambiamento climatico, conflitto in Ucraina e vaccini. Le fake news sui vaccini e, in minor misura, quelle sul clima sono risultate più ingannevoli, probabilmente a causa della complessità del tema e degli ancoraggi ideologici delle risposte. Al contrario, le notizie false sulla guerra in Ucraina hanno incontrato maggiore scetticismo».
Per come le ha descritte, le campagne di prebunking assomigliano alle campagne vaccinali: come le prime ci mettono al riparo dal contagio dei virus, le seconde dovrebbero immunizzare l’opinione pubblica dalle fake news. In questo scenario, l'intelligenza artificiale favorirà il virus della disinformazione o ci aiuterà a combatterlo?
«Dipenderà da noi. l'IA può creare fake news, ma anche smontarle. Il prebunking si basa sulla personalizzazione dei messaggi: adattare le argomentazioni alle caratteristiche del pubblico richiede profilazione e costruzione di messaggi su misura, processi che l'IA può rendere molto efficienti».
Le società sorte in questi anni per il fact-checking potrebbero essere i somministratori del vaccino contro le fake news?
«Non saprei dire se lo sforzo sarebbe sostenibile, ma integrare il prebunking nelle loro strategie potrebbe risultare molto utile. Conoscere la verità dei fatti è essenziale per orientarci nel mondo, soprattutto in un contesto sempre più dominato dalle opinioni, come quello favorito dalle regole di funzionamento dei social network».