NEWS | Hatespeech

Uomo e macchina, insieme per contrastare l’hate speech

15 dicembre 2021

Uomo e macchina, insieme per contrastare l’hate speech

Condividi su:

L’Intelligenza artificiale è l’ultima frontiera per combattere il discorso d’odio ma non si può prescindere dall’intelligenza umana, l’unica che può essere sensibile al contesto.

Questo è uno dei concetti che ha trovato concordi i relatori dell’evento “Educazione e formazione nel contrasto all’hate speech. Il ruolo dell’intelligenza artificiale e delle contro-narrazioni” che si è svolto il 14 dicembre in Università Cattolica a Milano con la moderazione di Paola Barretta, portavoce di Carta di Roma.

L’occasione per il dibattito è stata il “Progetto Reason”, finanziato con i fondi dell’Unione Europea, al quale hanno collaborato i soggetti presenti all’incontro.

«Nel 2016 Facebook rimuoveva circa 180mila contenuti d’odio al mese - ha dichiarato Roberto Bortone dell’Ufficio Nazionale Anti-discriminazione Razziale (Unar) in apertura dell’incontro -. Nei soli primi tre mesi del 2020, grazie all’intelligenza artificiale, ne ha eliminati 9,6 milioni, il 90% prima ancora che l’utente se ne accorgesse». Numeri impressionanti che ad un primo sguardo affiderebbero totalmente alle mani della macchina il compito di rimuovere l’hate speech. 

Ma la tecnologia non può mai sostituire le competenze dell’essere umano. «La logica algoritmica si occupa di informazioni già codificate il cui significato è stabilito in anticipo. Un approccio che parte dall’educazione, invece, interpreta e produce significato, operazione sensibile al contesto» - ha specificato Stefano Pasta, docente di Didattica e Pedagogia speciale in Università Cattolica, che ha riportato uno studio realizzato attraverso l’Osservatorio dell’Ateneo MediaVox, che ha raccolto nella seconda metà del 2020 i tweet contro i Rom e i Sinti, annotati manualmente da alcuni esperti, selezionandoli per parole chiave.  

«I ricercatori hanno rilevato una costanza dell’antigitanismo nei mesi, hanno identificato nove forme di retoriche prevalenti e sette indicatori da considerare (se il discorso è pubblico, se l’individuo preso di mira è un singolo, se il contenuto esprime l’odio, se ha l’intento di far del male, se non vuole redimere, se rende possibile una risposta violenta e se incita alla violenza). Ma se l’intelligenza artificiale può aiutare a rilevare i processi che polarizzano dialetticamente i soggetti in un “noi” e un “loro”, questa va coniugata con la sensibilità umana dei ricercatori» - ha concluso Pasta. 

Come si caratterizza l’odio in quanto tale? «Si colloca sui piani psicologico e social. Si tratta di sentimenti di avversione, rifiuto, ripugnanza, livore, astio e malanno verso qualcuno. Il linguaggio d’odio è tendenzioso ostile e malizioso contro le persone e le loro caratteristiche innate» - ha spiegato Milena Santerini, direttrice del Centro di ricerca sulle relazioni interculturali dell’Università Cattolica. Per rimuovere il linguaggio d’odio che porta un inquinamento sociale e culturale occorre individuarlo prima che sia compiuto un crimine. «Insulti, diffamazione, stalking, aggressività, tutto ciò che fa del male può certamente essere denunciato e perseguito penalmente o punito con una sanzione civile, ma questa operazione riguarda solo i casi eclatanti. Quando l’hate speech causa preoccupazione in merito alla tolleranza e al rispetto ponendosi su un confine sottile è difficile intervenire anche se i destinatari subiscono un’offesa e sono minati nella loro dignità» - ha continuato Santerini.  

Una considerazione importante è che l’odio online non è solo espressione istintiva derivante da un disagio sociale ma spesso avviene per fini politici ed economici. Occorre, dunque, togliere i suoi canali di alimentazione, ad esempio aiutando le piattaforme a rimuovere quei contenuti che apparentemente non sembrano offese gravissime perché l’algoritmo non riesce ad individuare l’odio a livello linguistico, ma lo sono.

Esempi chiari sono le parole “maiale” o “finocchio”. Come ha spiegato Federico Faloppa, docente di Semiotica dell’Università di Reading in Gran Bretagna «le parole insultanti, o che individuano sul piano semantico alcune discriminazioni, spesso in origine non sono discriminatorie ma possono attivarsi come attacchi, insulti, pretesti per incitare all’odio».

Discorsi d’odio non sono solo, dunque, lessico o “parole per ferire”, «anche se questo è il primo livello con cui si è costruita la prima detection grazie ad algoritmi che indicavano alcune parole chiave che individuavano categorie razziali, etniche, parole insultanti sul piano del genere» - ha precisato Faloppa.  

Non si può non considerare anche i cosiddetti “falsi positivi” in rete e non si può rischiare di rimuovere post di persone che non hanno intenzioni di odio online, né quindi di limitare la libertà di espressione. 

Su questo punto è intervenuto anche Emanuel Rota, docente dello European Union Center dell’Illinois che ha spiegato la situazione americana in virtù del primo emendamento della Costituzione «che salvaguarda gli spazi di libertà individuali e statali, vietando allo Stato di intervenire in questioni sensibili come quelle religiose e su quello che è giusto o sbagliato nel dibattito pubblico». D’altra parte -ha aggiunto Rota - «il privato (social network, informazione, scuola privata) può rimuovere post (o addirittura gli account), o non pubblicare, o sospendere studenti se ritenuti promotori di hate speech».

La detection ha l’obiettivo di individuare il discorso d’odio considerando tutte queste difficoltà. «Lo si può fare - ha detto Santerini - sia analizzando come lavorano le piattaforme per la rimozione di contenuti d’odio, sia analizzando i “gruppi target” (antisemiti, contro gli immigrati ecc.), sia studiando le caratteristiche del discorso d’odio, come abbiamo fatto con Mediavox». 

In questo contesto il ruolo delle istituzioni è fondamentale. «Un approccio nazionale che coinvolga enti, istituzioni, università, mondo dell’associazionismo è quanto il Progetto Reason sta cercando di realizzare - ha dichiarato il direttore di Unar Triantafillos Loukarelis -. L’ambizione è quella di lavorare anche con i ministeri dell’Interno, della Giustizia, dell’Istruzione (poiché al Progetto partecipano anche alcune scuole). Un partenariato così vario ed esperto ci dà la speranza di poter essere utili al Paese. Inoltre, a livello internazionale si sta pensando a uno strumento normativo uniforme come guida per i diversi Paesi».

Alcune analisi realizzate da Federico Faloppa per il Consiglio d’Europa hanno evidenziato che in Paesi come la Bosnia, l’Albania e il Kossovo molto discorso d’odio viene prodotto nei servizi pubblici e sui mezzi di trasporto nei confronti di alcune minoranze in particolare. «Serve un’osservazione etnografica - ha dichiarato il docente -. Così come è necessario un lavoro nelle scuole tra insegnanti e docenti che facciano emergere il sommerso di questi discorsi individuando la portata di ciò che resta inespresso per paura della vittimizzazione. Un contesto dove la giustizia riparativa troverebbe uno spazio ottimale». 

E non da ultimo occorre considerare il ruolo dell’informazione. «È necessaria la formazione in questo ambito - ha sottolineato Faloppa -. Quanto il discorso d’odio viene eccitato da una pessima informazione che cerca un capro espiatorio, che non fa da filtro al discorso pubblico quando diventa discriminante? Occorre coinvolgere i diversi attori sociali e pubblici che si occupano di moderazione». 

A concludere la riflessione dell’evento è stata Flavia Pesce, direttrice dell’Istituto per la ricerca sociale, che ha spiegato il funzionamento dell’intelligenza artificiale attraverso l’uso di un modello matematico per l’identificazione dei messaggi di odio online. «Il machine learning si basa su tre concetti: il task, cioè il problema reale da risolvere tramite un algoritmo, l’experience, ovvero i dati attraverso cui il sistema apprende come risolvere un compito, la performance, ossia l’accuratezza nel fornire risposte - ha spiegato Pesce -. Per addestrare la macchina occorre un periodo di apprendimento in cui fornirle informazioni e modalità per decodificare le informazioni. Si tratta di un compito di classificazione automatica del contenuto emotivo di un testo, sempre con la supervisione dell’intelligenza umana di esperti».
 

Un articolo di

Emanuela Gazzotti

Emanuela Gazzotti

Condividi su:

Newsletter

Scegli che cosa ti interessa
e resta aggiornato

Iscriviti