NEWS | Incontro

Rete e algoritmi, il dilemma tra libertà e sicurezza

26 novembre 2021

Rete e algoritmi, il dilemma tra libertà e sicurezza

Condividi su:

Libertà o sicurezza? È una domanda chiave per esplorare «il rapporto tra la rete» e «l’intelligenza artificiale» e, di conseguenza, «l’esperienza che ciascuno di noi sperimenta tutti i giorni sui social e sull’on line». È stata posta al giurista dell’Università Cattolica Gabriele Della Morte, docente di Diritto internazionale in Università Cattolica, e alla rappresentante del mondo big tech Giorgia Abeltino, Senior Director Public Policy South Europe and Director External Relations Google Arts & Culture, Google, protagonisti dell’incontro promosso dallo Humane Technology Lab dedicato a questa sfida, con un particolare occhio di riguardo al ruolo degli operatori privati nella gestione della rete e degli algoritmi. Una conversazione in linea con la missione del Laboratorio che, come ha detto Giuseppe Riva, prima di lasciare spazio allo stimolante confronto, è quella di «indagare la complessità dei rapporti fra la tecnologia e le differenti dimensioni dell’umano».

Negli ultimi anni il dilemma tra libertà e sicurezza è «ritornato alla ribalta» per le ricadute causate dello strapotere delle piattaforme tecnologiche, Big Tech, ha osservato il giornalista Andrea Daniele Signorelli, tra i massimi esperti di Intelligenza Artificiale in Italia e moderatore del dibattito. Fake news e disinformazione ne sono tra gli esempi più eclatanti. Ma chi decide quale contenuto deve circolare e quale va eliminato?

«Ci troviamo di fronte a uno dei punti nodali che riguardano lo sviluppo della rete e della Internet Governance», ha dichiarato Giorgia Abeltino. «La missione che 22 anni fa i suoi fondatori diedero a Google fu quella, valida ancora oggi per la società, di organizzare le informazioni a livello globale e renderle disponibili al mondo». Ora, «in un mondo perfetto tutto questo sarebbe un compito facile. Ma non è così». Come si fa a capire se un contenuto è positivo, utile e rilevante per il cittadino rispetto a uno che non lo è? «Ci sono alcuni principi cui YouTube fa riferimento: per esempio, se un contenuto è illegale resta illegale, vale a dire “what is illegal offline is illegal online”. Altro principio è la definizione da parte della piattaforma di quelle che sono chiamate le “community guidelines”: «se vuoi essere uno youtuber e vuoi uploadare un contenuto devi rispettare determinate regole». Il problema però è un altro: l’esistenza di una zona borderline, a metà tra la libertà di espressione e la tutela della sicurezza. «Ci sono contenuti fondamentali per la libertà di informazione che ricadono in una zona grigia non facilmente identificata. Da questo punto di vista, il ruolo degli operatori privati non è tanto quello di avere l’onere di decidere su un contenuto ma di avere la possibilità di intervenire rapidamente». Un esempio calzante? La repentina eliminazione all’inizio della pandemia di un video sulla teoria cospirazionista che indicava nella tecnologia 5G la causa principale del Covid».

 

Un articolo di

Katia Biondi

Katia Biondi

Condividi su:

 

Il punto resta sempre lo stesso: come si fa decidere se una teoria del complotto è semplicemente strampalata e, dunque, andrebbe eliminata prima che diventi troppo pericolosa? Secondo Gabriele Della Morte c’è un «problema di interpretazione della verità», cioè «epistemologico» e «non ontologico», richiamando un concetto espresso dal filosofo Massimo Adinolfi nel suo libro “Hanno tutti ragione? Post-verità, fake news, Big data e democrazia”. Il caso di Trump, da questo punto di vista è interessantissimo: un presidente in carica che viene silenziato da un attore privato. Insomma, è il grande quid della «governance senza government» che, secondo Albetino «non è possibile» poiché «se vuoi dare una risposta efficace al problema lo devi fare velocemente: nel mondo così rapido di Internet anche gli strumenti legislativi e regolamentari da adottare devono essere necessariamente diversi».

La questione dei contenuti “borderline” da eliminare resta enorme. Un aspetto che YouTube ha affrontato seguendo le 4 r: remove, rimuovere i contenuti contrari alla community; raise, dare spazio a voci che hanno maggiore affidabilità; reward, rilanciare contenuti raccomandati; reduce, ridurre quelli non idonei. «Ogni minuto su YouTube vengono caricate 500 ore di video. Per fare in modo che i contenuti non siano contrari alla legge e alle nostre “community guidelines” utilizziamo, assieme all’Intelligenza Artificiale, uno stuolo di persone fisiche che li rivedono», ha chiarito Abeltino. Grazie a questo sistema - «non perfetto» ma «tecnologico e umano» - il 38% dei contenuti vietati sono bloccati prima di essere uploadati, il 36% sono stati visti da meno di dieci persone e il restante 25% sono stati visti da più di 10 persone.

Ma è corretto affidare alle aziende l’onere di dare il diritto all’oblio? Ancora oggi, ha avvertito il professor Della Morte, «non c’è alcun trattato internazionale su Internet: sembra che la rete e il cyberspazio non siano un problema del giurista». Eppure, lo sono. Proprio «perché intaccano, due colonne del ragionamento giuridico: lo spazio e il tempo». L’algoritmo è fluido, si muove continuamente e «quello che porto in giudizio non è mai originario» bensì il risultato di una immane quantità di dati digerita. Invece, «la storia del diritto è fatta da momenti di scarto», il giurista è «un uomo che decide» e può farlo nel senso avverso alla maggioranza delle correlazioni. Cosa che l’intelligenza artificiale non può fare. Di qui la necessità di affrontare la «dimensione etica dei sistemi di intelligenza artificiale», come si sta facendo in molti consessi internazionali, e soprattutto l’urgenza di delineare una regolamentazione, o meglio, una «co-regolamentazione», ha suggerito Abeltino, in cui siano equamente coinvolti governi, operatori privati, società civile.

Newsletter

Scegli che cosa ti interessa
e resta aggiornato

Iscriviti