NEWS | social media

Perché regolamentare internet è complicato

22 gennaio 2021

Perché regolamentare internet è complicato

Condividi su:

Era appena il 26 maggio 2020 quando Twitter segnalava per la prima volta ai propri utenti che due tweet di Donald Trump sul voto per corrispondenza erano fuorvianti e falsi, invitandoli a un fact-checking su fonti autorevoli come CNN e Washington Post; tre giorni dopo sarebbe stata la volta di un’altra segnalazione per un tweet presidenziale che inneggiava alla violenza dopo i disordini scatenati dalla brutale uccisione di George Floyd. Il nuovo corso della piattaforma cinguettante si inseriva nella policy adottata appena un mese prima per fronteggiare le fake news sul coronavirus, ma la reazione del Presidente non si era fatta attendere: accusando la piattaforma di fare “attivismo politico” e di adottare una “linea editoriale”, Trump ingaggiava una battaglia per riformare la cd. Section 230 (una disposizione della legislazione USA in materia di Internet) e rendere le piattaforme di social media responsabili dei contenuti pubblicati nel quadro di eventuali contenziosi, come fossero editori anziché semplici service providers.

Ma non si trattava della prima occasione di scontro: nel caso Knight Institute v. Trump, intentato da un’associazione attiva presso la Columbia University, si affermava che l’account @realDonaldTrump rappresentasse un “public forum” ai sensi del noto Primo Emendamento della Costituzione USA, che tutela, inter alia, la libertà di stampa e di parola (interpretata dai giudici nel doppio significato di “right to speak” e “right to hear” – diritto di parola e di ascolto). Per questa ragione i giudici di primo e secondo grado avevano qualificato come illegale il blocco degli utenti che rispondevano criticamente ai post del Presidente. In altre parole non era vero, come avevano cercato di argomentare gli avvocati difensori, che la piattaforma fosse adoperata ad uso personale: nel profilo era chiaramente indicato che si trattasse del Presidente USA; inoltre, alcuni tweet erano stati adoperati come strumenti di governo per effettuare nomine e archiviati come Official Records (sentenze del 23 maggio 2018 e del 9 luglio 2019 – l’appello di Trump alla Corte Suprema avverso tali pronunce è ancora pendente).

Anche Facebook, che aveva inizialmente mantenuto una posizione ‘neutrale’, si è progressivamente adeguata al nuovo corso. Ancora a gennaio 2020, mentre aggiornava le regole per le inserzioni, aveva annunciato di non voler intervenire sulle pubblicità elettorali verificandone la veridicità. Ma dopo un crescendo di pressioni culminate nella campagna Stop Hate for Profit, con il boicottaggio di aziende come Starbucks, Coca Cola ecc., si è deciso per un rapido revirement. Da un lato si è provveduto all’approvazione di un Comitato di esperti indipendenti incaricati di decidere “cosa rimuovere, cosa lasciare e perché” dei contenuti online (l’Oversight Board: un esperimento di giustizia privata potenzialmente applicabile… a due miliardi di persone!); dall’altro si è specificato, nel rapporto Coordinated Inauthentic Behavior del luglio 2020, di aver bloccato account e pagine orbitanti intorno QAnon e le teorie suprematiste, annunciando altresì misure preventive per la campagna elettorale: un silenzio elettorale nell’ultima settimana prima del voto con la sospensione degli annunci elettorali; la segnalazione di post tesi a delegittimare i risultati elettorali; e la rimozione di contenuti miranti a scoraggiare il voto di segmenti della società americana.

Nihil sub sole novum? Le tensioni legate alla net neutrality delle piattaforme social non rappresentano dunque un problema nuovo, ma la scarica elettrica che le ha attraversate nel corso degli ultimi giorni non ha precedenti. In un crescendo inimmaginabile di eventi, il 6 gennaio Trump ha incitato con una serie di tweet – prontamente segnalati dalla piattaforma – i propri sostenitori a bloccare i lavori del Congresso e del Senato riuniti per proclamare la vittoria di Biden. Ne è seguito il noto assalto da parte di gruppi estremisti al Campidoglio, con i tragici decessi e l’irredimibile colpo al prestigio statunitense.

 

Quando Trump ha pubblicato un video in cui invitava i suoi sostenitori a tornare a casa, senza tuttavia condannarli, le piattaforme sono corse ai ripari: video e post sono stati rimossi, Twitter e Facebook hanno annunciato il blocco dei profili del Presidente, prima in modo temporaneo poi permanente (chiaramente nulla osta a successivi ripensamenti, come sempre: rebus sic stantibus!). Analoghe decisioni sono state adottate da Twitch, Reddit, Shopify e Snapchat. Mentre altri, come Tik Tok e Pinterest, si sono per il momento limitati a rimuovere i contenuti legati all’assalto al Campidoglio.

Ma dove porterà tutto questo? Appare chiaro che la perimetrazione della pubblica arena digitale attraverso l’esclusione dei soggetti indesiderati, quelli che nei dispacci diplomatici si definiscono persone non grate, appare insostenibile su larga scala. Quid dei sempre più numerosi, più o meno nocivi, altri gruppi estremisti? Dai No-Covid ai Terrapiattisti, passando per i redivivi No-Vax, essi sono numerosi quanto i possibili parametri per escluderli. Dove porre l’asticella? Sulla prevenzione dei reati violenti? Sulla repressione dei discorsi d’odio? Sulla tutela della salute pubblica?

Si tratta di questioni delicate. Da un lato, ricerche empiriche ci mostrano che la rimozione di post e profili ha il solo effetto di polarizzare ancor di più l’opinione pubblica. Dall’altro i primi dati relativi all’incidenza dell’esclusione dai social media dei discorsi del Presidente Trump sono considerevoli: secondo una ricerca condotta da Zignal Labs (riportata nel Washington Post del 16 gennaio 2020) dalla chiusura/sospensione dei profili del Presidente le conversazioni aventi ad oggetto il tema delle frodi elettorali sono diminuite del 73%, passando da 2.5 milioni di riferimenti a 688.000.

Valutando questo dato occorre considerare il breve arco temporale in cui è stata condotta l’osservazione, e precisare che Twitter ha soppresso, oltre al profilo del Presidente, quello di più di 70.000 affiliati alle teorie complottiste QAnon. Pure con questo caveat si tratta di numeri impressionanti, alla luce dei quali l’antica domanda quis custodiet ipsos custodes? (chi controlla i controllori?) appare sempre più determinante.

Se, come da più parti invocato, la risposta non consiste nel restringere il campo, ma nell’allargare il recinto del free market of ideas, la soluzione non appare all’orizzonte, dal momento che le aziende del mondo digitale godono di posizioni di robusto monopolio. Inoltre, questi recinti sono contenuti in altri, che riguardano i protocolli tecnici, e questi in altri ancora, che concernono le infrastrutture della rete. Quando, dopo il blocco, Trump ha provato a postare nuovamente su Parler, popolare social dell’estrema destra, Apple e Google hanno subito escluso la possibilità di scaricare la relativa app e Amazon ha sospeso il social network dai suoi server.

Di fatto siamo di fronte a piattaforme private che “stanno progressivamente infiltrando (e convergendo con) le istituzioni (offline, tradizionali) e le pratiche che strutturano sul piano organizzativo le società democratiche” – come scrivono Van Dijck, Poell e de Waal in Platform Society (2019). Piattaforme che incarnano la nuova sfera pubblica ma che rispondono innanzitutto a logiche private, di profitto. La scelta di mostrarsi ‘neutrali’ fino a tempi recenti – ma sappiamo bene che le piattaforme non sono mai neutrali, anzi portano iscritti nel linguaggio muto e opaco del codice i valori dei progettisti – era una scelta di business. Ma sia che lascino circolare liberamente disinformazione e discorsi d’odio sia che decidano di moderare e rimuovere i contenuti estremisti, in gioco c’è la credibilità (secondo alcuni la sopravvivenza) delle istituzioni democratiche.

 

Come intervenire? È ancora sostenibile farsi scudo dietro la (mancata) educazione digitale dei cittadini, estendendo allo spazio pubblico le logiche neo-liberiste dell’iper-responsabilizzazione individuale? E se l’auto-regolamentazione non fosse sufficiente, è possibile disciplinare i social come gli altri media oppure occorrono misure ad hoc? In entrambi i casi: chi avrà il potere di deciderlo, un singolo Stato oppure una governance ibrida interna/internazionale, pubblica/privata? Quali saranno gli attori rilevanti? Riuscirà l’Unione Europea ad affermarsi come leader nel governo delle trasformazioni in atto? 

Di tutte questi problemi si occupa ‘Funzioni pubbliche / poteri privati’, un progetto di ricerca dell’Università Cattolica del Sacro Cuore, condotto dai docenti Gabriele Della Morte e Giovanna Mascheroni, che studia, da una prospettiva multidisciplinare, l’impatto degli algoritmi in ambito giuridico, politico e sanitario. I problemi, tutt’altro che semplici, vanno posti nella giusta prospettiva per evitare di scivolare in illusorie strategie risolutive. Internet, ovvero lo spazio dove navigano i dati di cui si avvalgono le piattaforme social, è una sorta di ‘rete delle reti’ (l’espressione corretta è Intern-Net-Working), nata e prosperata in un contesto del tutto privo di controllo pubblici e internazionali. Pertanto non esiste alcun trattato generale che ne disciplini gli aspetti giuridici dal punto di vista strutturale e le norme internazionali che trovano applicazione – le sole in grado di avere una portata globale – sono per lo più quelle relative alla protezione dei dati, soprattutto a livello di Unione europea, insieme con altre applicate per analogia (ne è un esempio la libera posa dei cavi oceanici dove navigano i nostri dati e che deriva dalle norme sul diritto internazionale del mare).

In altri termini gli attori pubblici che si occupano di Internet a livello globale, come ad esempio l’Internet Governance Forum sono appunto forum privi di poteri coercitivi. Difficile immaginare, in un simile contesto, soluzioni prêt-à-porter. Occorrerà un grande movimento di opinione per convincere Stati e attori privati a stabilire regole comuni, vincolanti per tutti.

Pertanto, sgombrando il campo dalle ferite narcisistiche di chi si arrocca sul primato del mondo pre-digitale, il problema non è se un possibile governo algoritmico sia o meno in grado di amministrare il potere in modo efficace. Certamente può farlo: se un algoritmo che guida un’automobile senza conducente può districarsi tra i mille ostacoli di un ingorgo, come non immaginare un algoritmo che calcoli il pericolo di recidiva di un detenuto (esiste!), uno che riconosca da un colpo di tosse una patologia insorgente (esiste!), o uno che stabilisca cosa si possa o non si possa dire su una piattaforma social (esiste!... anche se la moderazione automatica dei contenuti ha in molti casi fallito). Il problema attuale della governance del mondo digitale risiede proprio nell’assenza di quel sistema di pesi e contrappesi stratificato nei secoli. In una prospettiva ottimistica è solo un problema di assestamento evolutivo; in una pessimistica è l’anticamera a nuove, nefaste, concentrazioni incontrollate di poteri.

Il 2 dicembre 2015 (nel meta-verso digitale: un secolo fa), l’FBI richiese alla Apple di accedere ai contenuti di un iPhone trovato in possesso di un attentatore deceduto nell’attacco terroristico a San Bernardino, California. La ragione era semplice: l’iPhone del terrorista – il modello 5 – era il primo della serie a non essere dotato di una backdoor, ovvero di un software per aggirare la protezione dei dati garantita dal dispositivo. Le informazioni contenute (messaggi, tracciamenti, ecc.) attenevano però a questioni relative alla sicurezza nazionale e l’FBI riteneva di averne diritto di accesso.

La lettera di diniego dell’azienda di Cupertino potrebbe figurare come introduzione per ogni studio futuro sulla sovranità: secondo Apple il Governo USA aveva richiesto qualcosa “troppo pericoloso da creare” che “nelle mani sbagliate” avrebbe determinato una concentrazione di potere eccessiva, dal momento che non si sarebbe potuto verificare se le autorità ne avessero fatto un uso circoscritto al caso.

Una concentrazione di potere eccessiva che nelle mani sbagliate sarebbe stata un pericolo troppo grande. Peccato che nel contesto il significato fosse rovesciato: non si sarebbe potuto dire meglio.

Un articolo di

Gabriele Della Morte - Giovanna Mascheroni

Gabriele Della Morte - Giovanna Mascheroni

Professore di Diritto Internazionale - Professoressa di Sociologia dei Media

Condividi su:

Newsletter

Scegli che cosa ti interessa
e resta aggiornato

Iscriviti