Il punto resta sempre lo stesso: come si fa decidere se una teoria del complotto è semplicemente strampalata e, dunque, andrebbe eliminata prima che diventi troppo pericolosa? Secondo Gabriele Della Morte c’è un «problema di interpretazione della verità», cioè «epistemologico» e «non ontologico», richiamando un concetto espresso dal filosofo Massimo Adinolfi nel suo libro “Hanno tutti ragione? Post-verità, fake news, Big data e democrazia”. Il caso di Trump, da questo punto di vista è interessantissimo: un presidente in carica che viene silenziato da un attore privato. Insomma, è il grande quid della «governance senza government» che, secondo Albetino «non è possibile» poiché «se vuoi dare una risposta efficace al problema lo devi fare velocemente: nel mondo così rapido di Internet anche gli strumenti legislativi e regolamentari da adottare devono essere necessariamente diversi».
La questione dei contenuti “borderline” da eliminare resta enorme. Un aspetto che YouTube ha affrontato seguendo le 4 r: remove, rimuovere i contenuti contrari alla community; raise, dare spazio a voci che hanno maggiore affidabilità; reward, rilanciare contenuti raccomandati; reduce, ridurre quelli non idonei. «Ogni minuto su YouTube vengono caricate 500 ore di video. Per fare in modo che i contenuti non siano contrari alla legge e alle nostre “community guidelines” utilizziamo, assieme all’Intelligenza Artificiale, uno stuolo di persone fisiche che li rivedono», ha chiarito Abeltino. Grazie a questo sistema - «non perfetto» ma «tecnologico e umano» - il 38% dei contenuti vietati sono bloccati prima di essere uploadati, il 36% sono stati visti da meno di dieci persone e il restante 25% sono stati visti da più di 10 persone.
Ma è corretto affidare alle aziende l’onere di dare il diritto all’oblio? Ancora oggi, ha avvertito il professor Della Morte, «non c’è alcun trattato internazionale su Internet: sembra che la rete e il cyberspazio non siano un problema del giurista». Eppure, lo sono. Proprio «perché intaccano, due colonne del ragionamento giuridico: lo spazio e il tempo». L’algoritmo è fluido, si muove continuamente e «quello che porto in giudizio non è mai originario» bensì il risultato di una immane quantità di dati digerita. Invece, «la storia del diritto è fatta da momenti di scarto», il giurista è «un uomo che decide» e può farlo nel senso avverso alla maggioranza delle correlazioni. Cosa che l’intelligenza artificiale non può fare. Di qui la necessità di affrontare la «dimensione etica dei sistemi di intelligenza artificiale», come si sta facendo in molti consessi internazionali, e soprattutto l’urgenza di delineare una regolamentazione, o meglio, una «co-regolamentazione», ha suggerito Abeltino, in cui siano equamente coinvolti governi, operatori privati, società civile.