Oltre agli «attori politici», poi, bisogna considerare anche «altri attori con interessi diversi, per esempio coloro che mirano alla destabilizzazione delle democrazie». Perché «una cosa è utilizzare l’intelligenza artificiale per produrre contenuti che vadano incontro agli elettori, un’altra cosa è produrre contenuti falsi che indeboliscano la credibilità di un leader politico». Tutto ciò, chiede Palano, come si limita con strumenti legislativi? Per raffreddare l’eccessivo pessimismo, chiosa il direttore di Polidemos, «dobbiamo tenere presente che spesso gli umani tendono ad essere spaventati dalle innovazioni, ma dopo qualche tempo, come il marziano di Ennio Flaiano, avranno capito come funziona».
«L’intelligenza artificiale è generativa e conversazionale, cioè simula un dialogo» spiega Antonio Palmieri, presidente della Fondazione Pensiero Solido. «Noi tendiamo ad antropoformizzare la realtà. La macchina calcola qual è la parola più probabile da mettere in sequenza. L’essere umano tende ad aggregarsi con ciò che gli è simile. L’intelligenza artificiale funziona se noi decidiamo che la vogliamo usare». Il pericolo, dunque, è «la deresponsabilizzazione dell’uomo», perché «così costruiamo quella che Julio Velasco chiama la cultura degli alibi, un grande alibi che ci allontana dalla democrazia se pensiamo che tanto-vincono-gli-algoritmi».
In altre parole, racconta Palmieri, la «visione del potere deterministico assoluto degli algoritmi» è sbagliata perché «cancella l’enorme possibilità che ciascuno di noi ha di poter giocare la sua partita». Vale anche nell’era dell’intelligenza artificiale generativa e conversazionale. Una nuova era nella quale siamo solo all’inizio. «I “cattivi” ci sono, ma ci siamo sempre stati» chiosa Palmieri. «Così come i tentativi di inquinare le elezioni ci sono stati e ci saranno, ciò che cambia sono gli strumenti. Ma ciascuno di noi rimane autore del proprio destino». Anche di quello digitale.