La lecture, dal titolo “Psicomatica e menti digitali” (la prima una crasi tra psicologia e informatica), ha toccato e previsto, con l’approccio scientifico della cosiddetta “psicotecnologia”, i prossimi passi: «I Large Language Models hanno sviluppato capacità cognitive simili o perfino superiori a quelle umane – ha proseguito Riva – Ma linguaggio e pensiero sono uniti nell’uomo, non nell’IA. E per scoprire perché l’IA sembra intelligente è proprio dall’umano che si deve partire, cioè dal linguaggio che consente, attraverso l’immaginazione, di parlare di cose che non ci sono ancora».
«Oggi l’Intelligenza Artificiale somiglia molto alla Biblioteca d’Alessandria – ha detto ancora - grazie alle connessioni tra i significati che, attraverso processi statistici, la rendono apparentemente intelligente. Ma dove sta la differenza con l’umano? Sta nella costruzione di significati. Quelli dell’IA sono descrittivi delle connessioni tra le parole, ma non implicano esperienza, emozioni, volontà. ChatGPT ha la conoscenza, ma non la comprensione; voi non sapete solo dare le risposte, ma sapete anche, soprattutto, fare le domande».
«L’IA non sa curare, poiché la cura è comprensione e fiducia – ha concluso il professor Riva – Sa apprendere, sa gestire i processi, sa comprendere alcuni significati; ma non sa spiegare le scelte, non ha il pensiero nel suo linguaggio, non ha intenzionalità né coscienza. L’Intelligenza Artificiale ci dà l’illusione della relazionalità, e non richiede costi o sforzi affettivi; ma la relazionalità vera passa attraverso lo sguardo delle persone, non tramite la tastiera di un telefonino. Ed è proprio per questo rischio illusorio che il tema necessita di essere normato: prevedere richiede i nostri dati personali, prevede processi persuasivi in base ai nostri comportamenti».