NEWS | htlab

Chat GPT e i rischi della «meccanizzazione dell’umano»

20 novembre 2023

Chat GPT e i rischi della «meccanizzazione dell’umano»

Condividi su:

Nella seconda metà dell’Ottocento lo strano caso di «Cleaver Hans» riempì le pagine dei giornali. Il protagonista, Hans, era un cavallo intelligente (cleaver, appunto) che sorprendeva per la capacità di contare e di eseguire operazioni matematiche rispondendo con i colpi del suo zoccolo. Tre più due? Ecco cinque colpi, incredibile. Il caso arrivò fino al Ministero dell’Istruzione tedesco, che istituì una commissione per capire se il suo proprietario fosse un truffatore. A scoprire il tranello fu uno psicologo, Carl Stumpf: Hans usava quella che oggi chiameremmo «intelligenza emotiva», riusciva a notare la soddisfazione di chi gli poneva la domanda e al momento giusto fermava lo zoccolo. 

Massimo Sideri, editorialista del Corriere della Sera, sceglie questo aneddoto per presentare nella Cripta dell’Aula Magna e sulle pagine del quotidiano la nuova collana del Corriere a cura di Humane Technology Lab (HTLab), il laboratorio dell’Università Cattolica che investiga il rapporto tra esperienza umana e tecnologia. La storia del cavallo Hans, riportata da Kate Crawford nel primo dei tre volumi della collana (Né intelligenti, né artificiali. Il lato scuro dell’IA, prefazione di Antonella Marchetti), torna utile per porsi la domanda che si era fatto nel 1950 il padre dell’Intelligenza artificiale, Alan Turing: le macchine possono pensare? 

«ChatGPT è stato lanciato esattamente un anno fa e da allora sui media sono apparse molte affermazioni a proposito del fatto che abbia una coscienza, che sia in grado di comprendere la realtà» spiega Giuseppe Riva, direttore di HTLab. «Ci siamo chiesti innanzitutto che cosa sia in grado di fare, e da psicologo mi sono accorto che Chat GPT fa molto bene una cosa: costruisce mappe semantiche». Il professor Riva ricorda che «molto prima di Chat GPT, Ferdinand de Saussure, l’inventore della semantica, si era posto il problema di capire come funziona il linguaggio e aveva capito che i gruppi sociali hanno bisogno di definire in modo univoco, di mappare le parole». Grazie al celebre algoritmo, Chat GPT utilizza gli stessi principi che de Saussure aveva identificato più di un secolo fa. Non comprende la realtà, ma «interpreta i significati che un gruppo di persone ha utilizzato per descrivere la realtà». Per fare ciò, «non serve coscienza, non c’è bisogno di soggettività» perché, spiega Riva, «l’unico obiettivo comunicativo che ha Chat GPT è la cooperazione, ossia dare una risposta che corrisponde ai desideri e ai bisogni dell’altro». 

Chat GPT è dunque intelligente? «Dipende» risponde Riva, che è anche autore del terzo volume della collana, in edicola dal 1° dicembre (I social network, prefazione di Andrea Gaggioli). «Sicuramente è in grado di sintetizzare e rimodulare i significati contenuti in un testo, ma non ha nessuna capacità di comprendere la realtà e non ha nessuna coscienza. Questo ci rende profondamente diversi dall’intelligenza artificiale perché, come scrive Luca Peyron nella prefazione al secondo volume della collana, a furia di pensare di essere simili all’intelligenza artificiale rischiamo di considerarci delle macchine». La «meccanizzazione dell’umano», insomma, è secondo il professor Riva «il rischio più grosso che abbiamo oggi». 

«L’esempio di Turing è molto utile» racconta l’autore del secondo libro, Simone Natale (Macchine ingannevoli. Comunicazione, tecnologia, intelligenza artificiale, già in edicola da venerdì 17 novembre). «Turing si chiede se le macchine possano pensare, ma nelle righe successive propone di sostituire questa domanda con il cosiddetto test di Turing». La chiave, spiega Natale, è «mettere da parte la questione di cosa succeda dentro la macchina e mettere al centro la prospettiva degli esseri umani». Così, già nel 1950 lo scienziato inglese immaginava di parlare con un computer. «Capire come funziona l’attenzione e la percezione dell’essere umano serve a sviluppare tecnologie che funzionino meglio per gli umani stessi» chiosa Natale. Settant’anni dopo, vale anche per Chat GPT. 
 

Un articolo di

Francesco Berlucchi

Condividi su:

Newsletter

Scegli che cosa ti interessa
e resta aggiornato

Iscriviti