NEWS | psicologia

Virtual nudging, quando l’intelligenza artificiale orienta le scelte

22 gennaio 2026

Virtual nudging, quando l’intelligenza artificiale orienta le scelte

Condividi su:

Come nei contesti naturali, anche nel digitale le decisioni raramente nascono nel vuoto. Suggerimenti, interfacce e presenze virtuali possono indirizzare ciò che facciamo, spesso senza dichiararlo apertamente. È questo il cuore del virtual nudging, strategie con cui sistemi intelligenti e agenti virtuali (avatar, assistenti digitali) possono spingere il comportamento in una direzione, anche quando crediamo di scegliere liberamente.

Il tema è stato al centro del recente convegno “ALTEREGO: Emulating Intentionality and Awareness in Human-Technology Interaction”, dedicato alla presentazione del lavoro dell’unità milanese del progetto PRIN2022, coordinato da Antonio Chella (Università di Palermo), con ospiti nazionali e internazionali. Oltre ad Antonio Chella sono intervenuti Angelo Cangelosi dell’Università di Manchester, Michaela Gummerum dell’Università di Warwick, Tony Belpaeme dell’Università di Ghent, e Massimiliano Patacchiola, fondatore di Sapiente Education. Il convegno è stato organizzato dal gruppo di ricerca del CeRiToM (Centro di Ricerca sulla Teoria della Mente e sulle Competenze Sociali nel ciclo di vita) dell’Università Cattolica, diretto dalla professoressa Antonella Marchetti, e ha offerto un affondo su come la tecnologia influenzi le scelte agganciandosi a variabili spesso “invisibili”.

Esistono vari tipi di fiducia. Quella “epistemica” è riservata a chi riteniamo competente e affidabile e richiede esperienza e verifica. Il gruppo lo mostra nel lavoro Shall I Trust You? From Child–Robot Interaction to Trusting Relationships, evidenziando come la fiducia possa formarsi anche con agenti non umani. Accanto a questa agisce una fiducia più immediata, detta “situazionale”, che nasce nel qui-e-ora. La fiducia situazionale agisce sempre. Nel digitale diventa un tema caldo perché molte decisioni passano ormai da piattaforme e ambienti mediati, dove micro-segnali (tono, stile, “presenza” dell’avatar) possono orientare la fiducia e, a cascata, influenzare ciò che facciamo senza apparire come una spinta esplicita e senza consentire di norma un feedback da parte nostra, come più facilmente avviene nell’interazione reale.

Un passaggio decisivo è capire se l’agente “ci sta parlando davvero”. Gli studi sulla conoscenza condivisa (Shared Knowledge in Human–Robot Interaction) indicano che indizi come lo sguardo diretto rendono più naturale leggere l’interazione come relazione e non come semplice output. L’influenza può però passare anche da canali meno evidenti, segnali multisensoriali come gli odori sociali che possono modificare la fiducia verso un robot (Sensing Robots and Social Odor), mostrando quanto alcune leve restino sotto la soglia della consapevolezza.
E quando questa spinta coinvolge gli adolescenti, l’effetto diventa particolarmente sensibile. Lo studio Virtual agents and risk-taking behavior in adolescence: the twofold nature of nudging mostra che un avatar può aumentare o ridurre la propensione al rischio a seconda delle situazioni: non conta tanto quanto sia “umano” o “robotico”, ma la sua presenza e la direzione del “suggerimento”.

Il virtual nudging non è per forza negativo, può anche orientare verso scelte più sicure. Ma proprio perché agisce spesso in modo implicito, impone un criterio non negoziabile, la trasparenza. Se l’utente non è consapevole delle forze che lo orientano, la libertà di scelta rischia di diventare una variabile di progetto. E la responsabilità, a quel punto, non è tecnica ma etica.

 


Foto di Steve Johnson su Unsplash
 

Un articolo di

Cinzia Di Dio

Cinzia Di Dio

professoressa di Psicologia dello Sviluppo e dell'Educazione

Condividi su:

Newsletter

Scegli che cosa ti interessa
e resta aggiornato

Iscriviti