NEWS | Lezione aperta

Intelligenza artificiale, il difficile compito di non essere né apocalittici né integrati

20 novembre 2025

Intelligenza artificiale, il difficile compito di non essere né apocalittici né integrati

Condividi su:

I funzionari di Montecitorio hanno iniziato a usare “Norma”, un dispositivo di Intelligenza Artificiale generativa, come assistente per la redazione dei dossier. Per scrivere gli emendamenti, invece, i deputati stanno cominciando a utilizzarne un altro con un nome un po’ più didascalico - “machina per fare le leggi” pare l’abbiano chiamato - ma prodotto con la stessa tecnologia. E nel prossimo futuro un chatbot consentirà ai cittadini di monitorare l’attività parlamentare dei propri rappresentanti. 

Partita all’inizio del 2024 con la pubblicazione di una manifestazione d’interesse da parte di Montecitorio alla quale hanno risposto 28 tra atenei e centri di ricerca, tra i quali sono stati selezionati gli sviluppatori dei tre prototipi, la piccola grande rivoluzione digitale del Parlamento italiano è oggi una realtà.

A seguire e promuovere questo percorso è stata Anna Ascani. Umbra, 38 anni, eletta nelle fila del Partito democratico, l’onorevole ha incontrato mercoledì 19 novembre nella sede di Milano dell’Università Cattolica del Sacro Cuore gli studenti e le studentesse del corso di Filosofia dell’era digitale e dell’intelligenza artificiale inaugurato all’inizio di questo anno accademico e i loro colleghi che seguono invece il percorso di studi tradizionale.

La lezione aperta dal titolo “Intelligenza Artificiale e Democrazia” è stata voluta dalla professoressa Paola Müller che insegna storia della filosofia medievale nel nuovo corso di laurea, ed ha rappresentato l’occasione per una discussione a tutto campo sui grandi interrogativi etici che solleva questa innovazione, ma anche sul ritardo europeo nella competizione tecnologica e pure sulla difficoltà a regolamentarla.

 

Un articolo di

Francesco Chiavarini

Francesco Chiavarini

Condividi su:

Introducendo l’ospite il prorettore vicario Anna Maria Fellegara, il preside della Facoltà di Lettere e Filosofia, Andrea Canova, e il direttore del dipartimento di Filosofia, Giuseppe D’Anna, hanno collocato questa iniziativa nel solco della riflessione che l’Ateneo da tempo sta conducendo sulle implicazioni dell’uso dell’Intelligenza Artificiale e nello specifico sui risvolti nella didattica.

«Le Università, e tutte le istituzioni che si occupano di formazione, devono porsi di fronte a quest’innovazione tecnologica, bilanciando due tentazioni: da una parte il terrore del dominio delle macchine sull’uomo, dall’altra l’atteggiamento idolatrico nei confronti dell’ultima novità», ha osservato Andrea Canova.

Nella consapevolezza, ha sottolineato Giuseppe D’Anna, che «dall’innovazione non si può tornare indietro», «e che ogni atteggiamento proibizionistico sarebbe oltre che sbagliato inutile di fronte ad un cambiamento di tale portata e così generale» il punto decisivo, ha fatto presente Anna Maria Fellegara «per un ateneo che ambisce a formare professionisti che siano anche cittadini attivi è aiutare i nostri studenti ad accorgersi del momento in cui passano da un sistema a guida assistita ad uno a pilota automatico, quando cioè smettono di utilizzare l’intelligenza artificiale come un aiuto ed iniziano invece a delegarle compiti che attengono alle loro responsabilità».

Nei confronti dell’IA occorrerebbe porsi né come dei profeti di sventura né come dei tifosi acritici (gli «apocalittici» e gli «integrati» per citare, come è stato fatto, un saggio di Umberto Eco diventato ormai un classico).

Condividendo questo atteggiamento di fondo, Anna Ascani, ha iniziato il suo intervento facendo notare la distanza dell’Europa dai due player che stanno conducendo la partita.

«Quella che stiamo vivendo oggi, assomiglia alla corsa per la conquista dello spazio degli anni della guerra fredda. Oggi il confronto è tra Stati Uniti e la Cina. E benché oggi siano statunitensi tutte le sette aziende leader, sono cinesi il maggior numero di brevetti: per cui non è detto che alla fine arrivino prima gli americani. Invece è molto difficile che lo faccia l’Europa dove nessuna impresa è al momento competitiva».

«Arrivare per primi» non è importante solo per avere un ruolo nel mercato globale, benché anche questo conti. La questione ancora più rilevante è che perdere questa sfida significherà non potere esercitare un controllo efficace su dispositivi destinati a diventare sempre più pervasivi in svariati ambiti della società.   

 «Avete provato a chiedere a Deep Seek che cosa accadde in piazza Tienanmen? Il primo tentativo cinese di sviluppare l’intelligenza artificiale ci ha mostrato quanto il modo con cui sono addestrati questi modelli faccia tutta la differenza del mondo.  Non avere un Large Language Model europeo performante vuol dire adottare strumenti che non sono stati progettati secondo principi e valori europei e che quindi, per esempio, non riconoscono il diritto d’autore - che noi, diversamente degli Stati Uniti, tuteliamo - o che utilizzano i dati biometrici delle persone per esercitare il controllo, tipica tentazione di regimi non democratici», ha osservato Ascani.

Inoltre, la potenza di calcolo richiesta dalle intelligenze artificiali assorbe enormi quantità di energia che pongono un’enorme questione sulla sostenibilità ambientale di questa innovazione. «Per ogni riposta ChatGpt consuma una bottiglia d’acqua da mezzo litro», ha esemplificato l’onorevole. 

Per non parlare dell’impatto sul lavoro, anche sulle professioni più creative, che fino all’altro ieri si pensavano insostituibili dalle macchine.

Ma come evitare questi rischi senza bloccare questa tecnologia che in altri ambiti promette benefici strabilianti, per esempio sulla salute, in particolare nell’aumentare la capacità di diagnosi e di cura?

Pur non avendo sviluppato il mondo digitale, L’Europa è stato il primo posto al mondo a tentare di regolamentarlo. Tuttavia, anche su questo fronte non sono mancate le difficoltà. Proprio nel giorno del convegno in Ateneo, è stata diffusa la notizia del rinvio dell’entrata in vigore del regolamento europeo sull’Intelligenza Artificiale, l’AI Act, chiesto dalla Commissione Europea: una decisione interpretata da alcuni osservatori come una frettolosa marcia indietro per evitare ulteriori tariffe sulle merci europee da parte dell’amministrazione Trump.

«Trovo inaccettabile che si posticipino al 2027 i termini dell’applicazione di questo regolamento dopo tutta la fatica che abbiamo fatto per elaborarlo – ha commentato la vicepresidente della Camera incalzata dalle domande del pubblico - Soprattutto mi pare paradossale decidere che alcuni effetti siano nocivi e poi stabilire che le misure per evitarli entrino in vigore praticamente tra due anni, quando quelle conseguenze si saranno già prodotte».  Ma a chi le ha obiettato che l’eccesso di norme può frenare l’innovazione Anna Ascani ha riconosciuto che «forse sarebbe stato meglio proporre meno regole, ma essere più rigorosi nel farle rispettare» Insomma, stare in mezzo tra “apocalittici” ed “integrati” non è un esercizio semplice. E, in definitiva, non è nemmeno la posizione più comoda.  

Newsletter

Scegli che cosa ti interessa
e resta aggiornato

Iscriviti