NEWS | Alumni

Umanesimo, lavoro, regolamentazione: dialogo sull’intelligenza artificiale

24 aprile 2024

Umanesimo, lavoro, regolamentazione: dialogo sull’intelligenza artificiale

Condividi su:

Venerdì 19 aprile 2024, in aula G.126 Cardinal Ferrari, si è tenuto l’incontro dal titolo “Dialogo sull’Intelligenza Artificiale: umanesimo, lavoro e regolamentazione”, organizzato dall’Associazione Ludovici e da Alumni UCSC. Si tratta della terza occasione di ritrovo per gli associati all’interno della cornice dell’Ateneo, dopo l’inaugurazione e la prima assemblea del 10 giugno 2023 e dopo l’evento del 10 novembre 2023, che ha coinvolto anche le Associazioni dei Collegi Augustinianum e Marianum.

Prima di una serie di iniziative che l’Associazione intende promuovere per favorire, come previsto dallo Statuto, «l’aggiornamento continuo delle conoscenze e delle competenze degli associati», quest’occasione è frutto dell’ottima sinergia tra alumni e collegiali che collaborano nella Commissione organizzazione eventi dell’Associazione e dall’impegno nel promuovere il progetto formativo del Ludovicianum. Non a caso, l’iniziativa si inserisce a pieno titolo nel ciclo di incontri del tradizionale seminario economico-giuridico, organizzato ogni anno dalla Commissione culturale del Collegio, che per questa edizione ha scelto di approfondire il tema dell’intelligenza artificiale.

«Noi abbiamo approvato in via definitiva l’AI Act, il Regolamento europeo sull’intelligenza artificiale, che giunge alla fine di questa legislatura e che vede davanti a sé un lungo percorso, di circa due anni, per la piena operatività, sia perché molte delle questioni affrontate richiedono nuovi standard sia perché occorre un periodo di adattamento e di accompagnamento, soprattutto per le imprese». Con queste parole, Brando Benifei, eurodeputato e relatore del Regolamento europeo sull’intelligenza artificiale, ha iniziato il suo intervento, introdotto dai saluti del presidente dell’Associazione Ludovici, Jacopo Calanchi, il quale ha moderato l’incontro.

La prima regolazione al mondo dell’IA, approvata il 13 marzo 2024, viene presentata dall’on. Benifei come esito di un lungo negoziato. Questa entrerà in vigore per gradi: fra sei mesi, ad esempio, si inizieranno ad applicare i primi divieti, volti prettamente a limitare l’impatto e la pervasività che i sistemi di intelligenza artificiale potrebbero avere sulla privacy delle persone (ad esempio il divieto della polizia predittiva, basata soltanto sulle caratteristiche personali di un individuo, di riconoscimento biometrico in tempo reale negli spazi pubblici e di riconoscimento delle emozioni nei luoghi di lavoro e nelle scuole). Oltre a un particolare focus sulla trasparenza (con riferimento alla programmazione dei sistemi di IA, ai contenuti da questa generati e alla tutela del diritto d’autore), l’ultimo step di questo lungo percorso riguarda la gestione dei sistemi cosiddetti “ad alto rischio”: l’AI Act, in particolare, individua una serie di casistiche nelle quali viene introdotto un obbligo per lo sviluppatore di verificare, attraverso delle procedure di conformità, la sicurezza dei sistemi, sulla base di parametri che sono ancora in fase di definizione. Benifei, in conclusione, definisce la legge come «tecnologicamente neutrale», in quanto si concentra non tanto sulla tecnologia, quanto più sulla regolazione dei casi d’uso della stessa: è proprio questo aspetto, in particolare, che rende il Regolamento flessibile e facilmente adattabile alle evoluzioni tecnologiche dei prossimi anni.

 

Un articolo di

Piergiuseppe Capriotti

Piergiuseppe Capriotti

Direttore Collegio Ludovicianum

Condividi su:


Dopo l’intervento introduttivo, si è aperta la tavola rotonda, che ha visto intervenire Stefano Da Empoli, presidente dell’Istituto per la Competitività (I-Com), Ivan Luciano Danesi, AI Products and Innovation presso UniCredit e alumnus del Ludovicianum, e Ciro De Florio, docente di Logica e Filosofia della Scienza e membro del Consiglio scientifico di Humane Technology Lab dell’Università Cattolica.

Il primo giro di domande si è principalmente focalizzato su quale potrebbe essere il ruolo dell’Europa rispetto agli altri player internazionali e sull’impatto che queste nuove regole potrebbero avere sulle imprese. Il presidente Da Empoli ha evidenziato che di fronte al rischio di frammentazione normativa tra i vari Stati membri dell’Unione, il sorgere di un tessuto normativo comune è sicuramente un dato positivo. Se, dunque, rispetto alla strategia europea sull’IA del 2018, si è iniziato a lavorare sul primo pilastro, quello della regolamentazione, occorrerebbe fare altrettanto con il secondo, quello degli investimenti. Secondo i dati più recenti, dopo un breve entusiasmo iniziale, su questo punto l’Europa si trova molto più indietro rispetto a Stati Uniti e Cina. Danesi, invece, ha sottolineato che rispetto alla corsa alla competitività che le aziende potrebbero perseguire attraverso un uso sempre più performante dell’IA, una regolamentazione potrebbe evidentemente frenare questo processo. Tuttavia, proprio grazie all’uso responsabile di modelli di IA più trasparenti e di più facile lettura, si potrebbe alimentare nelle persone un maggior grado di fiducia verso questi nuovi sistemi. A concludere il primo nucleo di domande è stato il professor De Florio, con una riflessione sul senso di una regolazione dell’IA. Al di là della scelta del legislatore europeo di regolare l’uso dell’intelligenza artificiale e non tanto la sua progettazione, egli si sofferma sulle cosiddette “asimmetrie della richiesta” che l’uomo spesso rivolge alla macchina: mentre da questa, infatti, si pretende un comportamento perfetto e per certi versi ineccepibile, lo stesso non si può dire per i comportamenti umani, che ricadono spesso nei medesimi errori.

Il secondo turno inizia con l’esame dei “falsi miti” connessi all’implementazione dei sistemi di intelligenza artificiale, passati in rassegna dal presidente Da Empoli, di recente autore de “L’economia di ChatGPT. Tra false paure e veri rischi”, edito nel 2023 da Egea editore. Scongiurato ormai quel cliché cinematografico secondo il quale le macchine, un giorno, si ribelleranno agli umani, occorre in ogni caso evitare qualsiasi utilizzo scorretto di questi nuovi mezzi. Nell’alveo dei possibili rischi, quello occupazionale, in particolare, pone al centro il tema delle nuove competenze che l’evoluzione tecnologica richiederà ai lavoratori. Ogni persona, secondo Danesi, sarà chiamata a «gestire la propria attitudine al cambiamento» ed è importante che ciascuno acquisisca quel background di conoscenze e di formazione che gli consenta di porsi in un’ottica di apertura verso le nuove trasformazioni.

«L’IA è più simile all’automobile o è più simile alla scrittura?» in questo modo il professor De Florio si interroga sulla portata concettuale della rivoluzione incontro alla quale stiamo andando. Se da un lato, infatti, l’automobile è storicamente espressione di una tecnologia fortemente trasformativa, che ha cambiato il modo di spostarsi delle persone, dall’altro, la scrittura non ha cambiato la cultura, ma ne ha ridefinito il concetto e, in generale, il pensiero umano. L’intelligenza artificiale potrebbe essere più vicina all’esempio dell’automobile, in quanto necessita di essere implementata in sistemi fisici. D’altro canto, come per la scrittura, il cui utilizzo appartiene alla quotidianità, così l’intelligenza artificiale potrebbe ricevere in futuro applicazioni sempre più diffuse nei diversi ambiti della realtà.

Dopo una breve sessione di Q&A, gli associati e i collegiali hanno preso parte a un aperitivo di networking allestito nella veranda dell’Aula Magna, di fronte alla cornice suggestiva del giardino di Santa Caterina d’Alessandria, per poi darsi appuntamento alla prossima iniziativa associativa.

Newsletter

Scegli che cosa ti interessa
e resta aggiornato

Iscriviti