L’esempio, ça va sans dire, è ChatGPT. «Pensiamo all’AI generativa» racconta. «È stata creata negli Stati Uniti sulla base di dati che molto spesso provengono da quel contesto. Se noi europei non siamo in grado di sviluppare modelli simili, dipenderemo da quelli forniti da altri. Con tutti i rischi che ne conseguono, sia dal punto di vista dei dati sia da quello culturale». Non a caso Daniele Bellasio, vicedirettore de Il Sole24Ore, fa notare che «l’intelligenza artificiale si basa su otto modelli di linguaggio, sei dei quali sono statunitensi. Se parliamo solo di intelligenza artificiale generativa, gli investimenti nel 2024 sono pari a circa 37 miliardi di dollari. E quasi un terzo di questo mercato è americano».
Uno dei rischi è che il primato europeo in termini di tutela dei diritti possa portare gli investimenti verso «mercati meno regolamentati, come la Cina ma anche gli stessi Stati Uniti» commenta Bellasio. «La speranza è che i governi dei Paesi europei trovino il modo di investire e di aiutare le aziende in questo settore, in modo che l’Europa possa affiancare al primato nella regolamentazione anche una leadership in termini di ricerca e sviluppo». Sioli ha spiegato che per questa ragione l’Europa cofinanzia con gli stati membri una rete pubblica di supercomputer, come Leonardo a Bologna, per favorire l’allenamento dei grossi modelli di intelligenza artificiale da parte delle startup europee e della comunità scientifica del Vecchio Continente.
«L’etimologia di ciberspazio deriva dal greco κυβερ, timone. E quindi chi è al timone, e dove si sta dirigendo la nave?» si chiede allora Gabriele Della Morte, professore di Diritto Internazionale ed esperto di Diritto dell’Intelligenza artificiale. «Nathan Roscoe Pound, preside della Facoltà di Giurisprudenza di Harward, nel 1923 scriveva nel saggio Introduction to Legal History una frase fulminante: “Il diritto deve essere stabile ma non può essere immobile”». Della Morte allude alla tensione tra «il movimento che l’ordinamento deve fare per adeguarsi alle istanze mutevoli della società» e il suo «bisogno di rigidità», che consente «la certezza del diritto». Si tratta di «un gioco acrobatico a cui da sempre è sottoposto il giurista, una difficile prova di acrobazia che diventa esasperata quando il diritto si confronta con le tecnologie».
La soluzione, come spesso accade nel mondo del diritto, sta nel bilanciamento tra gli interessi. «Bisogna guardare favorevolmente all’innovazione» spiega Lucilla Sioli. «Abbiamo basato l’AI Act sul concetto di rischio. Le regole sono commisurate al livello di rischio che l’intelligenza artificiale può generare. E questo livello dipende dal contesto in cui la tecnologia viene utilizzata». L’approccio legislativo è quello che il cittadino europeo ben conosce, perché viene già utilizzato in relazione alla sicurezza dei prodotti commercializzati all'interno dell'Unione Europea. Stiamo parlando del marchio CE, che attesta che il prodotto rispetti i requisiti previsti dal legislatore in materia di sicurezza, di salute e di tutela dell'ambiente.
«Ci sono casi in cui l’Unione Europea non tollera l’uso dell’intelligenza artificiale» prosegue Sioli. «Un esempio è il credito sociale. Poi ci sono i rischi elevati, come quelli che attengono alle applicazioni per assumere le persone o ai dispositivi medici. Queste applicazioni devono essere certificate prima di essere immesse sul mercato europeo». E ancora, ci sono i rischi legati alla trasparenza. «Pensiamo a un chatbot: dovrebbe far capire molto chiaramente all’utente che sta interagendo con una macchina; oppure, nel caso di un deepfake, dovrebbe essere contrassegnato per evitare la diffusione di disinformazione». Il pensiero, in questo momento, non può non correre all’utilizzo durante le campagne elettorali, come è stato ricordato durante il primo evento di questo ciclo di incontri.