A offrire alcune direttrici su come l’IA stia diventando progressivamente parte integrante del processo scientifico sono stati due illustri studiosi, il matematico Alfio Maria Quarteroni, emerito al Politecnico di Milano e già docente nel campus bresciano della Cattolica, e l’informatico Nicolò Cesa‑Bianchi, ordinario all’Università degli Studi di Milano. Entrambi concordi nel sostenere che l’intelligenza artificiale stia aprendo nuove e sorprendenti possibilità nell’ambito della ricerca, nei loro interventi ne hanno però evidenziato due prospettive diverse. Il primo introducendo il nuovo concetto dello Scientific Machine Learning, un sistema che integra dati e modelli matematici fondati sulle leggi fisiche per migliorare l’affidabilità e le prestazioni degli algoritmi di apprendimento automatico, il secondo mostrando in che modo i modelli linguistici di grandi dimensioni (LLM – Large Language Models) stiano incidendo sulla produttività e sulle pratiche di ricerca.
Il professor Quarteroni, forte della sua esperienza nella matematica applicata - la disciplina che usa la matematica per affrontare problemi concreti - ha descritto in modo semplice l’approccio della scienza computazionale: partire da un fenomeno reale, tradurlo in un modello matematico fatto di equazioni e, attraverso il calcolo numerico, ottenere simulazioni digitali capaci di rappresentarlo e di prevederne il comportamento. Da qualche anno a tale approccio, ha continuato, se ne è aggiunto un altro: quello guidato dai Big data, usati per addestrare algoritmi che imparano in modo autonomo e formulano risposte - molto più velocemente - senza applicare alcun risultato teorico. Perché allora non immaginare questi due approcci insieme?
La loro convergenza dà origine allo Scientific Machine Learning, dove la potenza dei dati si integra con la solidità dei modelli teorici. Machine learning significa, letteralmente, macchine che imparano da sole. Per comprenderne il funzionamento, il professor Quarteroni si è affidato a un esempio molto semplice: l’apprendimento di una lingua. Da bambini ascoltiamo i nostri genitori, proviamo a riprodurli in modo buffo e gradualmente arriviamo a un linguaggio articolato. Tra l’input (l’ascolto) e l’output (la risposta) c’è il “miracolo” dell’apprendimento. Le macchine imparano allo stesso modo. «Forniamo loro enormi quantità di testi o altri dati, come input, da cui generano risposte, dialogano, producono contenuti. Un sistema che surroga il cervello umano: strutture matematiche o meglio simulatori delle reti neurali biologiche. Più dati si ricevono, più si affina la capacità di trovare soluzioni», ha precisato il matematico.
«Sappiamo che questi sistemi di IA risolvono problemi di grandissime dimensioni e funzionano molto bene. Ma soffrono di alcune criticità quali la riproducibilità (a parità di input, due risposte possono essere diverse), la interpretabilità (non sappiamo come il modello arrivi a una soluzione né quali dati abbia utilizzato), la spiegabilità, fondamentale per non compromettere la credibilità scientifica», ha avvertito il professor Quarteroni.