Uno zoom sull'AI

Intervista al dott. Mario Santoro 

di Eugenia Daniele e Antongiulio Di Cello

 testimonianze31

Le AI (intelligenze artificiali), un tempo confinate nei romanzi di fantascienza, sono diventate parte integrante del nostro presente e stanno modificando radicalmente il nostro modo di vivere, lavorare ed interagire. A differenza delle precedenti rivoluzioni, i progressi nel campo delle AI sono estremamente rapidi. Nuovi strumenti ed applicazioni emergono continuamente, rendendo spesso difficile tenere il passo per conoscere ed approfondire i modelli che sottostanno a questa tecnologia. L’impatto delle AI è ad ampio spettro nei settori più vari, dall'industria all’agricoltura, dal marketing alla finanza, dalla sanità alla formazione, dalla ricerca alla didattica.  

La ricerca scientifica e filosofica ci aiuta a capire cosa differenzia noi umani dalle AI e quali sono i limiti e le opportunità di queste tecnologie? 

Cerchiamo di rispondere a queste domande insieme al Dr. Mario Santoro, ricercatore dell’Istituto per le Applicazione del Calcolo del CNR. Il dott. Santoro da dodici anni si occupa di semantica computazionale collaborando con aziende di formazione, dipartimenti di linguistica e policlinici universitari.  

testimonianze32

Ci può raccontare brevemente il percorso professionale che l'ha portato a diventare ricercatore del CNR?  

Sì, certo. Per diventare ricercatore del CNR, in particolare del mio istituto, che è l'Istituto per le Applicazioni del Calcolo, dopo aver finito la scuola superiore, ho frequentato Fisica, mi sono laureato in Fisica teorica, in seguito ho conseguito un dottorato di ricerca in matematica. Dopo alcuni anni di precariato, tra assegni di ricerca e contratti similari, tramite un concorso sono diventato ricercatore del CNR. 

Quali sono gli algoritmi di intelligenza artificiale maggiormente utilizzati al giorno d'oggi? Quali utilizza lei in ambito lavorativo? 

Da una parte ci sono gli algoritmi generativi (text generative, text-to-text) che, dato un input testuale, generano un contenuto testuale ad esempio i Large Language Model (LLM, tra i più conosciuti chatGPT, Gemini, Claude) o un’immagine, dall’altra ci sono le AI non generative, ad esempio algoritmi classificatori che analizzano un corpus testuale fatto da migliaia di file, dividendolo in categorie per capirne il contenuto. 

Nel mio lavoro di ricerca ho costruito una suite software (Semanticase) composta principalmente di algoritmi di AI non generativa per eseguire diversi tipi di analisi semantiche di grandi corpus di dati.  

Utilizzo però anche AI generative ad esempio per realizzare gli sfondi delle presentazioni, generandoli a partire dal contenuto della slide, oppure per il controllo e la revisione della scrittura di articoli e progetti.  

Quali sono secondo lei i vantaggi che l'intelligenza artificiale può portare alla ricerca scientifica e tecnologica?  

Questa è davvero un’ottima domanda a cui è anche difficile dare una risposta.  Allora, innanzitutto ogni ricercatore può avere, come già vi ho detto, un maggior controllo di quello che scrive. Spesso si scrivono degli articoli lunghi, ci sono dei tempi stretti, ed è utile un meccanismo automatico di revisione di quello che si sta elaborando.  

Dall'altro punto di vista, l'AI stessa è tema di ricerca, quindi ci apre a delle domande, a quesiti di ricerca che spaziano dal computer science, al data science, all'etica, all'estetica.  

Nel mio lavoro di ricerca uso e sviluppo diversi tipi di processi con AI per analizzare e classificare referti medici, oppure per analizzare la letteratura scientifica che descrive interazioni di proteine per poi costruire database di informazioni o ancora per capire le modalità delle infrazioni al GDPR (legge europea sulla privacy) analizzando i testi delle multe.  

In tutti questi lavori non solo uso diverse AI ma sviluppo anche algoritmi che misurano l’efficacia dell’AI stessa. Quindi, sì, si può usare l’AI per fare ricerca, ma l’AI stessa è tema di ricerca.  

Quali sono invece i rischi e le criticità più rilevanti legate all'utilizzo e alla diffusione dell'intelligenza artificiale?  

I software AI di tipo generativo, ultima generazione, scrivono molto bene, ma la coerenza e la veridicità dell’informazione non è altrettanto sicura. Un rischio è che scrivendo molto bene si inneschino dei processi, sia negli studenti che nelle imprese, di prendere per buona la risposta fornita, con il rischio di divergere rispetto alla coerenza delle informazioni. È  quindi necessario sottolineare che se si utilizzano le AI per analizzare dei dati, di cui non conosciamo il comportamento, o per investigare tematiche non così note, dobbiamo aver ben presente che ciò che viene proposto dagli algoritmi è uno spunto, può essere una direzione da seguire, ma  può essere anche una direzione totalmente sbagliata, nonostante l'output sia scritto molto bene. 

Un'altra criticità, se volete, è che ora la realizzazione di questi modelli è in mano solo a poche aziende, e quindi si rischia che non siano rappresentate tutte le esigenze, tutte le prospettive, tutti i bisogni di comunità diverse. 

Quali competenze bisognerà prediligere in futuro per poter lavorare nel campo dell'intelligenza artificiale?  

Qui siamo su due livelli. Il primo è un livello di programmazione. Se uno vuole lavorare nel campo delle intelligenze artificiali dovrà saper programmare, avere molte skills, e una forte preparazione nell'ambito dei linguaggi computazionali. Siccome le AI utilizzano molti dati, bisognerà avere anche delle conoscenze approfondite su tecniche di raccolta e analisi dati (è il caso del data scientist).  

Un secondo livello rappresenta la capacità di interdisciplinarità (competenza che secondo me è molto utile), ossia lavorare con diverse professionalità ognuna con il proprio linguaggio e con le proprie competenze disciplinari, anche nuove, di cui oggi non so darvi ancora il nome.  

Sentiamo spesso parlare di AI training, ci può spiegare di che cosa si tratta?  

L'addestramento è un passo obbligatorio nelle AI. 

Le AI sono addestrate su un dataset, in cui si ha sia l'input che l'output, e dove ad ogni input è associato un output. A partire da questo dataset (training set) si esegue il tuning dei parametri. Si dice quindi che la rete neurale (l’AI) apprende. Facciamo l’esempio di un’AI addestrata a classificare. Se le forniamo in input dati similari all’input di addestramento, le AI saprà classificarli bene, saprà assolvere bene lo stesso compito. Quindi ogni algoritmo di AI per funzionare ha bisogno di un training set e poi di un validation set, che ha le stesse caratteristiche del training set ma serve a validare il software. 

Qual è il rischio? Il rischio è che se si danno degli input molto diversi dai dati di addestramento, la rete non è ovviamente addestrata bene per quegli input, e genera un output erroneo. È, in maniera ipersemplificata, il meccanismo alla base delle cosiddette allucinazioni. 

Nell'intelligenza artificiale sono presenti particolari bias? E se sì, di che tipo?  

Possiamo classificare almeno due tipi di bias. Il primo è il bias nei dati di addestramento, il secondo è quello che si chiama bias cognitivo o di programmazione. Facciamo alcuni esempi. I generatori di immagini hanno un bias, a parer mio, enorme; se uno scrive “il volto di un uomo su una spiaggia”, il probabile risultato è una spiaggia caraibica o delle Hawaii con un uomo bianco caucasico o nordamericano, abbastanza muscoloso e biondo. Questo è un classico bias di selezione perché dipende dal fatto che la maggior parte dei dati raccolti su internet è stata prodotta dalla cultura nordamericana,  ma quei dati non sono rappresentativi di tutti, né della maggioranza della popolazione mondiale (la popolazione cinese è la più numerosa).  

Un altro esempio di bias è nelle logiche di programmazione. L’obiettivo di programmi come Chat Gpt  è dare risposte veloci che accontentino gran parte delle persone. Quindi si utilizzano tecniche veloci che non sbagliano quasi mai (con un margine di errore max del 5% ). Ma queste logiche non possono essere utilizzate in qualsiasi contesto. Ad esempio in medicina, dove la percentuale di successo deve necessariamente essere del 99-99,9%, è necessario programmare con altri algoritmi il chatbot 

Ci sono degli aspetti in cui le AI non potranno mai raggiungere le capacità intellettive umane? Quali sono le principali differenze tra l'intelligenza artificiale e l'intelligenza umana?  

Vi rispondo dicendo che non c'è contrapposizione tra agente umano e agente computazionale, piuttosto dobbiamo capire come comportarci di fronte agli agenti computazionali. Non è una questione di meglio o peggio; l’agente umano ha le sue specificità, l'agente computazionale ne ha altre e nessuno supera nessuno.  

Siamo ben lontani dall'avere un agente computazionale che possa fare delle scelte. Ci sono tuttora studi in corso, che vanno avanti da quasi cent'anni, da quando Turing (Alan Mathison Turing, uno dei padri dell’informatica) ha dato la definizione del suo test per sapere se una macchina fosse intelligente o no. Porrei quindi la domanda in maniera diversa: come interagiamo con le AI? come interagiamo con gli agenti computazionali?  

Cosa ne pensa degli studenti che usufruiscono dell'intelligenza artificiale in campo scolastico? Pensa che sia utile abituare sin da subito i giovani ad usufruire di software dell'intelligenza artificiale?  

La domanda dipende sempre dal modo con cui si utilizza l’AI. 

Perché se gli studenti “prendono”, fanno copia e incolla, senza fare un lavoro individuale di revisione, senza essere consapevoli di ciò che stanno scrivendo, allora non si stanno servendo delle AI in modo utile. Invece è molto importante saper lavorare con l’intelligenza artificiale, saper controllare le fonti, saper prendere informazioni da fonti differenti.  

Lo studente non deve subire l'intelligenza artificiale, ma deve poter governare il suo utilizzo.