A RomeCup 2025 l’intervento di Gianluigi Greco, presidente di AIxIA
Con la condivisione dell’intervento di Gianluigi Greco, professore ordinario di Informatica presso l’Università della Calabria e presidente dell’Associazione italiana per l’intelligenza artificiale, inauguriamo una nuova serie di approfondimenti dedicati alla RomeCup 2025 (7-9 maggio 2025).
Nel suo intervento al convegno inaugurale presso l’Università Roma Tre (7 maggio), Greco ha proposto una riflessione lucida e appassionata sull’impatto dell’intelligenza artificiale nella nostra vita quotidiana. A partire dal ruolo dell’etica e dal valore delle competenze umane, come la capacità di porre domande, il pensiero riflessivo e l’empatia, il suo contributo ci invita a ripensare il nostro modo di vivere e costruire la relazione con le tecnologie emergenti.
Mettiamo a disposizione delle scuole e delle comunità educanti questi approfondimenti per continuare a ragionare insieme, con spirito critico, su presente e futuro dell’intelligenza artificiale e della robotica.
Guarda il video dell’intervento
Innanzitutto grazie per l’invito e per l’accoglienza. È davvero una bellissima iniziativa, e mi fa sempre piacere stare tra i giovani. Lo dicevo anche al Rettore: sono rimasto piacevolmente colpito dalla partecipazione così numerosa.
Vorrei parlare di etica partendo proprio da voi, da questa platea. Spesso sottovalutiamo una dimensione fondamentale: la nostra capacità di convivere con le tecnologie, di capire che questi strumenti stanno già cambiando le nostre vite. Serve quindi sviluppare, da un lato, una competenza tecnica, ma dall’altro anche uno spirito critico.
E non è un caso che questo spirito critico non appartenga del tutto alla mia generazione. Io, pur essendo uno dei professori universitari più giovani, mi sento già distante dalle nuove generazioni che sono nate in un mondo digitale.
Voi vi trovate davanti a una sfida completamente nuova: vivete in un mondo dove vero e falso non sono sempre facilmente distinguibili, dove i confini tra realtà e finzione sono sempre più sfumati.
Ecco, allora, che parlare di etica significa iniziare a comprendere questi cambiamenti fin dalla scuola primaria. Le competenze necessarie non sono solo tecnologiche. Certamente, io sono un ingegnere, lavoro nel campo dell’informatica, e ritengo fondamentale la competenza tecnica. Ma oggi vorrei parlare di altro.
In Italia, in particolare, stiamo affrontando una doppia crisi: demografica e di competenze. Non troviamo abbastanza professionisti qualificati, e questo frena la crescita. Ma, ripeto, oggi voglio soffermarmi su altre competenze, quelle che servono per affrontare davvero il futuro.
Vi faccio un esempio: se adesso prendo il mio smartphone e inquadro questa sala, c’è un’app che in tempo reale mi dice quanti volti sta rilevando. Questa tecnologia esiste dal 2016. Ma se invece volessi sapere che cosa state pensando, cosa vi state dicendo sottovoce, quali emozioni state provando... beh, questo le macchine non lo sanno fare.
Non esiste un database del senso comune, non c’è una base di dati per riconoscere emozioni complesse o comprendere i contesti sociali come una cena al ristorante. Possono analizzare i gesti, le espressioni, ma non il "dietro le quinte". E allora la prima competenza che vorrei lasciarvi è questa: la capacità di pensiero lento, riflessivo, astratto. Le macchine sono bravissime nei “pensieri veloci”, quelli statistici, ma non sanno riflettere come noi.
La seconda competenza fondamentale è l’arte di porre domande. Questi sistemi sono statistici: rispondono secondo le probabilità. Se chiedete: “Disegnami una stanza senza elefanti”, spesso vi restituiscono… una stanza con degli elefanti! Perché nella frase avete menzionato due volte la parola “elefante”.
Capire come formulare una domanda e conoscere il funzionamento dei modelli è fondamentale per interagire con l’intelligenza artificiale.
E la terza competenza, ancora più cruciale, è la competenza linguistica.
Avete notato che molti testi generati da ChatGPT si somigliano? Ormai si riconoscono subito. È quasi un “test di Turing al contrario”: se un testo è troppo fluido, troppo ordinato… probabilmente lo ha scritto un’IA.
Io stesso a volte lo uso per scrivere qualcosa velocemente, ma mi rendo conto che sto perdendo l’abitudine a scrivere bene. Vi faccio un esempio: ho chiesto a ChatGPT di scrivere un verso usando le parole “guancia”, “notte”, “gioiello”, “orecchio”, “etiope”. Il risultato è stato:
“Sulle guance brilla la notte, un gioiello pende dall’orecchio etiope”.
Bello, suona bene. Ma... non dice nulla. L’ho fatto perché esiste un verso simile in “Romeo e Giulietta”: “Sembra che essa penda sulle guance della notte come un ricco gioiello dall'orecchio di un etiope". Qui sì che c'è poesia, significato, immaginazione. Il punto è che le macchine non sanno generare ciò che è raro, prezioso, unico. E temo che stiamo perdendo anche noi il gusto per questa complessità del linguaggio.
L’ultima competenza, la più importante: l’empatia. In un esperimento recente promosso da Google (sì, con tutti i bias del caso), è stato chiesto a pazienti di interagire con un tablet che poneva domande sanitarie. Alla fine, veniva chiesto loro: “Hai parlato con un medico o con una macchina?”.
Risultato? La percezione di empatia era più alta con il bot.
Questo è un campanello d’allarme. Abbiamo già automatizzato la mente (con l’IA), prima ancora abbiamo automatizzato il braccio (con l’industria). Ora stiamo forse iniziando ad automatizzare anche il cuore.
E allora l’etica deve servire proprio a restare umani, a valorizzare le relazioni, il modo in cui ci poniamo agli altri. Forse questa è la nostra vera frontiera.
Domanda del moderatore
Professore, qualche anno fa alcuni ricercatori hanno definito i modelli linguistici come “pappagalli stocastici”. In pratica: non capiscono ciò che dicono, ma “indovinano” la sequenza successiva di parole. Ma oggi sembra che riescano anche a simulare un ragionamento. Possiamo ancora chiamarli pappagalli stocastici?
Greco
Sì, assolutamente. Chi lavora nel settore, chi insegna nei corsi triennali o magistrali di intelligenza artificiale, vede “il dietro le quinte” e conferma: sono ancora pappagalli stocastici. La vera rivoluzione è un’altra: ci siamo accorti che il nostro linguaggio può essere riprodotto con estrema precisione da dinamiche statistiche. Prima dell’arrivo di GPT, l’IA sapeva riconoscere, per esempio, un segnale di stop, perché aveva visto milioni di esempi. Ma il testo è un’altra cosa: sono parole, non numeri. Il salto concettuale è stato capire come trasformare le parole in numeri su cui le reti neurali potessero lavorare. Una volta risolto questo problema, il sistema funziona: prende una porzione di testo e prevede la parola successiva. Questo ci fa capire molto su come ragioniamo e su come costruiamo il linguaggio. Ma la sfida ora è andare oltre: capire cosa possiamo creare di nuovo, che le macchine non sanno ancora fare.