Andrea Orlandini alla RomeCup 2025: “Solo un approccio scientifico può aiutarci a distinguere il vero dal verosimile”
Nel suo intervento al convegno inaugurale della RomeCup 2025, il ricercatore del Consiglio nazionale delle ricerche Andrea Orlandini ha posto l’accento sulla responsabilità scientifica e civile nell’utilizzo dell’intelligenza artificiale. Un richiamo forte alla consapevolezza critica, soprattutto per le giovani generazioni, e all’urgenza di adottare un uso sostenibile e umano-centrico delle tecnologie. Senza dimenticare il peso delle scelte: “Il sistema applica la funzione obiettivo che gli diamo. E se quella è sbagliata, lo farà senza farsi domande”.
Mettiamo a disposizione delle scuole questi contenuti per continuare a ragionare insieme sull’evoluzione del rapporto tra esseri umani e tecnologie intelligenti.
Guarda il video dell’intervento
Innanzitutto fatemi portare i saluti della nostra presidente, professoressa Maria Chiara Carrozza, che mi ha delegato a essere qui oggi in sua vece. E che responsabilità, prendere la parola al posto della presidente Carrozza… e per di più dopo tanti interventi così ricchi!
Permettetemi anche una nota personale: è un piacere essere qui, perché qui ho studiato, qui ho conseguito il dottorato, e vedo tanti professori con cui ho sostenuto esami. Tornare in questi luoghi per eventi come questo è sempre speciale.
Sono stati toccati molti temi importanti. Come rappresentante del Consiglio Nazionale delle Ricerche, sento di poter dire che gli sviluppi tecnologici ci pongono davanti a domande e sfide complesse. E forse l’approccio più corretto – quello che abbiamo sempre adottato come umanità – resta quello scientifico: investire in ricerca, studiare i fenomeni da tutti i punti di vista, non solo tecnologico.
In questo momento, intelligenza artificiale e robotica sono tecnologie che spesso stiamo subendo passivamente, travolti da ondate di informazioni. Alcune di queste, come l’idea di ospedali completamente robotizzati, vanno prese con le pinze. È proprio l’approccio scientifico che ci consente di distinguere tra ciò che è vero, verosimile e puro marketing – e le trovate pubblicitarie non vengono solo da piccole aziende.
Per questo è fondamentale che le nuove generazioni capiscano che queste tecnologie, vendute come oro colato, sono in realtà molto delicate. Negli anni ’80 John Searle, con la “stanza cinese”, aveva già smontato l’idea di intelligenza artificiale generale. Anche Luciano Floridi, filosofo noto e critico verso il termine stesso “intelligenza artificiale”, ci invita a interrogarci sui meccanismi dietro ciò che vediamo.
I sistemi odierni non hanno un modello del mondo: reagiscono in modo intelligente ma reattivo, senza una struttura deduttiva. Un sistema, come un neonato, impara interagendo col mondo. Ma le nostre macchine non possiedono – e per design non potranno possedere – la complessità fisiologica e biologica dell’essere umano. Saranno sempre semplificazioni di processi cognitivi.
Ecco perché la vera domanda, come ha ricordato anche la dottoressa Asciutti, è: “What’s next?”. Dobbiamo tutti porcela – non solo i ricercatori, ma ogni cittadino. Come possiamo usare questi strumenti in modo giusto?
Quando insegno intelligenza artificiale, dico ai miei studenti: la prima cosa importante è definire una funzione obiettivo. Ma chi la definisce? Se diamo al sistema un obiettivo sbagliato, lui lo massimizzerà senza alcun criterio etico. Serve consapevolezza, servono le giuste domande e meccanismi di ragionamento. E serve immaginare come vogliamo che cambi il nostro mondo.
La robotica, in particolare, entra nelle nostre vite in modo fisico. L’aspetto antropomorfo dei robot li rende più accettabili, ma chi lavora come me in robotica assistiva e riabilitativa sa che anche la macchina più efficiente può essere respinta se è “brutta” o difficile da usare. E poi c’è il contatto umano, l’empatia: nessuna macchina oggi può replicarla. Nemmeno un robot può sostituire una battuta di un portantino che alleggerisce l’atmosfera in corsia.
La sfida è nostra: di noi ricercatori, di chi fa le leggi, di chi organizza i servizi pubblici. Dobbiamo capire come usare questi strumenti per distinguere il bene dal male, e costruire un mondo migliore.
Spesso, poi, ci dimentichiamo del “dietro le quinte”. ChatGPT, Copilot e altri sistemi implicano enormi consumi energetici. Recentemente si è discusso anche del consumo d’acqua potabile per raffreddare i data center. L’interazione con questi strumenti ha anche un impatto ambientale.
Quindi sì, possiamo “giocare” con queste tecnologie, ma dobbiamo farlo in modo consapevole e sostenibile.