Main Menu

Etica e diritto per l’intelligenza artificiale

Giorgio Resta

Etica e diritto per l’intelligenza artificiale

Etica e diritto per l’intelligenza artificiale

RomeCup 2025, Giorgio Resta spiega come l’Europa prova a regolare l’IA con principi giuridici e valori democratici

Nel suo intervento al convegno inaugurale della RomeCup 2025, Giorgio Resta, professore ordinario di Diritto privato comparato presso il Dipartimento di Giurisprudenza dell’Università degli Studi Roma Tre, affronta uno dei nodi centrali dell’innovazione tecnologica: come conciliare lo sviluppo dell’intelligenza artificiale con i diritti fondamentali della persona. Dalla piramide del rischio alla trasparenza nei chatbot, il nuovo regolamento europeo sull’IA introduce per la prima volta limiti chiari, sistemi vietati e nuovi diritti per i cittadini. Una riflessione lucida e appassionata sul ruolo del diritto come strumento per orientare il futuro tecnologico, senza rinunciare ai valori che fondano la nostra civiltà democratica.

Mettiamo a disposizione delle scuole questi contenuti per continuare a ragionare insieme sull’evoluzione del rapporto tra esseri umani e tecnologie intelligenti.

Guarda il video dell’intervento

 

Ascoltando il dibattito, mi è venuta in mente una frase che ripeteva spesso Stefano Rodotà, richiamando Hegel: il diritto, rispetto all’innovazione tecnologica, arriva spesso come la nottola di Minerva sul far della sera. Quando cioè molti dei fenomeni di alterazione delle nostre condizioni sociali si sono già determinati, e diventa difficile modificarli.
Però è attraverso il diritto che possiamo costruire le nuove condizioni di inquadramento e di instradamento degli sviluppi futuri.

È sempre stato così, dalla rivoluzione industriale in poi. Ogni volta, di fronte a grandi innovazioni tecnologiche, si è immaginato che determinassero la morte del diritto o dell’etica. Ma per fortuna siamo ancora qui.

C'è una parola italiana che in tedesco si traduce con due termini diversi: potere. In tedesco si dice können e dürfen.
Können significa “possiamo materialmente fare”, dürfen significa “siamo autorizzati a fare”.
Ecco, la sfida del diritto è esattamente questa: porre delle red lines, dei limiti, dei principi, spesso desunti da diverse etiche, per orientare l’innovazione.

Il regolamento europeo sull’intelligenza artificiale, recentemente approvato, è un esperimento unico a livello globale. Non è il primo testo normativo sull’IA: la Cina, ad esempio, aveva già adottato tre regolamenti distinti, sugli algoritmi di raccomandazione, sulla deep synthesis e sull’IA generativa.
Ma è il primo regolamento orizzontale, che cioè aspira a coprire tutte le applicazioni dell’intelligenza artificiale, non solo ambiti settoriali.

È una sfida coerente con il modo europeo di normare, fondato su valori e diritti costruiti nei secoli, anche attraverso tragedie.
Si dice spesso che l’approccio europeo sia “scettico” verso l’innovazione. In parte è vero. Ma è anche un approccio che disegna una linea chiara verso il futuro.
Lo vediamo già dalle parole chiave del regolamento europeo. Anche l’Italia, lo ricordo, ha approvato al Senato (il 20 marzo) un disegno di legge sull’IA, che richiama gli stessi grandi principi: democrazia, stato di diritto, salute, dignità.
Sono valori che dobbiamo riaffermare rispetto alle possibili applicazioni dell’IA.

Un uso non controllato dell’intelligenza artificiale può mettere a rischio questi valori. L’abbiamo visto nelle recenti elezioni: l’uso eccessivo dei social, della raccolta dati, dell’analisi algoritmica può distorcere il comportamento elettorale.
La Corte costituzionale della Romania, in passato, ha annullato i risultati delle elezioni presidenziali proprio per queste ragioni. Ma lo abbiamo visto anche negli Stati Uniti, e continuiamo a vederlo ogni giorno.

Ricordo un caso emblematico: negli Stati Uniti, un soggetto è stato condannato penalmente anche sulla base di un software predittivo chiamato COMPAS, utilizzato per stimare il rischio di recidiva.
Il software si basava su questionari che consideravano vari fattori, tra cui l’origine etnica e le condizioni sociali.
Un’inchiesta del sito ProPublica ha dimostrato che Compas non faceva altro che riprodurre le discriminazioni esistenti, moltiplicandole e trasformandole in regola.
Poiché, ad esempio, la popolazione carceraria americana è in gran parte afroamericana, il sistema attribuiva un rischio maggiore di recidiva a soggetti afroamericani, alimentando una spirale discriminatoria.
Eppure è proprio il diritto che dovrebbe contrastare queste disuguaglianze. Lo dice chiaramente il secondo comma dell’articolo 3 della Costituzione italiana, che impone non solo uguaglianza formale, ma anche la rimozione degli ostacoli di fatto.

Come si può regolare, allora? Certo, le tecnologie sono simili in tutto il mondo. Ma i sistemi sociali in cui vengono inserite sono diversi. Vediamo modelli molto distanti:

  • Gli Stati Uniti hanno tentato un approccio "light touch" sotto l’amministrazione Biden, ma con l’arrivo di Trump molti executive orders sono stati annullati. In generale, mancano controlli forti sull’uso dei dati.
  • La Cina, con una forte spinta pubblico-privata, spesso con contiguità militare-industriale, favorisce l’innovazione, ma con limitazioni nei diritti, soprattutto nei rapporti tra cittadini e Stato.
  • L’Europa, invece, ha scelto un modello fondato sulla piramide del rischio: sistemi a rischio inaccettabile, sistemi ad alto rischio, sistemi a rischio limitato e basso.

Faccio qualche esempio di sistemi vietati dal regolamento europeo:

  • Il social scoring (come in alcuni contesti cinesi), che valuta i cittadini in base ai comportamenti, attribuendo premi o sanzioni;
  • I sistemi di inferenza delle emozioni in ambito lavorativo e scolastico;
  • I sistemi predittivi come COMPAS, che stimano la probabilità di recidiva penale;
  • I sistemi che sfruttano le vulnerabilità individuali per influenzare il comportamento.

Queste red lines sono già operative dal 2 febbraio 2024. Il resto del regolamento entrerà in vigore da agosto 2026. Nella seconda fascia ci sono i sistemi ad alto rischio – per esempio in ambito sanitario, giudiziario, immigrazione, controllo delle frontiere. Chi sviluppa questi sistemi dovrà seguire procedure rigorose: valutazione, minimizzazione dei rischi, registrazione.

Poi ci sono i sistemi generativi, come i chatbot o l’IA generativa. Per questi, il regolamento non prevede divieti, ma impone il principio di trasparenza: ho il diritto di sapere che sto parlando con una macchina, e non con un medico o un essere umano. 
Infine, ogni innovazione tecnologica porta con sé nuovi diritti. Uno dei grandi problemi dell’IA è quello della black box, della decisione opaca.
Non sapere su quale logica è stata presa una decisione può essere gravissimo, come nel caso dell’uso di armi autonome (tema su cui, purtroppo, il regolamento non interviene, perché riguarda la sicurezza nazionale).
O nel caso di un licenziamento automatizzato, come quello di un rider, che si era rifiutato di consegnare un pasto a 50 km di distanza in bicicletta.

Come reagisce il diritto?
Il Regolamento europeo e già il GDPR prevedono il diritto a ottenere una spiegazione della logica alla base di una decisione automatizzata.
Esiste anche la cosiddetta Kafka provision: nessuno può essere sottoposto a una decisione interamente automatica. E se ciò accade, la persona ha diritto a chiedere l’intervento umano.

Questi sono esempi di buon diritto. Non per aver paura della tecnologia, ma per governarla a fini sociali, per esempio per aiutare le persone più vulnerabili.
E su questo, l’intelligenza artificiale ha potenzialità straordinarie.

Altre notizie che potrebbero interessarti

I nostri progetti

Rimani aggiornato sulle nostre ultime attività, notizie ed eventi