La sfida della Federico II per contrastare bullismo e cyberbullismo con l’intelligenza artificiale
Ieri l’Università degli Studi di Napoli Federico II ha ospitato la terza tappa del tour nazionale DisclAImer. Ultime avvertenze prima della rivoluzione, promosso dal Corriere della Sera in collaborazione con Cineca e coordinato da Riccardo Luna.
L’incontro, dedicato al tema “AI e criminalità”, ha esplorato rischi e opportunità di un’intelligenza artificiale sempre più pervasiva, chiamata oggi a rispondere anche alle emergenze sociali più urgenti.
La Fondazione Mondo Digitale ha partecipato all’iniziativa come knowledge partner, portando esperienze e strumenti concreti per un uso etico, inclusivo e formativo dell’IA.
La challenge: tecnologie intelligenti per contrastare bullismo e cyberbullismo
La giornata si è aperta con una sfida dedicata agli studenti universitari e ai giovani ricercatori: “Tecnologie intelligenti per contrastare bullismo e cyberbullismo”. Dalle 15 alle 17.30, i team hanno lavorato su scenari reali, elaborando soluzioni innovative, etiche e inclusive. L’attività immersiva, guidata dal professore Carlo Sansone e dai ricercatori Stefano Marrone, Antonio Galli e Michela Gravina, ha permesso ai partecipanti di esplorare le potenzialità dell’intelligenza artificiale per individuare e prevenire comportamenti a rischio in contesti scolastici e digitali.
La sfida ha ripreso i risultati del progetto BullyBuster, sviluppato con fondi ministeriali e volto a mettere a punto strumenti basati su IA e computer vision per contrastare bullismo e cyberbullismo.
“I sistemi che sviluppiamo", ha spiegato il professor Sansone, "possono fornire una dashboard a chi deve monitorare situazioni di rischio, integrando analisi di testo, video e linguaggio per individuare in anticipo comportamenti offensivi o potenzialmente pericolosi”.
L’evento è stato preceduto, nel primo pomeriggio, da un workshop a cura di Umana dedicato alle competenze trasversali - pensiero critico, comunicazione e flessibilità - indispensabili per affrontare le sfide accademiche e professionali nell’era dell’intelligenza artificiale.
Le soluzioni dei team: prevenzione, empatia e reintegrazione
Cinque i progetti presentati dagli universitari, tutti orientati a un uso responsabile e umano dell’intelligenza artificiale. Aura ha proposto un sistema di analisi video e audio capace di rilevare in tempo reale azioni e conversazioni a rischio, nel rispetto dei principi dell’AI Act e con l’obiettivo di tutelare le donne da violenze e discriminazioni. Calcina ha puntato sulla prevenzione, preferendo strategie predittive e formative a logiche punitive. EmpatIA ha ideato un’app che supporta genitori e figli con un approccio non invasivo, capace di monitorare segnali digitali e suggerire interventi educativi. EyeLighted ha presentato un modello che integra immagini da telecamere pubbliche, dati social e mappature luminose per segnalare situazioni di pericolo per le donne in spazi urbani poco sicuri. Infine, Rise ha ampliato il sistema penitenziario Sidet con tre moduli predittivi per ridurre il rischio di recidiva e favorire il reinserimento sociale dei detenuti.
La plenaria: tra rischi, sovranità e nuove sfide
A seguire, la sessione plenaria ha messo a confronto rappresentanti del mondo istituzionale e accademico per approfondire le implicazioni dell’intelligenza artificiale nei settori della sicurezza e della giustizia.
Con uno sguardo critico e pragmatico, Nicola Gratteri, procuratore della Repubblica di Napoli, ha evidenziato come “l’intelligenza artificiale stia trasformando il sistema investigativo e giudiziario penale”, ma non senza rischi.
“Si pongono problemi di riservatezza e segretezza delle indagini - ha spiegato - in un contesto in cui l’IA è di proprietà di un numero limitato di aziende. È una tecnologia potentissima in mano a pochi, e le rassicurazioni fornite sull’uso dei dati e sugli attacchi informatici non sono ancora sufficienti. Esiste un serio tema di sovranità tecnologica dello Stato”.
Gratteri ha anche ricordato come le mafie stiano già utilizzando sistemi di IA “per pianificare rotte di navigazione, traffici di droga e logistica criminale”, sottolineando la necessità che “anche l’autorità giudiziaria si doti presto di strumenti per contrastare crimini sempre più sofisticati”.
Un monito infine al ritardo del Paese: “L’Italia è indietro rispetto a Francia e Germania. Cinque anni fa eravamo un punto di riferimento, oggi c’è un gap tecnologico enorme che dobbiamo colmare rapidamente”.
Nel suo intervento, Bruno Frattasi, direttore generale dell’Agenzia per la Cybersicurezza Nazionale, ha definito l’intelligenza artificiale “un potente alleato, ma anche una minaccia nella dimensione cybernetica”.
“L’IA ha una doppia faccia: può generare nuove vulnerabilità, ma allo stesso tempo è lo strumento più efficace per contrastarle - ha osservato. La minaccia criminale oggi è strutturata come una vera e propria filiera, e quella più pericolosa resta il ransomware, che agisce su due piani, quello digitale e quello economico”.
Frattasi ha ricordato che “sono stati stanziati 623 milioni di euro del PNRR per la transizione digitale”, ma ha aggiunto che “siamo un po’ più sicuri, anche se non abbastanza. La cybersicurezza è, prima di tutto, tutela del dato. E il dato oggi è anche una questione di sovranità: compriamo tecnologia dagli Stati Uniti perché in Europa abbiamo poche big tech capaci di offrire alternative competitive”.
Un’ultima riflessione riguarda il capitale umano: “In Italia le competenze ci sono, ma dobbiamo combattere per trattenerle. Dobbiamo essere in grado di attrarre e valorizzare i talenti”.