categoria: Draghi e gnomi
AI Act e istituzioni finanziarie: norme senza allucinazioni


Post di Andrea Tesei, CEO Aptus.AI –
Lo scorso 2 febbraio ha segnato un momento fondamentale all’interno dell’Unione Europea nell’attuazione dell’AI Act, il primo regolamento al mondo sull’Intelligenza Artificiale. Da questa data si applicano infatti i divieti verso le pratiche di IA proibite e scattano i requisiti relativi all’alfabetizzazione dell’IA. Questa data rappresenta la prima tappa significativa nel processo di implementazione dell’AI Act, un documento che rappresenta un passo fondamentale verso lo sviluppo responsabile della tecnologia in Europa.
L’AI Act, infatti, è cruciale per garantire che l’Intelligenza Artificiale sia sviluppata e utilizzata in modo sicuro e responsabile. Per le istituzioni finanziarie, il miglior alleato nel percorso di recepimento di questo testo normativo è l’Intelligenza Artificiale stessa, come dimostrano i servizi di IA generativa introdotti da realtà RegTech nel settore della compliance per ottimizzare l’adeguamento alle normative stesse.
Tutelare i diritti fondamentali dei cittadini europei
L’approccio basato sul rischio adottato dall’Unione Europea è pragmatico e lungimirante. Attraverso la suddivisione dei sistemi di IA in categorie di rischio (inaccettabile, alto e limitato), il regolamento offre un quadro concreto per sviluppare tecnologie di IA che tutelino i diritti fondamentali dei cittadini europei.
Nel nostro lavoro quotidiano nel settore dell’IA, osserviamo costantemente il potenziale trasformativo di questa tecnologia, ma siamo anche consapevoli delle sfide etiche e sociali che essa comporta. L’AI Act fornisce finalmente un quadro normativo per navigare queste sfide. La proibizione dei sistemi di IA a rischio inaccettabile – per esempio – non rappresenta un limite all’innovazione, ma una garanzia che consente di concentrare le energie su sviluppi più costruttivi e benefici per la società.
Ridurre al minimo rischi operativi e reputazionali significativi
Un aspetto fondamentale quando si utilizza l’IA generativa a supporto della compliance è la gestione delle cosiddette allucinazioni, contenuti fattualmente inesatti o non aggiornati. In un contesto altamente regolamentato come quello finanziario, un errore relativo al contenuto delle norme può tradursi in rischi operativi e reputazionali significativi.
Per ridurre al minimo il tasso di allucinazioni ed essere efficaci, le soluzioni di Generative AI applicate al settore normativo devono avere accesso diretto alle fonti regolamentari, oltreché ad una serie di informazioni di contesto precise e aggiornate. Questo si può ottenere grazie a norme machine-readable (dunque leggibile dall’IA), che permettono di trasporre oggettivamente i requisiti normativi in formato digitale e seguire la gerarchia ufficiale delle norme, così da generare risposte aggiornate e affidabili.
Servizi di GenAI e rispetto dei requisiti di trasparenza, cosa dice l’AI Act
Passando dall’aspetto operativo della Generative AI a quello regolamentare, l’AI Act classifica l’IA generativa – testi, immagini, audio e video – come uno dei “sistemi di AI a rischio limitato”. Questo impone alle società che offrono servizi di GenAI di rispettare dei requisiti di trasparenza, come comunicare esplicitamente che un contenuto è stato generato dall’AI, progettare il modello per impedire la generazione di contenuti illegali e pubblicare riepiloghi dei dati con diritti d’autore utilizzati per l’addestramento.

Una copia del “The European Union Artificial Intelligence (AI) Act” in mostra durante l’AI & Big Data Expo 2025 all’Olympia, a Londra, Gran Bretagna, 5 febbraio 2025. REUTERS/Isabel Infantes
E l’Intelligenza Artificiale, oggetto degli obblighi introdotti dall’AI Act, può diventare essa stessa uno strumento prezioso per gestire l’implementazione del Regolamento. Le soluzioni RegTech basate sull’IA possono infatti ottimizzare i processi di compliance, a partire dall’analisi predittiva dei cambiamenti normativi, fino alla ricerca avanzata all’interno dei testi legali e all’utilizzo sicuro della Generative AI. Queste innovazioni non solo facilitano l’adeguamento normativo da parte delle Istituzioni finanziarie, ma rappresentano un esempio di come l’IA possa essere sviluppata e utilizzata in modo responsabile.
Alfabetizzazione sull’IA per un utilizzo consapevole
In tal senso, è molto rilevante l’accento posto dall’UE sull’alfabetizzazione relativa all’IA per il personale, un aspetto spesso sottovalutato. Come azienda del settore, sappiamo quanto sia cruciale non solo sviluppare tecnologie all’avanguardia, ma anche garantire che i fruitori ne comprendano appieno le potenzialità e i limiti. I requisiti introdotti dall’AI Act sull’alfabetizzazione sull’IA riflettono dunque una comprensione profonda dei rischi legati ad un utilizzo non adeguatamente consapevole di certi strumenti tecnologici.
La timeline graduale di implementazione dell’AI Act, che si estende fino ad agosto 2026, consentirà alle realtà impattate di adattare progressivamente i processi e sviluppare le competenze necessarie per una piena conformità. È significativo che la disponibilità dei codici di buona pratica è prevista per maggio 2025, per offrire a tutti i soggetti coinvolti gli strumenti necessari per dimostrare la loro conformità in vista della seconda tappa dell’AI Act, prevista per il 2 agosto 2025.
AI Act, potenzialmente un modello globale di regolamentazione
L’AI Act ha dunque il potenziale per diventare un modello globale di regolamentazione dell’Intelligenza Artificiale, con l’obiettivo di rendere l’Europa un leader non solo nel campo dell’innovazione tecnologica, ma anche della sua governance etica. Per le realtà europee, questo rappresenta un’opportunità di differenziazione nel mercato globale, dimostrando che è possibile sviluppare sistemi di IA all’avanguardia nel pieno rispetto dei diritti fondamentali.
Il cammino verso l’implementazione dell’AI Act sarà impegnativo e richiederà un impegno collettivo, al fine di costruire un ecosistema che promuova un progresso umano sostenibile. Noi di Aptus.AI, insieme agli altri operatori del settore, siamo pronti a raccogliere questa sfida e provare a trasformare questi standard normativi in un vantaggio competitivo.
Il 2 febbraio 2025 non ha rappresentato solo un’importante tappa regolamentare, ma l’inizio di una nuova era, in cui l’innovazione tecnologica e la responsabilità etica dovranno procedere fianco a fianco, con l’obiettivo di creare un modello di sviluppo che possa ispirare il resto del mondo.