AI, rivoluzione tecnologica da governare. Europa tra Usa e Cina

scritto da il 31 Ottobre 2024

Post di Antonella Beltrame, Co-Founder and Partner di Indaco Venture Partners

La “European Data Strategy” è un piano ambizioso sviluppato dalla Commissione Europea per sfruttare il potenziale dei dati. L’obiettivo principale è creare un mercato unico nel quale sia i dati personali, sia quelli non personali, comprese le informazioni commerciali, siano sicuri e possano essere sfruttati in modo efficiente. I pilastri della strategia comprendono il quadro di governance dei dati (DGA), l’utilizzo e l’accesso (DA), l’equilibrio concorrenziale (DMA) e lo spazio digitale sicuro (DSA). Norme già in vigore, sebbene la piena applicazione di alcuni aspetti possa estendersi nel tempo.

Il regolamento europeo sull’artificial intelligence adotta un approccio “risk based”: maggiore è il rischio, più stringenti sono i requisiti di conformità per l’utilizzo, al contrario, i sistemi a basso rischio hanno obblighi minimi di trasparenza. L’obiettivo è di bilanciare l’innovazione con la protezione dei diritti fondamentali al punto che taluni sistemi sono considerati a rischio inaccettabile per i diritti umani e quindi vietati.

Tra quelli vietati troviamo i sistemi di social scoring che valutano o classificano le persone in base al loro comportamento sociale, economico o personale, o che utilizzano tecniche di  manipolazione subliminale  per influenzare il comportamento delle persone, o di  riconoscimento facciale real time per finalità di sorveglianza generale senza un’adeguata base legale, di predictive policing per la previsione delle attività criminali,  e di dati biometrici.

Tra i sistemi ad alto rischio troviamo i sistemi di IA utilizzati nella gestione dei trasporti e delle infrastrutture, come il controllo del traffico aereo o ferroviario, i sistemi utilizzati per la diagnosi delle malattie o per il supporto alle decisioni mediche, i sistemi utilizzati per valutare le prestazioni degli studenti, che possono influenzare l’accesso all’istruzione e la carriera, i sistemi di IA utilizzati nei processi di selezione del personale, come la valutazione dei CV e la conduzione di interviste automatizzate, o per valutare l’affidabilità creditizia e determinare le condizioni di accesso ai finanziamenti, o utilizzati per calcolare i premi delle assicurazioni sulla base dei dati personali degli assicurati, o sistemi che supportano le decisioni relative alla concessione di visti e permessi di soggiorno.

L’essere considerati ad alto rischio implica che i fornitori devono effettuare una valutazione dei rischi per identificare e mitigare i potenziali pericoli associati all’uso dei loro sistemi e avere le certificazioni dei requisiti di sicurezza e conformità stabiliti dall’AI Act. I fornitori devono anche mantenere una documentazione dettagliata sul funzionamento del sistema di IA, inclusi i dati di addestramento utilizzati, gli algoritmi impiegati e le misure di sicurezza implementate.

Questa documentazione deve essere disponibile per le autorità di vigilanza.

L’approccio strategico dell’Europa vs USA e Cina

La strategia europea mette l’uomo al centro, riconosce l’importanza della dignità della persona, della privacy, della trasparenza e della responsabilità, mirando a creare un ecosistema di dati che porti benefici non solo all’economia, ma anche alle persone e alla società nel suo insieme. Questo approccio si differenzia da quello statunitense, che non impone obblighi di legge, ma incarica diverse agenzie governative di formulare linee guida in materia di AI per i vari settori. L’obiettivo statunitense è garantire la sicurezza e l’affidabilità dei sistemi di AI senza divieti specifici su applicazioni come la classificazione sociale o il riconoscimento facciale. Il modello cinese, invece, richiede che i fornitori di AI aderiscano ai valori socialisti fondamentali, senza incitare alla sovversione del potere statale.

La posta in gioco, d’altro canto, è davvero alta. Il volume dei dati prodotti a livello globale è stimato crescere dai 33 zettabyte del 2018 ai 75 zettabyte nel 2025. Attualmente, l’80% delle elaborazioni dei dati avviene in data center centralizzati, mentre il restante 20% in oggetti connessi intelligenti (come elettrodomestici e robot) e in strutture di calcolo vicine all’utente (edge computing). Un numero ridotto di Big Tech detiene buona parte dei dati disponibili.

Normativa da una parte e concentrazione delle Big Tech dall’altra potrebbe disincentivare l’innovazione delle aziende europee.

Una rivoluzione tecnologica epocale. Applicazioni AI in vari settori

Tuttavia occorre considerare che siamo solo al principio di una rivoluzione tecnologica epocale, e non è detto che i leader di oggi rimangano tali in futuro. Gli attuali modelli linguistici di grandi dimensioni (LLM) infatti potrebbero essere superati da una serie di tecnologie emergenti e approcci avanzati che offrono miglioramenti in termini di efficienza, capacità, adattabilità e comprensione contestuale (computazione quantistica, AI neuro-simbolica, modelli multimodali, solo per citarne alcune). Inoltre, c’è un enorme lavoro per mettere a terra applicazioni B2B o B2C, dove l’Europa può competere efficacemente.

Dal punto di vista pratico, le applicazioni dell’AI si stanno diffondendo in vari settori come la sanità, l’automazione industriale, la finanza, la logistica, l’assistenza ai clienti.

Nella sanità, l’AI è utilizzata per individuare precocemente malattie non visibili a occhio nudo, predire malattie complesse e interpretare immagini radiologiche. Nel campo finanziario, l’AI viene impiegata per il trading algoritmico, la prevenzione delle frodi, l’analisi delle tendenze emergenti e la personalizzazione dei servizi di consulenza. Nell’ambito manifatturiero, l’AI ottimizza i processi produttivi, migliorando l’efficienza grazie alla manutenzione predittiva e al controllo qualità.

AI

Designed by Freepik

L’assistenza ai clienti ha beneficiato notevolmente di chatbot e assistenti virtuali, che hanno trasformato l’interazione tra aziende e consumatori. Nel commercio al dettaglio, l’AI ha migliorato l’esperienza di acquisto con raccomandazioni iper-personalizzate. Nel campo della logistica assistiamo ad un’ottimizzazione delle rotte, ad una previsione più accurata della domanda, della gestione scorte, dell’automazione dei magazzini.

L’AI sta quindi accelerando i processi end-to-end di ogni impresa, e già da ora alcune società hanno visto eliminate o significativamente ridotte alcune funzioni o servizi a seguito dell’introduzione di ChatGPT.

AI: il punto di vista degli investitori

Come investitori guardiamo con grande interesse all’AI sia come strumento abilitante nuovi servizi per il settore, sia come potenziali target di investimento.

Infatti, l’AI può rendere più veloce e accurata la due diligence sulle società target di investimento: l’analisi della concorrenza, della reputation, l’ampiezza del mercato di riferimento, o la ricerca di operazioni di M&A, sono tutte attività che possono essere effettuate con il valido supporto dell’AI.

Sul fronte degli investimenti, in un mercato globale, dove l’AI è in grado di ridefinire un mercato esistente, creare nuovi processi, o rendere più efficienti quelli esistenti con costi inferiori, i potenziai target di investimento sono società tecnologicamente scalabili e con modelli di business difendibili, che costruiscono soluzioni verticali in risposta alle specificità di alcuni problemi.

Per esempio start up che attraverso l’utilizzo dei modelli LLM riescano a sviluppare il fine-tuning di un problema specifico personalizzando modelli pre-addestrati per migliorare le prestazioni in contesti specifici. Questo processo può generare nuova proprietà intellettuale e quindi un business difendibile su cui fondi di venture possono investire.

Le due diligence dovranno necessariamente essere estese anche alla valutazione dell’utilizzo dei sistemi di AI nel pieno rispetto della normativa esistente.

Le questioni etiche sulla privacy e la sicurezza dei dati, la tutela dei diritti individuali e la protezione contro l’uso improprio dei dati che potrebbero perpetuare e amplificare i pregiudizi esistenti sono, a mio parere, fondamentali. Tempo fa fui particolarmente colpita dalla lettura del libro di Cathy O’Neil, pubblicato nel 2016, dal titolo “Weapons of Math Destruction,”   che analizza l’impatto sociale degli algoritmi e come essi possano rafforzare le disuguaglianze.

Alla luce dei rischi evidenziati Cathy O’Neil, ritengo che la strategia europea sui dati che utilizza un approccio “antropomorfo” sia da apprezzare.

Occorre evitare la “black box” del deep learning, dove anche i creatori degli algoritmi hanno difficoltà a spiegare come una macchina arrivi a un determinato risultato: questa rappresenta una sfida significativa sia per le big tech sia per gli utenti finali.

La sfida per le imprese: formazione e upskilling

Esiste anche un tema organizzativo: le imprese si trovano dinanzi ad una bella sfida. Da una survey del Politecnico di Milano nel 2023 emerge che tra le grandi imprese il 61% ha adottato l’AI, mentre la percentuale scende al 18% per le PMI. Forse per via dei costi, ancora alti, associati all’utilizzo di alcuni LLM. Si stima infatti che ChtGPT costi oltre 700.00 dollari al giorno per far girare i dati, mentre una customer service di una piccola azienda può costare fino a 21.000 dollari giorno. Ma i  C-level devono anche affrontare la resistenza del management al cambiamento che talvolta è portato a vedere  l’AI come una minaccia alla sicurezza del proprio lavoro piuttosto che come uno strumento  per migliorarne l’efficienza.

La formazione e l’upskilling del personale sono quindi fondamentali per sfruttare le nuove tecnologie anche per non esserne sovrastati.

Da ultimo, ma non meno importante, è il tema della tutela della proprietà intellettuale: la regolamentazione del diritto di autore non rientra tra gli obiettivi  preminenti dell’AI Act, ma rimanda al coordinamento con la direttiva UE “Digital Single  Market”.

In particolare, con riferimento ai contenuti protetti dal diritto d’autore usati per addestrare l’IA,  la normativa stabilisce che l’estrazione e la riproduzione di dati non è consentita se tale utilizzo è stato espressamente escluso dal titolare del diritto d’autore attraverso la facoltà di riserva riconosciuta secondo il meccanismo c.d. opt-out. Quindi se il titolare del diritto esercita l’opt-out, gli sviluppatori di modelli di IA dovranno ottenere la sua specifica autorizzazione per l’estrazione di testo e dati. Dovranno inoltre uniformarsi a precisi obblighi di trasparenza redigendo e rendendo disponibili al pubblico una rendicontazione dei contenuti che sono stati utilizzati per l’attività di addestramento dei loro modelli.

Obbligo che sembrerebbe applicarsi anche a coloro che forniscono al pubblico un modello di intelligenza artificiale con licenza libera: i report dovrebbero essere sufficientemente esaustivi, così da agevolare i titolari del diritto d’autore, a esercitare i propri diritti

Un esempio su tutti di recenti violazioni dei diritti d’autore nell’ambito dell’intelligenza artificiale è il caso del NYT verso Open AI e Microsoft: il New York Times ha avviato un’azione legale contro OpenAI e Microsoft, sostenendo che i loro modelli di IA hanno utilizzato articoli e contenuti del New York Times per l’addestramento senza ottenere il permesso necessario.

Anche alcune emittenti televisive, quali Mediaset e Rai, hanno annunciato di voler esercitare il diritto di “opt-out”, mandando in onda un messaggio con il quale è stato vietato espressamente l’utilizzo delle immagini per l’addestramento di sistemi di IA.

Fare squadra in Europa per guidare innovazione e AI

Le critiche mosse da più parti sull’eccessiva regolamentazione della normativa europea riflettono un equilibrio delicato tra protezione dei diritti dei cittadini e promozione dell’innovazione tecnologica.

Credo che sia un preciso compito dell’Europa costruire un settore dell’IA solido e competitivo, in grado di rivaleggiare con le principali potenze mondiali, garantendo allo stesso tempo uno sviluppo etico e sostenibile delle tecnologie emergenti.

Occorre però che gli Stati membri superino gli interessi nazionali e inizino a collaborare per una strategia congiunta, sfruttando risorse comuni, facendo investimenti significativi, concentrati, aumentando i talenti e potenziando l’intero ecosistema dell’innovazione.

Ho apprezzato molto, in questa logica, il piano industriale di CDP che ha stanziato 1 miliardo per l’intelligenza artificiale. Ora la sfida è fare squadra per costruire una solida alternativa europea capace di guidare l’innovazione e l’utilizzo dell’intelligenza artificiale nel rispetto dell’etica e dei valori umani.