categoria: Distruzione creativa
L’ Intelligenza Artificiale sta (finalmente) per essere regolamentata
Post di Gianluca Mauro, fondatore di AI Academy e autore di Zero to AI –
Il 21 aprile l’Unione Europea ha pubblicato una proposta per il primo quadro giuridico per l’Intelligenza Artificiale (AI): The Artificial Intelligence Act. I concetti alla base del regolamento probabilmente daranno forma al futuro dell’AI e al modo in cui avrà un impatto sulle nostre vite.
Non è la prima volta che l’UE fa da pioniere nelle normative tecnologiche. Spinta da una forte attenzione alla sicurezza pubblica (o semplicemente dall’assenza di grandi aziende tech in Europea), l’UE ha già assunto una posizione coraggiosa nel 2016 con il GDPR. Quando l’UE ha deciso di regolamentare il modo in cui le aziende utilizzano i nostri dati, il resto del mondo ha preso nota e la legge dell’UE è diventata la base per la regolamentazione mondiale sulla privacy.
Lo stesso accadrà probabilmente con l’AI. Cerchiamo quindi di capire perché abbiamo bisogno di una regolamentazione sull’AI, come l’Atto affronta il problema e cosa significa per il futuro dell’AI.
Perché dobbiamo regolamentare l’AI?
Man mano che l’AI diventa più matura, le sue applicazioni si stanno diffondendo in ogni settore e funzione aziendale.
Questo fenomeno non sta accadendo senza problemi. Ci sono già casi di intelligenza artificiale che discrimina le persone di colore nelle applicazioni sanitarie, prende decisioni sessiste nel valutare curricula o viene utilizzata per manipolare le persone. Questi sono casi reali, con conseguenze reali su persone reali.
L’industria tecnologica non è famosa per avere un approccio cauto quando si tratta di implementare la tecnologia. L’approccio “move fast and break things” può essere ottimo per Wall Street, ma non per il resto del mondo.
Se l’industria non può autoregolarsi, le regolazioni devono venire dalle autorità pubbliche. Questo è ciò che sta accadendo ora, quindi proviamo a capire come e cosa intende regolamentare l’UE.
The Artificial Intelligence Act
The Artificial Intelligence Act è una proposta di regolamento sull’intelligenza artificiale avanzata dall’UE, volta a “garantire che i sistemi di AI immessi sul mercato dell’Unione siano sicuri e rispettino la normativa esistente sui diritti fondamentali e i valori dell’Unione”.
I due pilastri principali del regolamento sono una classificazione basata sul rischio delle applicazioni di intelligenza artificiale e nuovi requisiti per i fornitori di sistemi di intelligenza artificiale.
L’UE ha classificato i sistemi di AI in 4 aree: rischio inaccettabile, rischio elevato, rischio limitato e rischio minimo.
Rischio inaccettabile: applicazioni la cui vendita è vietata nell’UE. Si tratta di applicazioni che possono danneggiare le persone manipolando il loro comportamento o sfruttando le loro vulnerabilità. Anche alcune applicazioni governative rientrano in questo riquadro, come il social scoring (l’attribuzione di un “punteggio di affidabilità” alle persone sulla base del loro comportamento) o l’uso dell’identificazione biometrica “in tempo reale” negli spazi pubblici (come il riconoscimento facciale).
Ci sono alcuni dettagli da considerare su quest’ultima disposizione. Il riconoscimento facciale può ancora essere utilizzato in tempo reale per validi motivi di sicurezza pubblica, come identificare bambini scomparsi o terroristi. Inoltre, non ci sono limitazioni specifiche per gli usi non in tempo reale. Ciò significa che l’Artificial Intelligence Act non proibisce a enti pubblici di registrare riprese video di piazza ed eseguire algoritmi di riconoscimento facciale per identificare le persone in un secondo momento.
Alto rischio: includono una vasta gamma di applicazioni. Ecco un elenco di quelli più importanti:
• Applicazioni di riconoscimento facciale in spazi privati
• AI per l’istruzione (ad esempio per valutare l’accesso alle università o per assegnare un punteggio ai candidati).
• AI per l’occupazione: applicazioni che prendono decisioni sull’assunzione, il licenziamento o la promozione di persone
• AI per regolare l’accesso ai servizi pubblici
• AI per le forze dell’ordine
• AI per la gestione della migrazione, dell’asilo e del controllo delle frontiere
• AI per la gestione delle infrastrutture critiche (rad safety, fornitura di acqua, gas, ecc.)
Tutte queste applicazioni possono ancora essere sviluppate e vendute, ma non senza una governance adeguata. I fornitori di sistemi di intelligenza artificiale ad alto rischio dovranno valutare i potenziali rischi prima di vendere i loro prodotti e continuare a monitorare le prestazioni dei suoi algoritmi per assicurarsi che funzionino sempre come previsto.
Le applicazioni a rischio limitato e minimo sono sistemi di intelligenza artificiale che non possono danneggiare le persone. Un esempio potrebbe essere un filtro antispam per il tuo account email. Questi sistemi non necessitano di normative specifiche, ma i fornitori devono chiarire agli utenti che stanno interagendo con un’intelligenza artificiale e sono incoraggiati a scrivere il proprio codice etico.
E ora?
Ci vorrà un po’ prima che l’atto dell’AI sia efficace, ma ha già iniziato a fare rumore.
Nello stesso periodo in cui l’UE ha pubblicato la sua proposta, la Federal Trade Commission (FTC) degli Stati Uniti ha pubblicato un post sul blog intitolato “Aiming for truth, fairness, and equity in your company’s use of AI“. Un blogpost è ben lungi dall’essere una legge, ma la FTC chiarisce che la mancanza di una regolamentazione specifica per l’AI non è una scusa per le aziende per vendere prodotti che danneggiano le persone (“Se il tuo modello causa più danni che benefici, la FTC può contestare l’uso di tale modello“).
L’argomentazione della FTC è che “mentre la tecnologia sofisticata può essere nuova, l’attenzione della FTC al processo decisionale automatizzato non lo è“, e la legislazione esistente sulle pratiche sleali o ingannevoli si applica anche all’AI.
Possiamo discutere sui dettagli di come sia l’UE che la FTC stiano cercando di regolamentare l’AI, ma i suoi problemi sono piuttosto chiari e ben definiti: l’AI ha il potenziale per danneggiare le persone e deve essere regolata per questo motivo.
Alcuni sostengono che la regolamentazione ostacolerà l’innovazione. La mia opinione personale su questo punto è che l’innovazione non è positiva per definizione. Dobbiamo iniziare a chiederci se vogliamo effettivamente certe “innovazioni” nelle nostre vite e se siamo d’accordo con gli attuali compromessi tra velocità di innovazione e sicurezza pubblica.
Quando nel novembre 2020 Pfizer ha annunciato di avere un primo vaccino efficace contro il COVID-19, le persone (giustamente) si sono chieste se un vaccino sviluppato in meno di un anno fosse sicuro come una procedura standard che può richiedere fino a 10 anni. Le aziende farmaceutiche hanno pubblicato i loro studi e fornito diligentemente tutta la documentazione necessaria alle autorità pubbliche, in modo che potessero valutare la sicurezza del vaccino.
Mi piacerebbe vedere l’industria tecnologica diventare più simile all’industria farmaceutica. L’intelligenza artificiale ha sia il potenziale di creare un grande valore per la società sia di creare danni. È ora che le aziende tecnologiche si prendano le loro responsabilità.
Twitter @gianlucahmd