Perché l’intelligenza artificiale non può prescindere dall’etica

scritto da il 22 Luglio 2024

Post di Reggie Townsend, vicepresidente Data Ethics Practice SAS

Quando inventi la nave, inventi anche il naufragio”, diceva il filosofo Paul Virilio, e il concetto si applica molto bene anche alla tecnologia, che può sempre portare con sé delle insidie. La soluzione risiede nel concepirla e usarla in modo etico, attraverso pratiche precise.

Se la storia ci ha insegnato qualcosa, è che la storia del progresso umano è la storia dell’innovazione, ma la novità spesso perpetua anche vecchie disparità. Possiamo cercare di mitigare i danni o reiterare i nostri errori; e questo, naturalmente, vale anche per l’IA, che, se non gestita con attenzione, può continuare o addirittura amplificare problemi sociali preesistenti come il razzismo, il sessismo e altre forme di discriminazione.

Non c’è bontà o malvagità intrinseca nella tecnologia IA: esistono solo rischi e ricompense, ma proprio per questo la tecnologia da sola non è mai sufficiente e dobbiamo usarla in modo responsabile.

La corsa all’intelligenza artificiale e le pratiche di etica dei dati

Nella sola Italia, il 30% delle aziende ha dichiarato di aver già iniziato a utilizzare in via sperimentale la GenAI, mentre un altro 30% prevede di farlo nei prossimi 12 mesi e un altro 31% entro due anni, ma la corsa tecnologica delle aziende deve anche riflettersi nel campo dei valori, che vanno integrati alla base.

Con la crescente diffusione dell’IA, essa influirà su quasi tutti gli aspetti della società. Per questo, è fondamentale avere fiducia nel fatto che non arrecherà danni. Un’innovazione responsabile dell’IA implica accuratezza, imparzialità, livelli appropriati di trasparenza e, cosa più importante, centralità del benessere e dell’equità degli esseri umani; ma affinché questi obiettivi si avverino, è necessario seguire delle precise pratiche di etica dei dati.

Evitare il tecnocentrismo e promuovere il pensiero critico

È necessario partire dalla mentalità. Abolire il “tecnocentrismo” sarà sempre più fondamentale per il successo delle aziende e della loro tecnologia. Se non controllato, il tecnocentrismo lascia il posto al “bias della automazione”: l’ipotesi che, qualunque sia il compito, la tecnologia sia altrettanto valida o migliore di un essere umano.

In quest’ottica, incoraggiare una cultura dell’indagine e della curiosità può aiutare gli individui a comprendere meglio l’impatto reale delle tecnologie di IA. Migliorare le nostre capacità di pensiero critico e mantenere un sano scetticismo nei confronti dei sistemi di IA è fondamentale per promuovere il buon senso dell’IA. Ciò significa mettere in discussione i risultati generati dall’IA, riconoscere i possibili limiti dei dati sottostanti ed essere consapevoli dei potenziali pregiudizi degli algoritmi. L’assioma “fidarsi ma verificare” dovrebbe guidare le interazioni con l’IA fino a quando non sarà dimostrata la sua accuratezza ed efficacia, soprattutto in scenari ad alto rischio.

Stabilire una governance sicura dell’IA

Venendo ora alle azioni concrete, dopo aver identificato i requisiti normativi, le organizzazioni possono stabilire una propria governance dell’intelligenza artificiale per la massima affidabilità. Possiamo pensare a quattro pratiche guida per l’innovazione responsabile. Molte organizzazioni possono già disporre di alcuni elementi, ma una governance consolidata prevede che tutte e quattro le seguenti pratiche interagiscano l’una con l’altra.

  1. 1. Supervisione: un’organizzazione deve stabilire un sistema di supervisione, che comprenda un quadro di governance dell’IA, la strategia dell’IA e la formulazione delle politiche e misure di attuazione.
  2. 2. Compliance: è essenziale valutare e monitorare la propria preparazione alle normative, valutando innanzitutto il panorama normativo del proprio settore e poi guardando all’interno per capire se è pronta a conformarsi. Gli sforzi per la conformità in corso sono guidati da sistemi di gestione della performance e del rischio.
  3. 3. Oltre alla conformità e al risk management, le organizzazioni devono considerare le loro procedure operative in materia di IA e gestione dei dati. La leadership dovrebbe elaborare procedure operative standard che abbiano senso per l’organizzazione, sulla base della governance e della strategia stabilite nel pilastro della supervisione. Queste procedure devono essere pratiche, attuabili e facili da implementare.
  4. 4. Infine, è fondamentale coltivare una cultura basata su norme e best practice etiche. Con l’evoluzione della tecnologia, un’organizzazione deve stare al passo con i cambiamenti. Promuovendo una solida base etica, la leadership può garantire che i propri team siano adattabili e pronti ad affrontare le nuove sfide che si presentano.

Seguendo questi punti d’azione e adottando un approccio completo per la creazione di un’IA affidabile, le organizzazioni possono navigare nel complesso panorama dell’intelligenza artificiale, sostenere principi etici e costruire la fiducia con gli stakeholder.

 

L’affidabilità dell’IA, dunque, non è solo un imperativo morale, ma anche un vantaggio strategico che consente alle organizzazioni di promuovere l’innovazione, garantire la conformità alle normative e creare un impatto positivo sulla società; è un percorso di trasformazione che posiziona le organizzazioni all’avanguardia nell’innovazione responsabile e sostenibile dell’IA nell’era digitale.