categoria: Distruzione creativa
Il dilemma etico dell’AI: privacy e potere tra Oriente e Occidente


Post di Ivan Ranza, CEO di EPICODE Institute of Technology –
L’avvento di DeepSeek nel panorama dell’intelligenza artificiale ha acceso la competizione tra Cina e Stati Uniti per il primato nell’evoluzione tecnologica. O meglio, ha acceso i riflettori su una sfida che, fino a quel momento, non trovava spazio nell’ambito mediatico e forse nemmeno nell’immaginario comune, troppo abituato a seguire le notizie dei testa a testa tra le big statunitensi.
Il lancio dell’applicazione open source, che consente a privati e aziende di scaricare e personalizzare il modello senza il bisogno di hardware avanzati, ha svegliato l’opinione pubblica dal torpore generale che non contemplava la Cina né tra i pionieri, né tra i capisaldi dell’intelligenza artificiale.
Cina all’avanguardia, l’Europa sta perdendo la corsa: perché?
La realtà, e chiunque sia effettivamente stato in Cina ne è consapevole, è che il Paese è estremamente all’avanguardia, anche nell’AI. Al contrario, il ritardo dell’Europa appare lampante: il Vecchio Continente sta perdendo la corsa, fallendo nell’implementare una tecnologia proprietaria, cadendo preda dei tempi della politica e della burocrazia. Purtroppo, ancora una volta, i talenti e le eccellenze che comunque sono presenti in Europa saranno destinate a disperdersi e ad emigrare.
Possiamo interrogarci sul perché Pechino abbia raggiunto questi livelli, passando quasi inosservato. La ragione si ricollega a un’importante osservazione che ho potuto raccogliere durante una conversazione con un alto rappresentante dell’industria tecnologica internazionale, ovvero: “L’intelligenza artificiale può svilupparsi più velocemente dove la regolamentazione sulla privacy è più bassa”.
Intuitivamente, questo è comprensibile: per poter essere allenata, l’AI ha bisogno di dati e più ha accesso a questi dati, più rapidamente può evolvere. La Cina ha quasi un miliardo e mezzo di cittadini ed è meno nota per la tutela della privacy, si tratta di un bacino molto ampio a cui attingere. A questo si aggiungono i dati dagli altri Paesi che comunque utilizziamo diverse app di origine cinese.
I sistemi di AI non sono neutri, il rischio della manipolazione
Ci troviamo ora di fronte al riproporsi di un dibattito già acceso, ovvero quale sia il corretto uso di questi dati, portato però a un nuovo livello, considerando che i sistemi di AI non sono neutri, ma amplificano i valori, i pregiudizi e le intenzioni di chi li sviluppa riflettendoli in decisioni che possono avere un impatto diretto sulla vita delle persone.
I rischi di un uso manipolatorio dei dati non sono una novità. Il caso più eclatante è stato lo scandalo Cambridge Analytica, che ha utilizzato informazioni raccolte senza consenso per indirizzare messaggi politici personalizzati, con l’obiettivo di influenzare le scelte degli elettori.
Un esempio: TikTok in Cina e nel resto del mondo
Un altro esempio del potere che ha la tecnologia di incidere sulle scelte e i comportamenti delle persone, a seconda dell’uso, è rappresentato da TikTok e dalla sua controparte cinese, Douyin. Pur essendo entrambe di proprietà di ByteDance, operano come piattaforme separate con differenze significative nell’uso e nelle funzionalità tra la Cina e il resto del mondo.

I sistemi di AI non sono neutri, ma amplificano i valori, i pregiudizi e le intenzioni di chi li sviluppa (Immagine generata con AI)
Se in Cina la piattaforma implementa funzionalità pro-sociali e restrizioni, come la “modalità giovani” e contenuti educativi, per limitare il tempo di utilizzo e controllare i contenuti per gli utenti sotto i 18 anni, nel resto del mondo piovono discussioni sull’impatto di TikTok sulla salute mentale dei giovani nei Paesi occidentali, con preoccupazioni legate alla dipendenza degli utenti e all’influenza sulla soglia media di attenzione.
Non è solo l’uso dei dati, ma anche le impostazioni e i bias
Con l’intelligenza artificiale, considerando anche i suoi processi di sviluppo, il rischio non è solo legato all’uso dei dati, ma anche da dove e come vengono attinti, ai processi attraverso i quali avviene la raccolta e alla chiave di lettura utilizzata per la loro elaborazione.
Per comprendere meglio questo passaggio, pensiamo alle distorsioni che possono influenzare i risultati di uno studio scientifico a causa di un certo grado di unilateralità nell’etnia o nel genere di partecipanti e ricercatori. In medicina, ad esempio, alcuni farmaci testati quasi esclusivamente su uomini hanno portato a reazioni avverse o a inefficacia nelle donne.
Questi bias possono compromettere la validità e l’imparzialità dei dati raccolti, portando a conclusioni errate o non generalizzabili. Ciò è già stato percepito nel caso di algoritmi di riconoscimento facciale impostati utilizzando modelli caucasici, che spesso mostrano tassi di errore più elevati per individui con pelle più scura.
Perché il dibattito etico sull’AI è una necessità concreta
Con questa chiave di lettura, potremmo asserire che l’equità e l’imparzialità dell’intelligenza artificiale non può esistere perché non esiste in natura, è una questione formalmente di statistica, di eterogeneità del campione ma nella realtà di etica e politica. Utilizzando una metafora sportiva, però, è cruciale tenere conto anche del ruolo dell’allenatore, in questo caso da chi imposta i parametri e interpreta i dati, quindi chi deve essere l’allenatore?
Il rischio è che l’uso dell’intelligenza artificiale possa accentuare le disuguaglianze e gli aspetti più spiacevoli della nostra società, sfociando in situazioni che potrebbero minacciare i diritti fondamentali di alcune fasce della popolazione. In questo contesto, il dibattito etico sull’AI non è soltanto una riflessione teorica, ma una necessità concreta per garantire che l’innovazione tecnologica sia al servizio del bene comune.
Un’AI europea che segua un algoritmo equo e inclusivo: occasione persa?
Anche in questo caso, l’arretratezza dell’Europa nel concepimento di un modello di intelligenza artificiale competitivo e basato sui nostri valori risulta essere un’occasione persa per il Vecchio Continente. Non si deve abbandonare, comunque, l’idea di ricercare un’AI che segua un algoritmo equo e inclusivo, promuovendo l’utilizzo di campioni eterogenei e rappresentativi, adottando metodi di raccolta dati culturalmente e socialmente sensibili, formando i ricercatori sui rischi legati ai bias inconsci e applicando approcci statistici che considerino l’influenza di variabili socio-demografiche.
Questo tipo di modelli AI deve essere reso accessibile e usufruibile, così da limitare il rischio che ad imporsi siano tecnologie potenzialmente intrise di pregiudizi tossici per un’evoluzione sostenibile della società.
Non dobbiamo avere paura della tecnologia, ma adoperarci perché sia un mezzo di trasmissione di valori e progresso sociale, economico e civile che caratterizzano una società moderna che guarda al benessere reale delle future generazioni.