categoria: Distruzione creativa
Se l’Intelligenza Artificiale entra nel dizionario e nella polizza
Il Cambridge Dictionary ha nominato “hallucinate” parola dell’anno 2023. La definizione originale di “hallucinate” è “sembrare di vedere, sentire, percepire o annusare” qualcosa che non esiste, di solito a causa di “una condizione di salute o perché si è assunto un farmaco”. Adesso ha assunto un ulteriore significato, riferito a quei casi in cui i sistemi di intelligenza artificiale come ChatGPT producono informazioni false.
“Hallucinate” non è la sola parola aggiunta dal Cambridge Dictionary. Nel 2023 il dizionario ha aggiunto un certo numero di nuovi termini relativi all’intelligenza artificiale tra cui “large language model (LLM)”, “generative AI, e GPT (abbreviazione di Generative Pre-trained Transformer). Perchè la scelta della parola dell’anno è ricaduta proprio su “hallucinate”? Come spiegato sul sito del Cambridge Dictionary, la parola è stata scelta perché il nuovo significato “arriva all’essenza del perché le persone parlano di intelligenza artificiale”. Uno dei due esempi di utilizzo del lemma “hallucinate” associato all’ intelligenza artificiale riportato nel dizionario è: “LLMs are notorious for hallucinating – generating completely false answers, often supported by fictitious citations”.
Il fenomeno delle hallucination
In uno dei casi più eclatanti di hallucination, due avvocati dello studio Levidow, Levidow & Oberman di New York, hanno utilizzato ChatGPT per farsi supportare nella stesura di alcuni atti relativi alla causa che un cliente dello studio ha intentato contro una compagnia aerea colombiana per un infortunio personale. Sfortunatamente, ChatGPT ha fatto qualcosa per cui rischia di diventare sempre più noto: produrre un documento estremamente plausibile che includeva una serie di errori fattuali, tra cui citazioni di molteplici casi giudiziari, almeno sei, che non esistevano.
Una “hallucination”, per l’appunto. L’avvocato Steven A. Schwartz ha ammesso di fronte ai giudici che era la prima volta che utilizzava ChatGPT per scopi professionali e che “non era consapevole della possibilità che il suo contenuto potesse essere falso”. A sua difesa, ha riferito di aver chiesto a ChatGPT se le sue citazioni fossero false, e il chatbot aveva risposto che potevano “essere trovate in database legali affidabili come LexisNexis e Westlaw”.
Un ben più noto e recente caso di hallucination arriva da Google. Lo scorso 27 febbraio, Sundar Pichai, il CEO di Google, ha comunicato in una nota le ragioni che hanno portato alla decisione di mettere temporaneamente offline la funzione di generazione di immagini di Gemini AI, il large language model di punta di Google.
All’inizio del mese di febbraio Google ha introdotto in Gemini AI la funzione text-to-image, che consente agli utenti di creare immagini a partire da prompt. Nel corso delle settimane successive al lancio, alcuni utenti hanno segnalato gravi inesattezze storiche nei risultati generati che sono diventate virali online e hanno costretto l’azienda a ritirare la funzionalità. E’ diventato virale in particolare il caso delle immagini che mostravano persone di colore in uniformi militari tedesche della Seconda Guerra Mondiale.
Pichai ha definito gli errori commessi “totalmente inaccettabili” e ha dichiarato che l’azienda apporterà modifiche strutturali al modello, oltre a “migliorare i processi di lancio” di nuove funzionalità (n.d.r.).
Come lavora l’intelligenza artificiale?
La decisione del Cambridge Dictionary è quindi in qualche modo il riconoscimento di un ‘fenomeno’ a cui possono essere soggetti i large language models. Il fenomeno è talmente rilevante che sono stati definiti dei sistemi di valutazione, chiamati Hallucination Evaluation Model (HEM), per misurare il grado di hallucination degli LLM. Il ‘fenomeno’, com’è noto, è dovuto al fatto che i modelli generalisti sono addestrati sui dati disponibili su Internet. Elaborano la previsione della ‘migliore’ parola successiva in risposte su base probabilistica, elaborate a partire dal dataset su cui sono stati addestrati. Questo significa che la loro capacità di generare risposte accurate dipende prevalentemente dalla qualità e dalla rappresentatività dei dati di addestramento.
Se si chiede ad esempio a GPT-4, il large language model alla base di ChatGPT, di moltiplicare un numero per 9/5 e aggiungere 32, il risultato restituito é corretto. Se gli si chiede di moltiplicare lo stesso numero per 7/5 e aggiungere 31, il risultato è spesso sbagliato.
La differenza si spiega con il fatto che il primo calcolo è il modo in cui si convertono i gradi Celsius in gradi Fahrenheit, e quindi è molto comune su Internet; il secondo invece non è molto presente nei datasets di addestramento.
I modelli generalisti, è vero, si stanno evolvendo rapidamente, migliorando la qualità dei risultati, ma i rischi di hallucination sono in parte connaturati alla tecnologia stessa, ed in particolare al dataset di addestramento.
I rischi posti dalle hallucination e la risposta: la polizza assicurativa
In risposta ai rischi posti dalle hallucination dei modelli di intelligenza artificiale generativa, che possono spaziare dalla diffusione di dati sensibili alla generazione di informazioni errate, alcune compagnie assicurative hanno sviluppato prodotti assicurativi specializzati che assicurano le aziende contro i danni attribuibili agli errori dell’IA. Proprio come è avvenuto con le cybersecurity insurances, introdotte qualche anno fa a seguito di alcuni casi eclatanti di attacchi cyber andati a segno, cominciano ad arrivare sul mercato i primi prodotti di protezione assicurativa contro i rischi di errore o di hallucination dei modelli di IA. Alcuni esempi di casistiche coperte da questi prodotti assicurativi includono:
Analisi errata dei dati:
un sistema di IA di una banca interpreta in modo errato i dati di mercato, fornendo raccomandazioni di investimento errate ai suoi clienti causandogli perdite significative;
Violazione di proprietà intellettuale:
la creazione di immagini con modelli di IA generativa può creare, ad esempio, problemi di tutela del diritto d’autore o di titolarità dell’immagine generata; aziende come Midjourney e Stability AI sono state accusate di violazione del copyright di migliaia di artisti;
Errori nei documenti legali:
l’IA inserisce clausole errate in un documento legale causando controversie contrattuali e sanzioni finanziarie, come nel citato caso dello studio newyorkese Levidow, Levidow & Oberman;
Diagnosi mediche errate:
uno strumento diagnostico supportato da IA fornisce diagnosi errate ai pazienti, con conseguenti trattamenti terapeutici sbagliati e successive richieste di risarcimento per negligenza medica;
Difetti di produzione:
un sistema di produzione supportato da IA interpreta in modo errato le specifiche di progettazione, causando difettosità del prodotto e costose campagne di richiamo;
Interruzioni della catena di fornitura:
un sistema di gestione del magazzino basato su IA prevede livelli di inventario errati, causando rotture di stock o eccedenze di scorte con impatti sulle vendite e sui costi di gestione del magazzino;
Incidenti di veicoli autonomi:
un veicolo con sistema di guida autonoma interpreta in modo errato i dati dei sensori, causando incidenti e richieste di risarcimento danni. Sono stati circa 700 gli incidenti stradali negli Stati Uniti causati dal cosiddetto pilota automatico di Tesla dal 2019 a oggi. E diversi quelli dei robotaxi di Cruise (GM), che ha ritirato temporaneamente la flotta dalle strade.
In ognuno di questi casi le aziende possono tutelarsi dalle ripercussioni finanziarie di possibili output errati dei sistemi di IA, con coperture assicurative dedicate.
Le compagnie già in campo
A guidare il trend sulle assicurazioni IA ci sono sia alcune grandi compagnie assicurative come Munich Re (la prima a lanciare una polizza IA), AON e Chaucer, che player del settore insurtech, come Vouch. Naturalmente si tratta di un settore nascente, ma via via che la IA diventa sempre più parte integrante dei processi e delle operazioni aziendali, gli strumenti di protezione assicurativa contro le hallucinations e gli errori dell’IA potrebbero seguire lo stesso percorso degli strumenti di protezione dai rischi cyber ed evolvere in un mercato standalone.
E’ verosimile quindi prevedere che nel 2024 possa emergere una domanda più consistente di prodotti assicurativi anti-hallucination. Un po’ più difficile sarà invece prevedere quale sarà la parola dell’anno 2024 del Cambridge Dictionary.