categoria: Distruzione creativa
Intelligenza artificiale, ecco le nuove regole Ue a tutela dei consumatori
Post di Christian Di Mauro, Partner, Head of the Italian Litigation and Arbitration practice e Paolo Lani, Associate dello studio legale Hogan Lovells –
La sempre maggior diffusione di tecnologie caratterizzate dall’impiego di sistemi di intelligenza artificiale (vale a dire, di un software in grado, per un determinato insieme di obiettivi predeterminati, di generare autonomamente output quali contenuti, previsioni, raccomandazioni o decisioni e di interagire con l’ambiente circostante) pone nuove problematiche e sfide, soprattutto in tema di responsabilità del produttore di prodotti tecnologici in caso di danni, che richiedono nuovi strumenti legislativi.
Il 28 settembre 2022 la Commissione Europea ha proposto l’adozione di una direttiva che contribuisca all’armonizzazione delle normative nazionali in tema di intelligenza artificiale. Nelle intenzioni del legislatore europeo tale direttiva dovrebbe regolare tutte quelle situazioni in cui sistemi di intelligenza artificiale causino un danno a persone o cose.
Si pensi, ad esempio, a un veicolo a guida autonoma che causi un incidente o il ferimento di un pedone in conseguenza di un’errata interpretazione della segnaletica stradale o, ancora, a un mezzo meccanico addetto alla pulizia delle strade che non riconosca un ostacolo lungo il proprio percorso.
Sulla base delle norme esistenti in Italia, chi subisce un danno causato da un prodotto che impiega sistemi di intelligenza artificiale per essere risarcito deve provare la colpa del produttore e che il danno subito è stato causato dal comportamento colposo del produttore. In sostanza ciò significa che il consumatore danneggiato deve essere in grado di ricostruire la catena degli eventi che hanno portato al danno finale, partendo dall’errore (o dall’omissione) commesso dal produttore nel processo produttivo.
In caso di prodotti caratterizzati da un alto contenuto tecnologico, Ciò può risultare complicato. In particolare, i sistemi di intelligenza artificiale presentano aspetti di opacità, prevedibilità e autonomia “decisionale” tali da rendere difficoltosa l’individuazione di una colpa/negligenza “originale” in capo al produttore (ad esempio un errore di programmazione). Inoltre, può risultare tecnicamente molto complesso dimostrare l’esistenza di una connessione diretta tra tale colpa e le concrete modalità in cui il danno è stato causato dal sistema di intelligenza artificiale. Non va poi tralasciata la capacità dei sistemi di intelligenza artificiale di apprendere ed evolvere autonomamente adeguandosi alle informazioni acquisite nel tempo, caratteristica che rende difficile identificare il difetto che nel tempo ha portato al risultato finale.
In tal senso, la proposta di Direttiva (che dovrà ora essere adottata dal Parlamento Europeo e dal Consiglio) si propone di intervenire su due fronti: da un lato, alleggerendo da un punto di vista processuale l’onere della prova per il soggetto danneggiato (o sui suoi eredi o aventi causa), dall’altro, introducendo, in presenza di determinate condizioni, una presunzione di colpevolezza del soggetto danneggiante, ossia il produttore.
Sotto il primo punto di vista, la proposta, con riferimento ai c.d. sistemi di intelligenza artificiale “ad alto rischio” (vale a dire, sistemi di intelligenza artificiale utilizzati quali componenti di sicurezza all’interno di un prodotto complesso per cui è richiesta una valutazione di conformità da parte di un soggetto terzo), introduce la possibilità per i giudici di ordinare al produttore (o, a determinate condizioni, all’importatore/distributore) di fornire elementi di prova, nei limiti di quanto sia strettamente necessario, nel caso in cui vi sia il sospetto che tali sistema abbiano causato il danno in questione. Se il produttore non rispetta tale ordine, il Giudice può considerare provata la colpa.
La principale novità prevista dalla proposta della Commissione riguarda l’introduzione di una “presunzione di causalità” in favore del consumatore danneggiato. Ciò vuol dire che il giudice potrà presumere che il danno sia stato causato per colpa del produttore quando sia possibile ritenere “ragionevolmente probabile” che la colpa / l’errore del produttore abbia contribuito a influenzare il risultato fornito dall’intelligenza artificiale e quest’ultimo abbia generato a sua volta il danno.
Tale innovazione dovrebbe consentire una maggiore tutela dell’utente finale incentivando il rispetto da parte dei produttori di alti standard qualitativi nel processo produttivo.
Una volta adottata dal Parlamento Europeo e dal Consiglio, la Direttiva dovrà poi essere recepita in Italia. Occorrerà dunque attendere di vedere se e come le regole che saranno adottate in Italia saranno diverse da quelle fissate al livello europeo.