La Direttiva sulla responsabilità del produttore 85/374/CEE (DRP) è stata originariamente adottata nel 1985 stabilendo un sistema europeo di responsabilità oggettiva per le persone che chiedono il risarcimento dei danni causati da prodotti difettosi. Tuttavia, dato lo sviluppo accelerato di tecnologie come l’Intelligenza Artificiale (IA) e l’apprendimento automatico, il quadro giuridico esistente a livello europeo e nazionale sulla responsabilità del prodotto, di cui la Direttiva costituisce una parte importante, potrebbe non essere più adatto allo scopo. Una delle domande costanti negli ultimi anni è se la Direttiva possa o debba coprire i software autonomi. Ad esempio, un rapporto del novembre 2019 del gruppo di lavoro di esperti della Commissione europea sulle nuove tecnologie intitolato “Responsabilità per l’intelligenza artificiale e altre tecnologie digitali emergenti” ha sollevato preoccupazioni sul fatto che le definizioni esistenti di danno e difetto fossero sufficientemente comprensive, date le nuove tecnologie esistenti nei prodotti di consumo sul mercato. Più di recente, nell’ottobre 2020, il Parlamento europeo ha adottato una relazione contenente le raccomandazioni dei deputati alla Commissione europea su come l’IA dovrebbe essere regolata nell’area della responsabilità civile. Questa relazione ha stabilito una serie di modifiche proposte che avrebbero potenzialmente un impatto sulla Direttiva:
• Invita la Commissione europea a considerare la trasformazione della Direttiva in un Regolamento, e a rivedere la definizione di “prodotto” così come concetti come “danno”, “difetto” e “produttore”
• Un nuovo regime per i reclami di responsabilità civile di individui e società contro i cosiddetti “Operatori” di sistemi di IA
• Un sistema di responsabilità solidale in casi che coinvolgono più di un operatore, con diritti di ricorso tra gli operatori in tale scenario per ripartire la responsabilità come appropriato
• Un’ulteriore considerazione del concetto di “momento in cui il prodotto è stato messo in circolazione”, dato che alcuni sistemi IA possono interagire ed evolvere attraverso l’uso di algoritmi di autoapprendimento nel corso del loro ciclo di vita
• La creazione di un regime di responsabilità oggettiva per gli operatori di sistemi IA “ad alto rischio”, con una definizione di “alto rischio” come “un potenziale significativo in un sistema IA funzionante autonomamente per causare danni a una o più persone in un modo che è casuale e va oltre ciò che può essere ragionevolmente previsto; l’importanza del potenziale dipende dall’interazione tra la gravità del possibile danno, il grado di autonomia del processo decisionale, la probabilità che il rischio si concretizzi e il modo e il contesto in cui il sistema IA viene utilizzato”.
Tutti i sistemi IA ad alto rischio sarebbero elencati in un allegato al regolamento proposto, che verrebbe rivisto regolarmente Si attende il feedback della Commissione europea. Col tempo, tuttavia, i fornitori di sistemi IA potrebbero essere tenuti a considerare se soddisfano una definizione di operatore, e forse più importante, data la possibile applicazione della responsabilità oggettiva, se i loro sistemi IA possono essere classificati come “ad alto rischio”.
La Commissione europea è destinata ad affrontare una revisione della Direttiva nel primo trimestre del 2021.