L’AI Liability Directive è una proposta di direttiva elaborata dalla Commissione europea finalizzata a introdurre regole che rendano più semplice, per i danneggiati dai sistemi di intelligenza artificiale (AI), invocare la responsabilità extracontrattuale e ottenere il risarcimento del danno.
UE – Commissione europea – proposta di Direttiva COM(2022) 496: AI Liability Directive sul regime di responsabilità civile extracontrattuale applicato all’intelligenza artificiale
28 settembre 2022
Il 28 settembre 2022 la Commissione europea ha delineato due proposte di direttiva volte ad affrontare il problema del risarcimento dei danni cagionati da sistemi di intelligenza artificiale. La prima vuole sostituire la Direttiva 85/374/CEE in tema di responsabilità per danno da prodotto difettoso, la seconda introdurre regole uniformi in materia di responsabilità civile extracontrattuale.
Quest’ultima proposta, chiamata AI Liability Directive (AILD), si pone l’obiettivo di regolare le ipotesi in cui un individuo venga danneggiato a seguito dell’utilizzo di un sistema di intelligenza artificiale, a prescindere dalla sua classe di rischio come individuata dall’AI Act.
La Commissione europea muove dall’idea che gli attuali requisiti necessari per invocare la responsabilità aquiliana – danno, colpa e nesso di causalità – siano difficili da provare quando è coinvolta l’intelligenza artificiale, a causa di alcune sue specifiche caratteristiche come opacità, autonomia e complessità. Tali elementi rischiano, infatti, di pregiudicare la capacità del danneggiato di ricostruire il funzionamento del sistema e, di conseguenza, di individuare chi sia il soggetto a cui può essere imputato il danno nonché il legame tra la sua condotta e il danno stesso. L’obiettivo della Commissione è, quindi, quello di individuare regole ad hoc che, semplificando l’onere probatorio in capo al danneggiato da un sistema di AI, assicurino piena ed efficace tutela giurisdizionale alle persone.
Tra le regole proposte figurano:
● L’obbligo, per il fornitore o il distributore di un sistema AI ad alto rischio, di fornire informazioni circa il sistema se si sospetta che possa aver cagionato un danno (art. 3 AILD);
● La presunzione circa la violazione di un “duty of care rilevante” qualora il fornitore o il distributore si rifiutino di condividere le informazioni di cui sopra (art. 3.5 AILD);
● La presunzione in ordine alla sussistenza del nesso di causalità tra danno e colpa del resistente se:
- la colpa è stata dimostrata o presunta in base all’art. 3.5 AILD;
- è ragionevolmente probabile che la condotta colposa abbia influito sull’output prodotto o sull’impossibilità di produrre un output; e
- l’output o la sua assenza abbiano provocato il danno (art. 4.1 AILD).
La proposta specifica regole diverse per dimostrare la colpa a seconda che il sistema sia ad alto rischio o meno, secondo la categorizzazione effettuata dall’AI Act.
Entrambe le presunzioni previste sono relative, sicché il resistente potrà comunque provare che il danno non può essere attribuito alla sua condotta.
Le misure proposte perseguono il duplice fine di accrescere la fiducia nei sistemi di AI e di uniformare quanto più possibile il livello di tutela dai danni causati da questi sistemi all’interno dell’Unione europea.
In ogni caso, la Direttiva stabilisce che gli Stati Membri sono liberi di adottare o applicare regole nazionali che risultino più favorevoli per i ricorrenti (Art. 1.4 AILD).
Il testo della proposta di Direttiva è disponibile al seguente link e nel box download