Il documento Orientamenti etici per un'IA affidabile è stato pubblicato l’8 aprile 2018 dal Gruppo di esperti ad alto livello sull'intelligenza artificiale, un gruppo indipendente di 52 esperti istituito dalla Commissione Europea. Gli orientamenti intendono garantire l’affidabilità dell’intelligenza artificiale (“AI”) come prerequisito per il suo sviluppo ed utilizzo, in relazione non solo alle qualità tecnologiche del sistema di AI ma anche al suo contesto sociotecnico, ovvero ai processi e agli attori che utilizzano le applicazioni di AI.
UE - Gruppo di esperti ad alto livello sull'intelligenza artificiale - Orientamenti etici per un'IA affidabile
Anno 2018
Nella parte introduttiva, il documento sottolinea tre componenti dell’AI affidabile: legalità, eticità e robustezza (sia tecnica che sociale), e indica che la propria analisi si concentrerà sulle ultime due. Successivamente, il testo si articola in tre capitoli, progressivamente dal più astratto al più operativo. Il capitolo I (Basi di un’AI affidabile) individua quattro principi etici, radicati nei diritti fondamentali, che vengono definiti come imperativi etici. Questi principi sono il rispetto della autonomia umana, la prevenzione di danni, l'equità e la esplicabilità. Il capitolo sottolinea l'importanza di proteggere gruppi vulnerabili e di essere consapevoli dei possibili effetti negativi dell’uso dell’AI. Inoltre, viene evidenziata la necessità di risolvere eventuali tensioni tra i quattro principi etici con metodi di discussione responsabili e aperti alla partecipazione politica e democratica.
Il capitolo II (Realizzare un'IA affidabile) propone indicazioni per lo sviluppo e la realizzazione di un'AI affidabile, seguendo i principi stabiliti nel capitolo I. Il capitolo elenca sette criteri essenziali che devono essere rispettati, enfatizzando l'importanza della ricerca e della formazione in tema di etica dell'AI. Vengono altresì introdotti approcci sia tecnici che non tecnici per realizzare questi criteri durante l'intera durata operativa del sistema di AI. I sette criteri comprendono aspetti sistemici, individuali e sociali e sono: (i) intervento e sorveglianza umani, (ii) robustezza tecnica e sicurezza, (iii) riservatezza e governance dei dati, (iv) trasparenza, (v) diversità, non discriminazione ed equità, (vi) benessere sociale e ambientale, e (vii) accountability.
Il capitolo III (Valutazione di un'IA affidabile) presenta una lista di controllo per la valutazione dell'affidabilità dei sistemi di AI (e in particolare per quelli che interagiscono direttamente con gli utenti) al fine di rendere operativi i principi stabiliti sopra. La lista di controllo non è esaustiva ed è destinata a sviluppatori e distributori di sistemi di AI.
L’ultima sezione del documento illustra alcune opportunità e sfide dell'AI, sottolineando la necessità di una riflessione continua al fine di gestirne rischi ed effetti negativi in modo proporzionato e adeguato al sistema di AI analizzato nel caso concreto.
Il testo del documento è disponibile al seguente link e nel box download