Con la Disposiciòn n. 2/2023 del 1° giugno 2023, il Sottosegretariato per le Tecnologie e l’Informazione ha approvato le “Raccomandazioni per una Intelligenza Artificiale affidabile”, che incoraggiano i soggetti pubblici a sviluppare sistemi di AI umano-centrici ed etici.
Argentina – Disposiciòn n. 2/2023: approvate le “Raccomandazioni per un’Intelligenza Artificiale affidabile”
1 giugno 2023
Le Raccomandazioni hanno lo scopo di indicare ai soggetti operanti nel settore pubblico i principi e linee guida da seguire per far sì che il progresso tecnologico generato dall’AI vada a beneficio della collettività.
Nella parte introduttiva del documento si definisce cos’è l’AI, distinguendo tra AI “debole”, in grado di utilizzare un solo tipo di “intelligenza” (come ad esempio il linguaggio), ed AI “forte”, capace invece di combinarne diversi tipi per svolgere attività più complesse. Dopo aver spiegato il funzionamento di queste tecnologie, si sottolinea come queste non possano essere equiparate all’intelligenza umana, quanto piuttosto a un suo riflesso parziale, dal momento che ne riproducono potenzialità e fallacie.
Le Raccomandazioni, poi, enucleano i principi etici che dovranno essere implementati in tutte le fasi del ciclo di vita di un sistema AI per tutelare i diritti fondamentali dei cittadini.
- Anzitutto bisogna riflettere sul concetto di intelligenza artificiale e su alcuni aspetti connessi con esso. Particolare enfasi viene posta sulla distinzione tra esecuzione e responsabilità, secondo cui anche se l’AI è in grado di eseguire compiti autonomamente la decisione finale deve comunque essere presa da un agente umano, che se ne assume anche la responsabilità. Fin dal momento della progettazione di un sistema AI, è inoltre necessario rispettare i principi individuati a livello internazionale dall’ONU nella “Raccomandazione sull’etica dell’Intelligenza Artificiale”, dalla Conferenza di Asilomar, dall’OECD e dal G20.
- In riferimento alla fase antecedente allo sviluppo dell’AI, il documento afferma l’importanza di formare una équipe multidisciplinare, così da integrare prospettive differenti. Bisognerà inoltre comprendere quali aspetti tecnici ed etici dell’AI siano noti ai membri dell’ente pubblico interessato e procedere a integrare le loro conoscenze attraverso campagne di sensibilizzazione e la partecipazione a conferenze e corsi di formazione. Le Raccomandazioni incitano anche a chiedersi se sia opportuno utilizzare un sistema di AI per risolvere uno specifico problema, quale tipo di tecnologia sia preferibile utilizzare e, di conseguenza, come garantire il requisito dello “human-in-the-loop”. Si raccomanda infine di utilizzare la tecnica del premortem (immaginare il “worst case scenario”) al fine di comprendere come gestire eventuali rischi ex ante.
- Per quanto riguarda, poi, Il ciclo vitale dell’AI le Raccomandazioni stabiliscono l’implementazione di diversi principi etici a seconda della fase di sviluppo e di impiego del sistema. Così nel design del modello di AI dovranno essere assicurati qualità, rappresentatività ed eticità dei dati usati per il training, la trasparenza e spiegabilità dei modelli. Durante la fase di validazione si dovrà verificare che il sistema non produca discriminazioni, che la persona che vi interagisce sia in grado di comprendere gli output e di spiegarli e che le informazioni circa lo sviluppo e la validazione siano registrate in modo da assicurare trasparenza e tracciabilità. Per quanto concerne la fase di implementazione, vanno adottate misure che garantiscano la sicurezza del sistema, la tracciabilità delle azioni, il controllo umano e l’accessibilità all’uso di queste tecnologie. Infine, è opportuno monitorare l’uso di questi sistemi per verificare se questi siano in grado di raggiungere le finalità per cui sono stati sviluppati e se rispecchino gli standard etici e di qualità stabiliti. Al tempo stesso, il monitoraggio è utile per identificare bias ed errori che potrebbero non essere stati individuati in precedenza, e per stabilire procedure per gestire eventuali danni.
Da ultimo si sottolinea che, in tutti i casi in cui verranno forniti servizi pubblici attraverso le tecnologie di IA, si debba istituire un canale umano (con assistenza faccia a faccia) per far sì che le persone che non hanno accesso ai dispositivi tecnologici o semplicemente preferiscono l’interazione con una persona umana possano essere comunque messe nella condizione di godere del servizio.
Il testo dell'atto normativo è disponibile al seguente link nel box download