Vai menu di sezione

OCSE - Raccomandazione sull'intelligenza artificiale: principi per la gestione responsabile di una AI affidabile e raccomandazioni agli Stati aderenti
Anno 2024

Il 3 maggio 2024 il Consiglio dell'Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) ha aggiornato la Raccomandazione del Consiglio sull'Intelligenza Artificiale (AI) adottata nel 2019 al fine di riflettere alcuni sviluppi tecnologici e politici, anche riguardo all’AI generativa.

La Raccomandazione richiama vari documenti internazionali, sottolinea l'impatto significativo e trasformativo dell'IA a livello globale, e ne riconosce i potenziali benefici e rischi. Il testo sostiene quindi la necessità di promuovere l’adozione di un'AI affidabile e di un approccio incentrato sull'uomo.

Il documento definisce un sistema di AI come “un sistema basato su una macchina che, per obiettivi espliciti o impliciti, deduce dagli input ricevuti come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali. I diversi sistemi di AI variano nei loro livelli di autonomia e adattabilità dopo l'implementazione”. La definizione è stata modificata nel novembre 2023, anche per chiarirne l’applicazione ai sistemi generativi.

La Raccomandazione si divide in due sezioni principali. La prima sezione presenta cinque principi complementari, i quali devono essere considerati nel loro complesso.

1. Crescita Inclusiva, sviluppo sostenibile e benessere. Le parti interessate devono impegnarsi in modo proattivo per promuovere la gestione responsabile di una AI affidabile, al fine di aumentare le capacità umane, la creatività, l’inclusione e ridurre le disuguaglianze, incentivando la crescita economica e la sostenibilità ambientale.

2. Rispetto per lo stato di diritto, i diritti umani e i valori democratici. Gli operatori del settore dovrebbero garantire, per l’intero ciclo di vita del sistema di AI, la tutela dello stato di diritto, dei diritti umani e i valori democratici. A tal fine, i vari operatori dovrebbero implementare meccanismi e salvaguardie, come la sorveglianza umana, anche per affrontare i rischi derivanti da utilizzi al di fuori dello scopo previsto, o da un uso improprio (intenzionale o meno). Tra i valori da rispettare rientrano, tra gli altri, l’eguaglianza e la non discriminazione, la libertà, la dignità e l’autonomia umana, la tutela della vita privata e la protezione dei dati personali, la diversità e l'equità, la giustizia sociale e la tutela dei diritti dei lavoratori tutelata a livello internazionale. Il testo sottolinea anche la necessità di affrontare l’amplificazione della disinformazione da parte dell’AI, nel rispetto della libertà di espressione e degli altri diritti.

3. Trasparenza e spiegabilità. Gli operatori dovrebbero impegnarsi a garantire la trasparenza e la comunicazione in relazione ai sistemi di AI. A tal fine, essi dovrebbero:

  • fornire informazioni significative e adeguate al contesto e allo stato dell’arte per migliorare la comprensione generale (in relazione anche a capacità e limiti) dei sistemi di AI;
  • informare le parti interessate relativamente alle loro interazioni con sistemi di AI;
  • offrire elementi per consentire di contestare l’esito del sistema;
  • indicare, quando possibile, in modo comprensibile dati, processi e/o logiche che hanno portato alla previsione, al contenuto, alla raccomandazione o alla decisione del sistema di AI, per consentire alle persone interessate di comprenderne l'output.

4. Robustezza, sicurezza e affidabilità. Le applicazioni di AI dovrebbero essere robuste, sicure e affidabili in condizioni di normale utilizzo, uso prevedibile o uso improprio. Inoltre, bisognerebbe assicurare la presenza di meccanismi per annullare, riparare o disattivare i sistemi se causano danni o manifestano comportamenti indesiderati.

5. Accountability: I vari operatori dovrebbero essere responsabili per l’appropriato funzionamento del sistema e il rispetto dei principi sopra menzionati. A tal fine essi dovrebbero assicurare la tracciabilità, ad esempio dei processi e delle decisioni prese durante il ciclo di vita del sistema, per permettere l’analisi delle decisioni del sistema di AI. Inoltre, gli operatori dovrebbero implementare un approccio di gestione del rischio in modo sistematico, affrontando i rischi legati ai sistemi di AI, anche, se del caso, attraverso la cooperazione tra i diversi operatori nel campo dell'AI.

Il testo raccomanda agli Stati aderenti di promuovere tali principi e agli operatori di impegnarsi nella loro implementazione, al fine di favorire una gestione responsabile dell’AI.

In linea con i cinque principi sopra menzionati, la seconda sezione del testo propone agli Stati aderenti cinque raccomandazioni da applicare nelle loro politiche nazionali (con attenzione nei confronti delle piccole e medie imprese) e nella cooperazione internazionale:

i) investire nella ricerca e nello sviluppo dell'intelligenza artificiale, incoraggiando l’investimento da parte del settore privato e pubblico, soprattutto in relazione a strumenti e database open source e a sforzi interdisciplinari relativi alle implicazioni sociali, politiche, legali ed etiche dell'AI;

ii) promuovere lo sviluppo e l'accesso a un ecosistema digitale inclusivo, dinamico, sostenibile e interoperabile per l'AI affidabile, con riguardo, tra gli altri, ai dati, alle tecnologie di AI, alle infrastrutture di calcolo e di connettività e ai meccanismi di condivisione delle conoscenze;

iii) creare un contesto di governance che favorisca l'AI, supportando la transizione dalla fase di ricerca e sviluppo a quella di implementazione (anche utilizzando sperimentazioni o approcci basati sui risultati) e adattando i quadri normativi e i meccanismi di valutazione in vigore;

iv) sviluppare le competenze umane e prepararsi al cambiamento del mercato del lavoro, garantendo una transizione equa per i lavoratori e promuovendo un uso responsabile dell'AI sul posto di lavoro; e

v) collaborare globalmente per lo sviluppo di una AI affidabile e per la condivisione della conoscenza, sviluppando anche standard tecnici e indicatori per valutare la ricerca, lo sviluppo e la diffusione dell'AI, nonché i progressi nell'attuazione di questi principi.

La versione aggiornata della Raccomandazione sottolinea l’importanza di affrontare la disinformazione e di salvaguardare l'integrità delle informazioni nel contesto dell'AI generativa, una maggior attenzione nei confronti del funzionamento del sistema durante l’intero ciclo di vita, la possibilità da parte dell’operatore umano di annullare o disattivare un sistema in caso di malfunzionamento e il riferimento alla sostenibilità ambientale.

Il testo del documento è disponibile al seguente link e nel box download.

Giulia Olivato
Pubblicato il: Venerdì, 03 Maggio 2024 - Ultima modifica: Lunedì, 20 Maggio 2024
torna all'inizio