Il 30 ottobre 2023 il G7 ha pubblicato, in seno al cd. Hiroshima Process, dei Guiding Principles e un Code of Conduct in relazione allo sviluppo e utilizzo di sistemi avanzati di intelligenza artificiale (AI), includendo i cd. foundation models e i sistemi generativi. Il testo relativo ai Guiding Principles presenta una lista non esaustiva di undici principi da applicare, quando opportuno sulla base di un approccio basato sul rischio, nella progettazione, nello sviluppo, nella diffusione e nell'uso di sistemi avanzati di AI.
G7 - Hiroshima Process International Guiding Principles for Advanced AI systems: Principi per lo sviluppo e utilizzo dei sistemi di AI più avanzati
Anno 2023
Scopo dei Guiding Principles è fornire una serie di orientamenti volti a promuovere su scala globale l'adozione di sistemi di AI sicuri e affidabili durante il loro intero ciclo di vita, in risposta ai recenti sviluppi in materia di sistemi avanzati di AI e ai relativi rischi e benefici.
Il testo sottolinea l'importanza di incoraggiare le organizzazioni impegnate nello sviluppo di tali sistemi a conformarsi a questi principi, mentre sfruttano le opportunità offerte dall’innovazione. Parallelamente, si mette in evidenza l'importanza di rispettare i principi dello stato di diritto, dei diritti umani, del giusto processo, della diversità, dell'equità, della non discriminazione, della democrazia e di un approccio human-centred nella progettazione, nello sviluppo e nell'uso di sistemi avanzati di AI. In particolare, non dovrebbero essere sviluppati né implementati sistemi che possono essere considerati inaccettabili in quanto minano i valori democratici, risultano particolarmente dannosi per individui o comunità, facilitano il terrorismo, consentono un loro uso improprio a fini criminali o pongono rischi significativi per la sicurezza, la protezione delle persone e i diritti umani.
I principi non sviluppano direttamente considerazioni di tipo etico bensì, sulla base dei principi già elaborati dall’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE), promuovono best practices di natura tecnica, ponendo particolare attenzione in tema di trasparenza e di gestione e mitigazione del rischio. L'eccezione a questa impostazione è rappresentata dal nono principio, che raccomanda di conferire priorità allo sviluppo di sistemi avanzati di AI per affrontare le sfide globali più impegnative, come ad esempio la crisi climatica, la salute e l'istruzione.
Nello specifico, chiunque sviluppi sistemi avanzati di AI viene incoraggiato ad aderire ai seguenti principi:
- identificare, valutare e mitigare i rischi durante lo sviluppo, la distribuzione e l'immissione sul mercato dei sistemi di AI, utilizzando adeguate misure, comprese quelle di verifica interne ed esterne (Principio 1);
- monitorare le vulnerabilità, gli incidenti, i rischi emergenti e l'uso improprio dei sistemi di AI dopo l'implementazione, con l'inclusione di meccanismi per la segnalazione delle criticità e l'attuazione di azioni appropriate per risolverle (Principio 2);
- rendere pubbliche le capacità, le limitazioni e i contesti di utilizzo appropriato e inappropriato dei sistemi avanzati di AI, anche attraverso report rilasciati in occasione di sviluppi significativi, al fine di promuovere una trasparenza sufficiente a garantire il corretto utilizzo e l’interpretazione dell’output del sistema e contribuire così ad una maggiore accountability (Principio 3);
- condividere responsabilmente le informazioni e la segnalazione di incidenti, inclusi rapporti di valutazione, le informazioni sui rischi per la sicurezza e l'incolumità, le abilità pericolose previste o non previste, e tentativi di aggirare le salvaguardie lungo il ciclo di vita dell’AI (Principio 4);
- sviluppare, implementare e divulgare politiche di governance dell’AI e di gestione del rischio, tra cui privacy policies, misure organizzative e di mitigazione dei rischi (Principio 5);
- investire in e implementare controlli di sicurezza solidi riguardanti la sicurezza fisica, la cybersicurezza e le protezioni contro le minacce interne in tutte le fasi del ciclo di vita dell'AI, incluse le misure di operative per la protezione delle informazioni e i controlli appropriati per l'accesso informatico e fisico ai dati e agli algoritmi (Principio 6);
- sviluppare e distribuire meccanismi affidabili per l'autenticazione e la provenienza dei contenuti generati dall'AI, quando ciò sia tecnicamente fattibile, come ad esempio l'utilizzo di watermark o altre tecniche per consentire agli utenti di identificare l'origine dei contenuti senza necessariamente includere informazioni sull'utente (Principio 7);
- dare priorità alla ricerca finalizzata a mitigare i rischi per la società, la sicurezza e la protezione delle persone associati all'AI e investire in misure di mitigazione efficaci (Principio 8);
- dare priorità allo sviluppo di sistemi avanzati di AI per affrontare sfide globali complesse, come la crisi climatica, la salute e l'istruzione, promuovendo al contempo una gestione e supervisione responsabile dell'AI centrata sull'essere umano e iniziative di alfabetizzazione digitale (Principio 9);
- promuovere attivamente lo sviluppo e, se opportuno, l'adozione di standard tecnici internazionali e best practices (Principio 10); e
- implementare misure appropriate in relazione ai dati di input e alla protezione dei dati personali e della proprietà intellettuale (Principio 11).
Il testo del documento è disponibile al seguente link e nel box download.