Il Ministero dell’Innovazione, della Scienza e dell’Industria canadese ha elaborato e introdotto il codice di condotta volontario per lo sviluppo e la gestione volontaria dei sistemi avanzati di AI generativa (Voluntary Code of Conduct on the Responsible Development and Management of Advanced Generative AI Systems), con l’obiettivo di mitigare i rischi posti da questa tecnologia.
Canada – Voluntary Code of Conduct on the Responsible Development and Management of Advanced Generative AI Systems
Anno 2023
Il codice è stato al momento sottoscritto da quattordici imprese che, su base volontaria, si sono impegnate ad adottare specifiche misure volte a prevenire i rischi dell’AI generativa, anticipando in questo modo l’entrata in vigore dell’Artificial Intelligence and Data Act.
I valori che le società firmatarie si obbligano a perseguire sono:
- accountability
- sicurezza
- giustizia e imparzialità
- trasparenza
- controllo umano
- validità e robustezza
Per raggiungere ognuno di questi scopi vengono delineate alcune azioni che sviluppatori e/o gestori dei sistemi dovranno intraprendere, tra cui:
- sviluppare e gestire i sistemi di AI generativa in modo responsabile e adottare un sistema di gestione dei rischi (accountability);
- condividere informazioni e buone pratiche di risk-management con altre società (accountability);
- elaborare procedure per valutarne e mitigare i rischi dei sistemi di AI generativa (sicurezza);
- garantire un controllo sulla qualità dei dati e sulla presenza di bias all’interno dei dataset utilizzati per il training dei sistemi (giustizia e imparzialità);
- implementare diverse tecniche per testare i sistemi, in modo da misurare e ridurre il rischio di output distorti (giustizia e imparzialità);
- fornire informazioni sul sistema e assicurare che questo si presenti come un’intelligenza artificiale quando può essere scambiato per un essere umano (trasparenza);
- monitorare il funzionamento del sistema e intervenire per risolvere eventuali incidenti, che dovranno essere riportati in un’apposita banca dati (controllo umano);
- assicurare che i sistemi siano stati testati per diverse funzioni e in molteplici contesti prima di approvarli (validità e robustezza);
- implementare misure adeguate in tema di cybersicurezza (validità e robustezza).
Alcune misure sono specificamente rivolte a sviluppatori e gestori di sistemi di AI generativa disponibili per l’uso pubblico, come la realizzazione della revisione del sistema da parte di un soggetto terzo prima di consentirne l’immissione in commercio e diverse obbligazioni in materia di trasparenza. Tra queste ultime si evidenzia l’obbligo di pubblicare informazioni su capacità e limiti del sistema, di sviluppare e implementare metodi affidabili e gratuiti per individuare i contenuti generati dal sistema e di rendere disponibile una descrizione del tipo di dati usati per il training.
Nonostante le misure siano rivolte a sistemi di AI generativa, molte indicazioni potranno essere implementate anche da imprese che producono sistemi “ad alto rischio”.
Le imprese firmatarie si impegnano anche a sostenere la creazione, in Canada, di un ecosistema di intelligenza artificiale solido e responsabile, contribuendo allo sviluppo e all’applicazione di standard, condividendo informazioni e buone pratiche e collaborando con mondo della ricerca e istituzioni anche al fine di accrescere la consapevolezza pubblica in tema di AI.
Il testo del codice di condotta è disponibile al seguente link e nel box download.