Il Governo del Nuovo Galles del Sud ha redatto delle linee guida per i programmatori al fine di aiutarli ad analizzare i rischi dei propri sistemi di intelligenza artificiale.
Australia – Minister for Costumer Service and for Digital – AI Assurance Framework, 2024: linee guida sulla definizione dei rischi di sistemi di IA
Anno 2024
Queste linee guida offrono delle domande per analizzare il sistema di intelligenza al momento della sua programmazione e durante il suo utilizzo. Le domande sono divise in cinque categorie già evidenziate dai princìpi etici riconosciuti nel AI Ethics Policy Framework.
Le domande che vengono proposte in queste linee guida servono per identificare il tipo di rischio che pone il sistema di intelligenza artificiale. In base a questa valutazione, i programmatori possono procedere oppure attuare le modifiche necessarie per ridurre o eliminare il rischio del loro algoritmo.
I princìpi etici a cui i programmatori devono rispondere sono:
- Community benefit, in quanto l’intelligenza artificiale deve produrre il miglior risultato per i cittadini
- Fairness, poiché è necessario mitigare il più possibile gli eventuali bias dei dati
- Privacy and security, dato che deve essere garantita la migliore protezione dei cittadini
- Transparency, perché deve essere garantito ai cittadini la possibilità di impugnare le decisioni e gli output generati dall’intelligenza artificiale
- Accountability, in quanto l’organizzazione che ha prodotto il sistema rimane responsabile per i risultati prodotti da esso
Una volta risposto ai quesiti che si occupano di ciascuno dei princìpi, è necessario fare una valutazione generale dell’intelligenza artificiale, ragionando anche sul livello di controllo sui dati che vengono utilizzati dal sistema.
Il documento può essere consultato a questo link e nel box del download.