La proposta di legge No. 2338/2023 (“Dispõe sobre o uso da Inteligência Artificial”), attualmente al vaglio del Senato del Brasile, mira a regolamentare l’uso dell’intelligenza artificiale, il design dei sistemi algoritmici e gli standard tecnici applicabili. A tal fine, la proposta di legge stabilisce regole per lo sviluppo, l’implementazione e l’uso responsabile dei sistemi di intelligenza artificiale, con l’obiettivo di proteggere i diritti fondamentali dei cittadini e garantire al contempo un uso sicuro dell’AI.
Brasile – Proposta di legge No. 2338/2023: regolamentazione dell’uso di sistemi di intelligenza artificiale
3 maggio 2023
La proposta di legge brasiliana, pertanto, configura un sistema di:
A) tutela dei diritti fondamentali;
B) classificazione dei sistemi di AI sulla base di un approccio di rischio e un sistema di governance per i sistemi a “rischio eccessivo” e ad “alto rischio”;
C) responsabilità civile per danni prodotti dall’AI.
A) Tutela dei diritti fondamentali
La proposta di legge elenca una serie di diritti fondamentali la cui tutela è garantita nelle forme e nelle condizioni previste dal testo normativo, tra i quali rientrano (art.5):
- Il diritto ad essere preventivamente informato dell’interazione con un sistema di AI.
- Il diritto alla spiegazione della decisione assunta da un sistema di AI.
- Il diritto alla contestazione delle decisioni assunte su base algoritmica laddove producano effetti giuridici o impattano sugli interessi della persona.
- Il diritto a non essere discriminati e alla correzione dei biases del sistema algoritmico che danno luogo a discriminazioni tanto dirette, quanto indirette.
- Il diritto alla privacy e alla protezione dei dati personali.
- Il diritto alla partecipazione umana nel processo decisionale dell’AI.
B) Sistema di classificazione e governance basato sul rischio
La proposta di legge classifica i sistemi di AI e ne differenzia la governance e gli obblighi applicabili sulla base di due livelli di rischio: i) rischio eccessivo e ii) alto rischio. Alcune previsioni si applicano indiscriminatamente a tutti i sistemi di AI.
I providers di sistemi di AI saranno obbligati a svolgere, prima dell’immissione in commercio, un preliminary assessment del sistema al fine di stabilire la classificazione di rischio (art. 13).
“Rischio eccessivo”:
Un sistema di AI si intende a rischio eccessivo e ne è vietata la commercializzazione quando: i) utilizza tecniche subliminali per indurre persone a comportarsi in modo dannoso per la loro salute o sicurezza, ii) sfrutta le vulnerabilità di gruppi specifici di persone, come età o disabilità fisica o mentale, per indurli a comportamenti dannosi per la loro salute o sicurezza, iii) è utilizzato dalle autorità pubbliche per valutare e classificare le persone in base al loro comportamento sociale per l'accesso a beni e servizi pubblici, in modo illegittimo o sproporzionato (art. 14).
Tra i sistemi a rischio eccessivo di cui è consentito l’uso, a determinate condizioni, rientrano i sistemi di identificazione biometrica nelle attività di sicurezza pubblica laddove vengano impiegati da remoto, in spazi pubblici, con la previsione di leggi federali specifiche e dell’autorizzazione giudiziaria al fine di i) perseguire reati con pene superiori a due anni; ii) cercare vittime o persone scomparse; iii) catturare chi commette un reato in flagrante (art. 15).
Si prevede, inoltre, l’istituzione di un’autorità nazionale per la specifica regolamentazione dei sistemi di intelligenza artificiale a rischio eccessivo (art. 16).
“Alto rischio”:
Sono considerati ad alto rischio quei sistemi di AI che vengono impiegati per finalità di sicurezza di infrastrutture critiche, nell'istruzione e formazione professionale, nel reclutamento e nelle decisioni in contesti lavorativi, nella valutazione dei criteri di accesso ai beni pubblici, nella classificazione delle priorità dei servizi di risposta alle emergenze, nell'amministrazione della giustizia, nei veicoli autonomi e nei sistemi di identificazione biometrica, laddove non ricadano tra i sistemi vietati (art. 17).
Governance e obblighi:
Per quanto concerne la governance e gli obblighi per i providers e gli operatori, si applicano a tutti i sistemi di AI le seguenti previsioni generali: l’obbligo di previsione di processi interni per garantire la sicurezza dei sistemi e il rispetto dei diritti delle persone coinvolte; l’implementazione di misure di trasparenza nell'uso dei sistemi e nelle informazioni da fornire agli utenti; la gestione dei dati per prevenire discriminazioni; l’obbligo di conformità alle leggi sulla protezione dei dati (art. 19).
Sono poi previsti una serie di obblighi indirizzati ai sistemi di AI ad “alto rischio” (art. 20), tra i quali: l’obbligo di fornire all’autorità competente una documentazione dettagliata del funzionamento del sistema; l’obbligo di condurre test di affidabilità e robustezza del sistema; l’obbligo di prevedere processi di gestione dei dati per prevenire discriminazioni e misure tecniche per spiegare i risultati del sistema. La proposta di legge prevede per i sistemi ad alto rischio un obbligo di supervisione umana nel processo di impiego del sistema per rilevare e correggere eventuali anomalie che comportino rischi per i diritti dei cittadini.
Da ultimo, la proposta di legge prevede un obbligo di impact assessment per i sistemi ad alto rischio (art. 22).
C) Responsabilità civile
Il provider o l'operatore di un sistema di intelligenza artificiale che provoca danni economici, immateriali, individuali o collettivi, è obbligato a risarcirli integralmente, indipendentemente dal livello di autonomia del sistema. Tuttavia, laddove il sistema sia ad alto rischio, l’agente umano è ritenuto responsabile solo se è provata una partecipazione oggettiva e diretta alla causazione del danno.
La proposta è stata presentata al Senato il 3 maggio 2023 ed è attualmente al vaglio della Commissione temporanea del Senato sull’Intelligenza Artificiale.
Il testo della proposta di Legge è disponibile al seguente link e nel box download