La ricerca pubblicata nel 2024 dall’International Research Centre on Artificial Intelligence (IRCAI, UNESCO) sui bias presenti nell’intelligenza artificiale contro il genere femminile sottolinea l’urgente necessità di affrontarli dato l’uso pervasivo di questi sistemi in settori come quello delle assunzioni e dell’assistenza sanitaria.
UNESCO – IRCAI – Challenging systematic prejudices: analisi dei bias presenti nell’intelligenza artificiale contro donne e ragazze
Anno 2024
Il documento esplora il modo in cui i modelli linguistici di grandi dimensioni (LLMs) come GPT-2 di OpenAI, ChatGPT e Llama 2 di Meta perpetuano i pregiudizi di genere. Questi sistemi di intelligenza artificiale, addestrati su grandi quantità di dati, spesso riflettono e amplificano i pregiudizi sociali esistenti, in particolare contro le donne e le ragazze. Ad esempio, tendono ad associare i nomi femminili a termini come “casa” e “famiglia”, legati a ruoli interni al contesto domestico e di cura, mentre i nomi maschili sono riconducibili maggiormente a termini come “carriera” e “affari”.
Lo studio evidenzia i rischi di questi pregiudizi, compreso il rafforzamento di stereotipi dannosi, il potenziale effetto in relazione a fenomeni di violenza di genere e l’emarginazione dei gruppi vulnerabili. Si sottolinea inoltre che i pregiudizi nell’intelligenza artificiale possono influenzare il processo decisionale in settori quali lavoro e assistenza sanitaria, aumentando ulteriormente le disuguaglianze già esistenti e provocando danni per le economie degli Stati.
Per affrontare questi problemi, l’IRCAI suggerisce un approccio collaborativo. I governi e le istituzioni di matrice politica dovrebbero creare linee guida etiche per favorire lo sviluppo di un’intelligenza artificiale corretta, garantire la trasparenza nel modo in cui gli algoritmi vengono addestrati e condurre controlli regolari per identificare e correggere i pregiudizi. Dovrebbero inoltre promuovere la consapevolezza pubblica sull’etica dell’IA. Le aziende tecnologiche e gli sviluppatori devono utilizzare set di dati diversificati e inclusivi, impiegare strumenti per rilevare e mitigare i pregiudizi e migliorare continuamente i modelli in base al feedback degli utenti.
Lo studio sottolinea inoltre l’importanza di considerare l’intersezionalità, ossia il modo in cui i pregiudizi influenzano le persone in modo diverso in base all’intersezione di fattori identitari come genere, razza e cultura. Il documento, poi, richiede il coinvolgimento delle comunità emarginate nello sviluppo dell’intelligenza artificiale per garantire che siano rappresentate prospettive diverse.
Per concludere, l’IRCAI ritiene che incorporando equità e inclusività in ogni fase dello sviluppo e dell’implementazione dell’IA, queste nuove tecnologie possono promuovere l’uguaglianza e il rispetto dei diritti umani, anziché perpetuare dannose discriminazioni.
Il documento può essere consultato a questo link e nel box del download.