Il 20 marzo 2024 la Commissione Europea – Direzione Generale per la Ricerca e l’Innovazione – ha pubblicato il documento intitolato Living guidelines on the Responsible use of Generative AI in research indirizzate a tutti coloro, siano essi ricercatori, organizzazioni per la ricerca o per il finanziamento della ricerca, che utilizzano l’Intelligenza Artificiale generativa.
Commissione Europea – Linee guida per l’uso responsabile dell’intelligenza artificiale generativa nella ricerca
Anno 2024
La predisposizione di linee guida condivise a livello europeo si rende necessaria in quanto, di recente, diverse istituzioni (tra cui università, organizzazioni di ricerca, enti di finanziamento ma anche case editrici) hanno emanato – ciascuna per sé – linee guida sull’utilizzo appropriato di tali strumenti. A fronte di una proliferazione di linee guida e raccomandazioni in materia, l’European Research Area Forum ha deciso di sviluppare il presente documento al fine di favorire l’uniformità tra i vari stakeholder operanti sul territorio europeo.
Le linee guida si basano su framework preesistenti come il Codice di Condotta Europeo per la Research Integrity e le linee guida per l’IA affidabile sviluppate dall’High-Level Expert Group on AI.
Il documento presenta innanzitutto i quattro principi complementari, che devono essere sempre attuati per un uso responsabile dell’intelligenza artificiale generativa nella ricerca. Questi sono:
1. Affidabilità, al fine di assicurare che la qualità della ricerca permei ogni momento della stessa, dalla progettazione alla scelta della metodologia, dall’analisi delle risorse all’utilizzo delle stesse.
2. Onestà nello sviluppo, nello svolgimento, nella revisione, nella stesura dei report e nella comunicazione della ricerca. Le azioni di cui sopra devono essere condotte in modo equo, trasparente, completo e imparziale. In particolare, è necessario far notare in modo immediato se nell’attività di ricerca sono stati convolti sistemi di AI generativa.
3. Rispetto dei colleghi, dei partecipanti alla ricerca, dei soggetti della ricerca, della società tout court, dell’ecosistema, dell’ambiente e del patrimonio culturale. In particolare, è necessario tenere in considerazione l’impatto sociale e ambientale dell’IA generativa.
4. Allocazione della responsabilità in capo al ricercatore per tutte le azioni e attività svolte nella ricerca questo include la responsabilità per tutti i risultati prodotti e la presenza del c.d. human oversight su tutta l’attività di ricerca.
Il documento si divide poi in tre sezioni. La prima contiene le raccomandazioni per i ricercatori, la seconda è dedicata alle raccomandazioni per le organizzazioni di ricerca, mentre la terza alle c.d. research funding organisations.
In particolare, per un utilizzo appropriato dell’AI generativa i ricercatori dovrebbero:
- Essere sempre e comunque considerati i responsabili ultimi dei risultati della ricerca;
- Utilizzare l’AI generativa in modo trasparente indicando, ad esempio, quale tipologia di strumenti generativi hanno utilizzato;
- Prestare particolare attenzione alle problematiche correlate alla privacy, alla confidenzialità e alla proprietà intellettuale tutte quelle volte in cui condividono con gli strumenti di AI informazioni sensibili o protette;
- Rispettare, nella ricerca condotta con AI generativa, la normativa nazionale, europea e internazionale applicata durante la regolare attività di ricerca;
- Rimanere costantemente aggiornati circa il corretto utilizzo dei sistemi di AI generativa al fine di massimizzare i benefici;
- Astenersi dall’utilizzo di AI generativa in tutte quelle attività capaci di avere un impatto su altri ricercatori (ad esempio durante la c.d. revisione tra pari).
Le organizzazioni di ricerca dovrebbero invece:
- Promuovere, guidare e supportare l’utilizzo responsabile dell’AI generativa nelle attività di ricerca;
- Monitorare le modalità di impiego dell’AI generativa all’interno dell’azienda al fine di individuare quali sono le modalità ottimali di utilizzo della stessa.
- Integrare le linee guida in oggetto all’interno delle proprie linee guida per la ricerca;
- Quando possibile (o quando necessario), utilizzare strumenti di AI generativa che siano collocate su server locali o con modalità c.d. cloud based, in ogni caso gestiti e controllati in proprio dall’organizzazione al fine di garantire una più efficace e sicura gestione dei dati.
L’ultimo paragrafo è dedicato alle c.d. research funding organization, le quali dovrebbero:
- Promuovere e supportare l’uso responsabile dell’AI generativa nella ricerca progettando strumenti di finanziamento che siano ricettivi e favorevoli ad un suo responsabile ed etico delle tecnologie di AI generativa;
- Assicurare l’uso trasparente e responsabile degli strumenti di AI generativa nella ricerca tramite una attenta opera di revisione dei processi interni;
- Richiedere, quale requisito imprescindibile per l’erogazione dei fondi, l’accettazione di clausole implicanti l’uso trasparente, responsabile e sostenibile dei mezzi di AI generativa.
- Essere partecipanti attivi all’interno del panorama dell’intelligenza artificiale generativa.
Il testo delle linee guida è disponibile al seguente link e nel box download.