Vai menu di sezione

UE – Commissione Europea - Guidelines on AI system definition to facilitate the first AI Act’s rules application: linee guida sulla definizione di sistemi di IA per implementare le norme dell’AI Act
Anno 2025

A febbraio 2025, la Commissione europea ha adottato una serie di linee guida con l’obiettivo di dare supporto agli stakeholders, tra cui decisori politici, aziende e sviluppatori, nella qualificazione di un sistema come IA ai sensi del quadro giuridico fornito dall’AI Act, entrato in vigore nell’agosto 2024.

Il documento sottolinea la necessità di avere una definizione di intelligenza artificiale precisa ma flessibile per garantire la conformità al quadro normativo e che bilanci il rapido sviluppo tecnologico con la protezione dei diritti fondamentali, della salute, della sicurezza, della democrazia e della rule of law.

Gli elementi chiave che definiscono i sistemi di IA includono la loro natura basata sulle macchine, che coinvolge sia componenti hardware che software, e l’autonomia: i sistemi di intelligenza artificiale possono sia funzionare indipendentemente dall’intervento umano, sia richiedere, in alcuni casi, la supervisione umana. Un altro aspetto cruciale è l’adattabilità degli strumenti di intelligenza artificiale, che possono imparare e migliorare nel tempo, sebbene questa non sia una caratteristica obbligatoria affinché un sistema sia considerato intelligenza artificiale. Gli obiettivi del sistema, definiti in modo esplicito o implicito, risultano essenziali nel guidare il comportamento e le interazioni dell’IA, distinguendoli dallo scopo d’uso previsto del sistema.

Le linee guida spiegano anche in che modo i sistemi di intelligenza artificiale differiscono dai software tradizionali. I sistemi di intelligenza artificiale utilizzano tecniche di elaborazione dei dati come l’apprendimento automatico (supervisionato, non supervisionato e apprendimento per rinforzo) e il ragionamento basato sulla logica per dedurre gli output dai dati di input. Questi output rientrano in categorie quali previsioni, generazione di contenuti, raccomandazioni e decisioni, che possono influenzare il loro ambiente.

Le linee guida chiariscono anche ciò che non si qualifica come intelligenza artificiale, come software di elaborazione dati di base o sistemi che utilizzano semplici tecniche di ottimizzazione prive di capacità di inferenza. L’AI Act segue un approccio basato sul rischio, imponendo normative più severe sui sistemi di IA ad alto rischio che possono avere un impatto sui diritti fondamentali o sulla sicurezza, mentre i modelli di intelligenza artificiale di uso generale sono regolamentati separatamente. In definitiva, le linee guida mirano a promuovere lo sviluppo di una IA responsabile all’interno dell’UE garantendo una governance etica e allineando l’innovazione ai valori europei.

Il documento può essere consultato a questo link e nel box del download.

Niccolò Martinello
Pubblicato il: Giovedì, 06 Febbraio 2025 - Ultima modifica: Martedì, 08 Aprile 2025
torna all'inizio