Atto legislativo sull'intelligenza artificiale
I sistemi giuridici del tutto il mondo, inclusi diversi stati degli Stati Uniti, stanno iniziando a stabilire nuove linee guida legali e normative per l’uso e lo sviluppo dei sistemi di intelligenza artificiale (IA). Tuttavia, l’Unione Europea sta assumendo un ruolo di leadership con la Legge sull’intelligenza artificiale dell’UE (Regolamento che stabilisce norme armonizzate sull’intelligenza artificiale – Atto legislativo sull’intelligenza artificiale, 21 maggio 2024), considerata il primo quadro giuridico completo al mondo per l’IA. Formalmente adottata dal Parlamento Europeo il 13 marzo 2024 e approvata dal Consiglio dell’UE il 21 maggio 2024.
Una caratteristica chiave dei sistemi IA, secondo il Regolamento che stabilisce norme armonizzate sull’intelligenza artificiale (Atto legislativo sull’intelligenza artificiale), 21 maggio 2024, è la loro capacità di fare inferenze. Questa capacità si riferisce al processo di ottenere risultati, come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare l’ambiente fisico e virtuale, nonché la capacità dei sistemi IA di estrarre modelli o algoritmi, o entrambi, dalle informazioni o dai dati in ingresso. Le tecniche che consentono di fare inferenze nella costruzione dei sistemi IA includono approcci di apprendimento automatico, in cui questi imparano dai dati come raggiungere determinati obiettivi, così come approcci basati su logica e conoscenza, nei quali le inferenze vengono tratte da conoscenze codificate o rappresentazioni simboliche del compito da risolvere. La capacità di un sistema IA di fare inferenze va oltre la semplice elaborazione dei dati, consentendo apprendimento, ragionamento o modellazione.
Definizione del rischio
La Legge sull’intelligenza artificiale adottata dall’Unione Europea regola i sistemi di intelligenza artificiale in base al livello di rischio che rappresentano. Classifica i sistemi IA in diverse categorie di rischio, con misure normative applicabili per ciascuna.
- Rischio inaccettabile:
- I sistemi IA categorizzati come a rischio inaccettabile sono completamente vietati a causa dei gravi potenziali danni che possono causare. Le seguenti pratiche sono vietate:
- Valutazione sociale: Sistemi IA utilizzati per valutare il comportamento e le caratteristiche degli individui (simile al concetto di credito sociale in Cina).
- Tecniche manipolative o ingannevoli: IA progettata per manipolare o ingannare le persone in modo da compromettere la loro autonomia.
- Sfruttamento di gruppi vulnerabili: IA utilizzata per sfruttare individui come bambini, anziani o persone con disabilità.
- Creazione di database per il riconoscimento facciale: Costruzione di database con IA tramite raccolta di dati da internet senza consenso.
- Polizia predittiva: Strumenti IA utilizzati per prevedere comportamenti criminali potenziali basati su dati raccolti.
- Riconoscimento delle emozioni: Sistemi IA utilizzati per rilevare o analizzare emozioni in ambienti lavorativi o educativi.
- Attività di identificazione e categorizzazione biometrica: Uso dell’IA per alcune forme di identificazione biometrica (ad esempio riconoscimento facciale) e categorizzazione delle persone in base a caratteristiche personali come razza o genere, senza adeguate garanzie legali.
- I sistemi IA categorizzati come a rischio inaccettabile sono completamente vietati a causa dei gravi potenziali danni che possono causare. Le seguenti pratiche sono vietate:
I sistemi IA classificati come ad alto rischio non sono vietati, ma devono soddisfare criteri aggiuntivi per essere conformi alla legislazione vigente. Alcuni esempi di categorie ad alto rischio espressamente indicati nella Legge sull’IA includono sistemi utilizzati come componenti di sicurezza in prodotti come macchinari, giocattoli, dispositivi medici e automobili, così come sistemi utilizzati in settori industriali sensibili come biometria, infrastrutture critiche, educazione e occupazione.
2. Alto rischio
I fornitori e gli utilizzatori di sistemi IA ad alto rischio possono, a seconda delle circostanze, essere soggetti a una serie di requisiti aggiuntivi, che possono includere:
- Effettuare valutazioni dell’impatto sui diritti fondamentali
- Registrazione in un database pubblico dell’UE
- Implementazione di sistemi di gestione del rischio e della qualità
- Utilizzo di dati di alta qualità per ridurre i bias
- Garantire la trasparenza
- Registrazione delle attività automatizzate
- Segnalazione di incidenti
- Mantenimento di una supervisione umana
- Nomina di un rappresentante nell’UE
- Garanzia della precisione, robustezza e sicurezza del sistema
3.Rischio limitato o minimo
I sistemi IA che non raggiungono il livello di rischio inaccettabile o alto possono essere classificati come a rischio limitato o minimo e saranno soggetti a minori requisiti normativi. Tuttavia, il livello di rischio di tali sistemi può variare a seconda dell’applicazione per cui vengono utilizzati.
Per quanto riguarda i modelli di intelligenza artificiale generativa (GPAI), la Legge sull’IA distingue tra modelli con “rischio sistemico” e senza. Il rischio sistemico è considerato presente in modelli con elevate capacità di calcolo. Tutti i fornitori di modelli GPAI devono nominare un rappresentante nell’UE e mantenere una documentazione tecnica dettagliata e altre informazioni sul modello, oltre a rispettare le leggi sul copyright dell’UE. I modelli con rischio sistemico devono inoltre condurre valutazioni avanzate, gestire i rischi, segnalare incidenti e garantire una robusta sicurezza informatica. Queste misure mirano a garantire un’implementazione sicura e responsabile di potenti sistemi IA.
È previsto anche un Consiglio europeo sull’intelligenza artificiale “The AI Council”.