Intelligenza artificiale, l’Europa approva l’AI Act

Articolo del 11/12/2023

Condividi su FacebookCondividi su LinkedinCondividi su Twitter

Dopo un intenso negoziato di 36 ore, il Consiglio europeo e i negoziatori del Parlamento europeo l'8 dicembre 2023 hanno raggiunto un accordo sull'AI Act, la nuova legge europea sull'intelligenza artificiale.

Thierry Breton, commissario europeo al Mercato Interno, ha definito questo accordo "storico", sottolineando che l'Europa è il primo continente a stabilire un quadro normativo chiaro sull'intelligenza artificiale.

L'AI Act mira a garantire che i sistemi di intelligenza artificiale introdotti nel mercato europeo siano sicuri e rispettino i diritti fondamentali e i valori dell'Unione europea. Questa proposta intende anche stimolare investimenti e innovazioni nell'ambito dell'IA in Europa.

Il fulcro dell'AI Act è la regolamentazione dell'IA basata su un approccio "basato sul rischio": maggiore è il rischio, più severe saranno le regole. Questa iniziativa legislativa, la prima nel suo genere al mondo, potrebbe stabilire uno standard globale per la regolamentazione dell'IA, proprio come il GDPR ha fatto in precedenza, promuovendo così l'approccio europeo alla regolamentazione tecnologica a livello mondiale.

Gli elementi principali dell'accordo provvisorio includono:

  • Regole su modelli di IA di ampio impatto e sistemi di IA ad alto rischio.
  • Un sistema di governance rivisto con alcuni poteri di applicazione a livello dell'UE.
  • Estensione dell'elenco delle proibizioni, ma con la possibilità per le autorità di far rispettare la legge di utilizzare l'identificazione biometrica a distanza in spazi pubblici, soggetta a garanzie.
  • Maggiore protezione dei diritti attraverso l'obbligo per i distributori di sistemi di IA ad alto rischio di condurre una valutazione dell'impatto sui diritti fondamentali prima dell'uso.

In termini più concreti, l'accordo provvisorio copre aspetti come:

  • Definizioni e ambito di applicazione.
  • Classificazione dei sistemi di IA come ad alto rischio e pratiche di IA proibite.
  • Eccezioni per l'applicazione della legge.
  • Sistemi di IA di uso generale e modelli fondamentali.
  • Una nuova architettura di governance.
  • Sanzioni per le violazioni dell'AI Act.
  • Trasparenza e protezione dei diritti fondamentali.
  • Misure a sostegno dell'innovazione.

AI Act: Regole Diverse per Diversi Livelli di Rischio

Le nuove regole stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio dell'intelligenza artificiale. Mentre molti sistemi di IA presentano un rischio minimo, è necessario valutarli.

Rischio Inaccettabile

I sistemi di IA considerati una minaccia per le persone saranno vietati. Tra questi:

  • Manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici: ad esempio, giocattoli attivati vocalmente che incoraggiano comportamenti pericolosi nei bambini.
  • Valutazione sociale: classificazione delle persone in base al comportamento, allo status socio-economico o alle caratteristiche personali.
  • Sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale.

Alcune eccezioni potrebbero essere consentite: ad esempio, i sistemi di identificazione biometrica a distanza "post" dove l'identificazione avviene dopo un ritardo significativo saranno consentiti per perseguire crimini gravi, ma solo dopo l'approvazione del tribunale.

Alto Rischio

I sistemi di IA che influenzano negativamente la sicurezza o i diritti fondamentali saranno considerati ad alto rischio e saranno suddivisi in due categorie:

  1. Sistemi di IA utilizzati in prodotti che rientrano nella legislazione dell'UE sulla sicurezza dei prodotti. Questo include giocattoli, aviazione, automobili, dispositivi medici e ascensori.

  2. Sistemi di IA che rientrano in otto aree specifiche che dovranno essere registrati in un database dell'UE:

  • Identificazione e categorizzazione biometrica di persone fisiche.
  • Gestione e funzionamento di infrastrutture critiche.
  • Educazione e formazione professionale.
  • Occupazione, gestione dei lavoratori e accesso al lavoro autonomo.
  • Accesso e godimento di servizi privati essenziali e servizi e benefici pubblici.
  • Forze dell'ordine.
  • Gestione di migrazione, asilo e controllo delle frontiere.
  • Assistenza nell'interpretazione e applicazione della legge.

Tutti i sistemi di IA ad alto rischio saranno valutati prima di essere immessi sul mercato e anche durante tutto il loro ciclo di vita.

IA Generativa

L'IA generativa, come ChatGPT, dovrà rispettare i requisiti di trasparenza:

  • Divulgare che il contenuto è stato generato da IA.
  • Progettare il modello per impedire la generazione di contenuti illegali.
  • Pubblicare riassunti dei dati protetti da copyright utilizzati per l'addestramento.

Rischio Limitato

I sistemi di IA a rischio limitato dovrebbero rispettare requisiti minimi di trasparenza che consentirebbero agli utenti di prendere decisioni informate. Dopo aver interagito con le applicazioni, l'utente può quindi decidere se vuole continuare a usarle. Gli utenti dovrebbero essere informati quando interagiscono con l'IA. Questo include sistemi di IA che generano o manipolano contenuti di immagini, audio o video, ad esempio deepfake.

Entrata in vigore. L'accordo provvisorio stabilisce che l'AI Act dovrebbe applicarsi due anni dopo la sua entrata in vigore, con alcune eccezioni per disposizioni specifiche.

I prossimi passi prevedono il lavoro a livello tecnico nelle prossime settimane per finalizzare i dettagli del nuovo regolamento. Il testo di compromesso sarà sottoposto all'approvazione dei rappresentanti degli stati membri (Coreper) una volta concluso questo lavoro. Il testo completo dovrà essere confermato da entrambe le istituzioni e sottoposto a revisione legale-linguistica prima dell'adozione formale da parte dei colegislatori.

©2022 misterlex.it - [email protected] - Privacy - P.I. 02029690472