Regolamento sull'Intelligenza artificiale: approvata la posizione negoziale del Parlamento Europeo

Articolo di Michele Iaselli del 19/06/2023

Condividi su FacebookCondividi su LinkedinCondividi su Twitter

Il Parlamento europeo, lo scorso 14 giugno, ha adottato la sua posizione negoziale sul Regolamento sull'Intelligenza Artificiale (IA) con 499 voti a favore, 28 contrari e 93 astensioni ed è pronto ad avviare i colloqui con i governi UE sul testo definitivo.

Le norme mirano a garantire che l'IA sviluppata e utilizzata in Europa sia conforme con i diritti e i valori dell'UE, ad esempio in materia di supervisione umana, sicurezza, privacy, trasparenza, non discriminazione e benessere sociale e ambientale. In particolare si parla di “promuovere la diffusione di un'intelligenza artificiale antropocentrica e affidabile e garantire un livello elevato di protezione della salute, della sicurezza, dei diritti fondamentali, della democrazia e dello Stato di diritto, nonché dell'ambiente, dagli effetti nocivi dei sistemi di intelligenza artificiale nell'Unione, sostenendo nel contempo l'innovazione e migliorando il funzionamento del mercato interno”.

Le norme seguono un approccio basato sul rischio e stabiliscono obblighi per fornitori e operatori dei sistemi di IA a seconda del livello di rischio che l'IA può generare. Saranno quindi vietati i sistemi di IA che presentano un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il punteggio sociale (classificare le persone in base al loro comportamento sociale o alle loro caratteristiche personali).

I deputati hanno ampliato l'elenco per includere divieti sugli usi intrusivi e discriminatori dell'IA, come:

  • l'uso di sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico;
  • l'uso di sistemi di identificazione biometrica remota "a posteriori" in spazi accessibili al pubblico, se non previa autorizzazione giudiziaria e strettamente necessario per investigare uno specifico reato grave;
  • i sistemi di categorizzazione biometrica basati su caratteristiche sensibili (ad esempio genere, razza, etnia, cittadinanza, religione, orientamento politico);
  • i sistemi di polizia predittiva (basati su profilazione, ubicazione o comportamenti criminali passati);
  • i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell'ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d'istruzione; e
  • l'estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).

I deputati europei vogliono che la classificazione delle applicazioni ad alto rischio includa anche i sistemi di IA che comportano danni significativi per la salute, la sicurezza, i diritti fondamentali delle persone o l'ambiente. Sono stati aggiunti alla lista ad alto rischio i sistemi di intelligenza artificiale utilizzati per influenzare gli elettori e l'esito delle elezioni e i sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti).

I fornitori di modelli di base — uno sviluppo nuovo e in rapida evoluzione nel settore dell'IA — dovrebbero valutare e mitigare i possibili rischi (alla salute, alla sicurezza, ai diritti fondamentali, all'ambiente, alla democrazia e allo Stato di diritto) e registrare i loro modelli nella banca dati dell'UE prima della loro immissione sul mercato europeo.

I sistemi di IA generativa che si basano su tali modelli, quali ChatGPT, dovrebbero rispettare i requisiti di trasparenza (dichiarando che il contenuto è stato generato dall'IA), aiutando anche a distinguere le cosiddette immagini deep-fake e da quelle reali, e fornire salvaguardie per evitare la generazione di contenuti illegali. Dovrebbero inoltre essere pubblicate le sintesi dettagliate dei dati protetti dal diritto d'autore utilizzati per l'addestramento.

Per stimolare l'innovazione nel campo dell'IA e sostenere le PMI, i deputati hanno previsto esenzioni per le attività di ricerca e le componenti dell'IA fornite con licenze open-source. La nuova legge promuove i cosiddetti spazi di sperimentazione normativa, o ambienti di vita reale, creati dalle autorità pubbliche per testare l'IA prima che venga implementata.

Infine, i deputati intendono rafforzare il diritto dei cittadini di presentare reclami sui sistemi di IA e di ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio con un impatto significativo sui loro diritti fondamentali. I deputati hanno anche riformato il ruolo dell'Ufficio dell'UE per l'IA, che avrà il compito di monitorare l'attuazione delle norme sull'IA.

L’approccio dell’Unione Europea alla tematica dell’IA come si evince dalla Relazione finale dell’AIDA (Commissione speciale sull’intelligenza artificiale in un’era digitale) è prettamente olistico per il consolidamento di una posizione comune a lungo termine, che metta in luce i valori chiave dell’UE, gli obiettivi e i valori sull’IA, che consentano di proseguire gli attuali sforzi legislativi dell’UE in questo settore.

Secondo la relazione, l’UE è rimasta indietro nello sviluppo, nella ricerca e negli investimenti in campo di intelligenza artificiale e l'intensificamento di un'azione dell'UE è fondamentale per la trasformazione digitale dell’UE, poiché il suo impatto continuerà ad essere crescente sia sull’economia che nella vita quotidiana.

Le norme, le salvaguardie e i regolamenti dell’UE dovrebbero garantire che l’IA apporti consistenti benefici in ogni settore dell’UE, dalla transizione verde alla salute e dall’industria, alla governance pubblica, all’agricoltura e alla produttività del lavoro.

La relazione mette in guardia sull'importanza di un'azione tempestiva dell’UE per fissare standard chiari basati sui valori UE, e per evitare che questi vengano definiti altrove.

Dal momento che l’attuale legislazione europea e nazionale è frammentata, lenta e non fornisce la certezza del diritto, la relazione propone la creazione di un contesto normativo favorevole che comprenda un processo legislativo dinamico e una governance moderna. Inoltre, per supportare l’innovazione ed evitare oneri normativi, dovrebbero essere rigorosamente regolamentate solo le applicazioni di IA ad alto rischio.

Poiché le tecnologie di IA dipendono dai dati disponibili, la condivisione dei dati nell’UE deve essere rivista ed estesa. La piena integrazione e armonizzazione del mercato unico digitale dell’UE favorirà gli scambi transfrontalieri e l’innovazione..

Gli europarlamentari sostengono che le infrastrutture digitali dovrebbero essere rafforzate per garantire a tutti i cittadini l’accesso ai servizi.

L’UE dovrebbe favorire lo sviluppo di competenze nell’ambiento dell’intelligenza artificiale in modo da consentire che le persone abbiano le conoscenze necessarie per la propria vita e il proprio lavoro. Sempre secondo la relazione, questo contribuirà inoltre a creare fiducia nella tecnologia, a promuovere l’innovazione e, attraverso il supporto ai centri d’eccellenza e agli esperti dell’UE, a prevenire la perdita dei talenti (la c.d. "fuga dei cervelli").

Infine, è necessario affrontare gli aspetti militari e di sicurezza dell’intelligenza artificiale. Stando a quanto emerge dalla relazione, l’UE dovrebbe cooperare a livello internazionale con partner che la pensano allo stesso modo, per promuovere la propria visione umanistica, basata sui valori europei.

I paesi UE sono già forti nell’industria digitale e nelle applicazioni business-to-business. Con un’infrastruttura di alta qualità e un quadro normativo che protegga la privacy e la libertà di espressione, l’UE potrebbe diventare un leader globale nell’economia dei dati (data economy) e nelle sue applicazioni.

Tanti sono i benefici riconducibili ad un uso consapevole dell’IA. Ad esempio l’intelligenza artificiale potrebbe significare una migliore assistenza sanitaria, automobili e altri sistemi di trasporto più sicuri e anche prodotti e servizi su misura, più economici e più resistenti. Può anche facilitare l’accesso all’informazione, all’istruzione e alla formazione. Con l’epidemia di COVID-19 l’apprendimento a distanza è diventato una necessità. L’IA aiuta a rendere il posto di lavoro più sicuro, perché il lavoro più pericoloso può essere demandato ai robot, e offrire nuovi posti di lavoro grazie alla crescita delle industrie dell’intelligenza artificiale.

L’intelligenza artificiale può consentire lo sviluppo di una nuova generazione di prodotti e servizi, anche in settori in cui le aziende europee sono già in una posizione di forza come l’economia circolare, l’agricoltura, la sanità, la moda e il turismo. Può infatti offrire percorsi di vendita più fluidi e ottimizzati, migliorare la manutenzione dei macchinari, aumentare sia la produzione che la qualità, migliorare il servizio al cliente e risparmiare energia.

L’IA applicata ai servizi pubblici può ridurre i costi e offrire nuove opzioni nel trasporto pubblico, nell’istruzione, nella gestione dell’energia e dei rifiuti e migliorare la sostenibilità dei prodotti. Per questo motivo, contribuirebbe a raggiungere gli obiettivi del Green Deal europeo.

Le verifiche basate sui dati, la prevenzione della disinformazione e degli attacchi informatici e l’accesso a informazioni di qualità possono contribuire a rafforzare la democrazia. Sosterrebbero anche la diversità e l’uguaglianza di opportunità, ad esempio attenuando i pregiudizi in materia di assunzione attraverso l’uso di dati analitici.

L’intelligenza artificiale potrà essere usata nella prevenzione dei reati e come ausilio nella giustizia penale, perché premetterebbe di elaborare più velocemente grandi volumi di dati, valutare con più accuratezza i rischi di fuga dei detenuti, prevedere e prevenire crimini e attacchi terroristici. L’IA viene già usata dalle piatteforme online per individuare e rispondere a pratiche illegali o inappropriate in rete.

In campo militare, l’intelligenza artificiale potrebbe essere usata per la difesa e le strategie di attacco in caso di crimini informatici o per attaccare obiettivi chiave nella lotta informatica.

Ma naturalmente anche i rischi ed i pericoli derivanti dall’uso poco accorto o peggio ancora in malafede dell’IA sono diversi.

Non usare l’intelligenza artificiale in tutto il suo potenziale è un rischio: scarsa attuazione di programmi importanti, come il Green deal europeo, perdita del vantaggio competitivo rispetto ad altre regioni del mondo, stagnazione economica e meno opportunità per tutti. Il sottoutilizzo ha diverse cause, a partire dalla diffidenza del pubblico e delle imprese, fino a infrastrutture carenti, mancanza di iniziativa imprenditoriale, investimenti bassi, frammentazione dei mercati digitali (siccome l’apprendimento automatico dell’IA dipende dai dati, una frammentazione la rende meno efficiente).

Ma anche l’abuso è un problema. Ad esempio, non deve essere usate per problemi per cui non è adatta, come per spiegare o risolvere complesse questioni sociali.

Una sfida importante è determinare chi sia responsabile per i danni causati da un dispositivo o servizio azionato dall’intelligenza artificiale: in un incidente in cui è coinvolta un’auto a guida autonoma, i danni devono essere ripagati dal proprietario, dal costruttore o dal programmatore?

Se il produttore fosse privo di responsabilità potrebbero non esserci incentivi sufficienti a fornire un prodotto sicuro ed efficiente. Il pubblico potrebbe avere meno fiducia nella tecnologia. Ma allo stesso tempo delle norme troppo severe potrebbero soffocare i tentativi di innovazione.

I risultati prodotti dall’IA dipendono da come viene progettata e da quali dati vengono immessi. Questo processo può essere influenzato intenzionalmente o meno. Ad esempio, alcuni aspetti importanti potrebbero non essere programmati nell’algoritmo o potrebbero essere programmati per riflettere e perpetuare delle distorsioni strutturali. Inoltre, l’uso dei dati e dei numeri per rappresentare una realtà complessa fa sembrare l’IA fattuale, precisa e indipendente anche quando non lo è (il cosiddetto “math-washing”).

Ad esempio, se non programmata correttamente, l’IA potrebbe condurre a decisioni riguardo a un’offerta di lavoro, all’offerta di prestiti e anche nei procedimenti penali, influenzate dall’etnia, dal genere, dall’età.

L’IA può anche minacciare la protezione dei dati e il diritto alla vita privata. Può essere usata, ad esempio, in dispositivi per il riconoscimento facciale o per la profilazione online. Inoltre, è capace di mettere insieme le informazioni che acquisisce su una persona senza che questa ne sia a conoscenza.

La minaccia per la democrazia rappresentata dall’intelligenza artificiale passa per l’informazione. È già stata accusata di creare delle “bolle” in rete, dove i contenuti sono presentati in base ai contenuti con cui l’utente ha interagito in passato, invece di creare un ambiente aperto per un dibattito a più voci, inclusivo e accessibile.

Può anche essere usata per creare immagini, video e audio falsi ma estremamente realistici, noti come deepfake, che possono essere usati per truffare, rovinare la reputazione e mettere in dubbio la fiducia nei processi decisionali. Tutto questo rischia di condurre alla polarizzazione del dibattito pubblico e alla manipolazione delle elezioni.

L’intelligenza artificiale potrebbe anche minacciare la libertà di riunione e di protesta, perché potrebbe permettere di rintracciare e profilare individui legati a determinati gruppi o opinioni.

L’uso dell’intelligenza artificiale potrebbe portare anche alla scomparsa di molti posti di lavoro. Anche se ne verranno creati altri e migliori, è cruciale che ci sia l’adeguata formazione affinché i disoccupati possano accedervi e affinché ci sia una forza lavoro qualificata a lungo termine.

L’accumulo di informazioni potrebbe anche portare a una distorsione della concorrenza, in quanto le parti con maggiori informazioni potrebbero ottenere un vantaggio e cercare di eliminare i concorrenti.

Le applicazioni di intelligenza artificiale che sono a contatto o anche integrate del corpo umano possono esser pericolose se mal progettate, utilizzate in modo improprio o hackerate. Un uso non regolamentato dell’intelligenza artificiale negli armamenti potrebbe condurre a una perdita di controllo su armi distruttive.

Le disuguaglianze nell’accesso alle informazioni potrebbero essere sfruttate a discapito degli utenti. Ad esempio, sulla base di un comportamento in rete di una persona o di altri dati utilizzati a sua insaputa, un fornitore di servizi può prevedere quanto questa persona sia disposta a pagare per un servizio o una campagna politica può sapere quale messaggio inviarle. Un altro problema di trasparenza è che potrebbe non essere chiaro per l’utente se sta interagendo con una persona o con un sistema di intelligenza artificiale.

©2022 misterlex.it - [email protected] - Privacy - P.I. 02029690472