ChatGPT bloccata dal Garante, ma qual è il vero problema?

Articolo di Michele Iaselli del 03/04/2023

Condividi su FacebookCondividi su LinkedinCondividi su Twitter

Come ormai noto il nostro Garante per la Protezione dei dati personali con il provvedimento n. 112 del 30 marzo 2023 rilevando diverse criticità del sistema di IA ChatGPT riguardo il rispetto delle disposizioni del Regolamento UE n. 2016/679 (GDPR) ha disposto in via d’urgenza, ai sensi dell’art. 58, par. 2, lett. f), del GDPR, nei confronti di OpenAI L.L.C., società statunitense sviluppatrice e gestrice di ChatGPT, in qualità di titolare del trattamento dei dati personali effettuato attraverso tale applicazione, la misura della limitazione provvisoria, del trattamento dei dati personali degli interessati stabiliti nel territorio italiano.

Nel contempo la stessa Autorità ha invitato il titolare del trattamento destinatario del provvedimento, entro 20 giorni dalla data di ricezione dello stesso, a comunicare quali iniziative siano state intraprese al fine di dare attuazione a quanto prescritto e di fornire ogni elemento ritenuto utile a giustificare le violazioni evidenziate.

In particolare il Garante lamenta:

  • la mancanza di un’informativa agli utenti, o comunque agli interessati i cui dati sono raccolti da OpenAI, L.L.C. e trattati tramite il servizio di ChatGPT;
  • l’assenza di idonea base giuridica in relazione alla raccolta dei dati personali e al loro trattamento per scopo di addestramento degli algoritmi sottesi al funzionamento di ChatGPT;
  • l’inesattezza del trattamento di dati personali degli interessati in quanto le informazioni fornite da ChatGPT non sempre corrispondono al dato reale;
  • l’assenza di qualsivoglia verifica dell’età degli utenti in relazione al servizio ChatGPT che, secondo i termini pubblicati da OpenAI L.L.C., è riservato a soggetti che abbiano compiuto almeno 13 anni, per cui nasce il rischio di un pericoloso trattamento di dati estremamente delicati come quelli dei minori senza alcuna consapevolezza da parte di questi ultimi.

Di conseguenza diverse sono le disposizioni del GDPR di cui il Garante contesta la violazione come quelle di cui all’art. 5 (principi applicabili al trattamento dei dati personali, art. 6 (condizioni di liceità del trattamento), art. 8 (Condizioni applicabili al consenso dei minori in relazione ai servizi della società dell'informazione), art. 13 (Informazioni da fornire qualora i dati personali siano raccolti presso l'interessato) ed art. 25 (principio della privacy by design e by default).

In realtà la presa di posizione del Garante ed il relativo provvedimento non sorprende affatto, anzi probabilmente ci si chiede perché sia stato così tardivo. La pericolosità di queste applicazioni di intelligenza artificiale ormai sempre più evolute è stata da tempo evidenziata da tanti studiosi sia nazionali che internazionali e del resto la stessa proposta di regolamento al vaglio del Parlamento europeo e del Consiglio sottolinea la necessità di controllare con particolare attenzione l’attendibilità di questi strumenti in quanto gli stessi elementi e le stesse tecniche che alimentano i benefici socio-economici dell'IA possono altresì comportare nuovi rischi o conseguenze negative per le persone fisiche o la società. Diventa fondamentale garantire un solido quadro normativo europeo per un'IA affidabile che potrà assicurare parità di condizioni e tutelare tutte le persone, rafforzando allo stesso tempo la competitività e la base industriale dell'Europa nel settore dell'IA. Già nel 2017 il Consiglio europeo invitava a dimostrare la "consapevolezza dell'urgenza di far fronte alle tendenze emergenti", comprese “questioni quali l'intelligenza artificiale …, garantendo nel contempo un elevato livello di protezione dei dati, diritti digitali e norme etiche”.

Naturalmente un’applicazione come ChatGPT creata per simulare una conversazione con un essere umano è chiaro che può essere potenzialmente utilizzata per varie finalità, non tutte consentite. Da subito ChatGPT ha dimostrato una buona comprensione del linguaggio naturale contraddistinguendosi per il suo facile utilizzo e per la sua ampia versatilità. Questi aspetti hanno fatto acquistare a tale applicazione una notorietà inaspettata che ha destato non poche preoccupazioni a tutti gli addetti ai lavori. Come è noto solo pochi giorni fa Elon Musk e altri mille fra ricercatori e manager in una lettera aperta hanno chiesto uno stop o una moratoria dei governi di almeno 6 mesi nell'addestramento» dei sistemi di IA più avanzati e consentire lo sviluppo di protocolli di sicurezza condivisi.

Ma allora cosa sta succedendo? E’ stata dichiarata guerra all’IA? Dobbiamo vedere questo dietrofront come una mossa si mercato o come effettiva preoccupazione? Il provvedimento del Garante rientra in questa politica allarmistica?

In realtà stiamo assistendo a quello scenario già paventato da importanti studiosi come Wiener e Jonas i quali hanno sempre evidenziato come gli sviluppi tecnologici di volta in volta avviati con obiettivi a breve termine, presentino la tendenza a rendersi autonomi acquisendo una propria dinamica coattiva in forza della quale non solo diventano irreversibili, ma acquistano una funzione propulsiva al punto da trascendere la volontà ed i piani degli attori.

Di conseguenza, in considerazione di questi temibili rischi, nasce il problema della regolamentazione.

Lo sviluppo dell’IA ed anche l’introduzione della robotica creano inevitabilmente non pochi problemi dal punto di vista sia etico che giuridico poiché normative eccessivamente rigide potrebbero soffocare l'innovazione, ma la mancanza di chiarezza giuridica lascerebbe tutti gli operatori nel buio.  Si pensi, ad esempio, ai sistemi bionici umani, cioè ad una serie di tecnologie (che vanno da protesi bioniche a esoscheletri alle protesi del corpo alle interfacce cervello-computer), che consentirà di ripristinare le funzioni corporee perse e alla fine superare diversi tipi di disabilità, la cui distribuzione, però, pone problemi più generali per quanto riguarda l'impatto sulle nozioni di natura umana, identità, normalità, disabilità, ed i corrispondenti effetti giuridici.

Un contesto normativo trasparente, è visto come un elemento chiave per lo sviluppo di sistemi informatici intelligenti di mercato, in cui prodotti e servizi possono essere distribuiti senza problemi. C’è il forte timore da parte di molti che una legislazione prematura ed invadente possa ostacolare il progresso scientifico ed annullare potenziali vantaggi o peggio ancora causare inefficienze economiche o altro. Allo stesso tempo, in qualche modo paradossalmente, si ammette che la mancanza di un ambiente giuridico affidabile e sicuro possa ugualmente ostacolare l'innovazione tecnologica. Tale difficile situazione mina sicuramente la certezza del diritto ed induce la gente ad agire in un settore ambiguo in cui i diritti e le responsabilità non sono preventivamente individuabili.

Indubbiamente un intervento normativo si renderà necessario quanto meno per ottenere un quadro giuridico che sia in grado di supportare un costante progresso scientifico senza mai porsi come ostacolo allo sviluppo tecnologico.

Leggi e regolamenti nel settore dell’IA saranno fondamentali anche per consentire un effettivo sviluppo di un mercato competitivo. L'ambizione dell'Unione europea di promuovere l'innovazione nel mercato interno fa dell’IA un settore strategico, a cui le istituzioni europee stanno dedicando una notevole attenzione. Allo stesso tempo la ricerca e la produzione industriale nel campo della stessa intelligenza artificiale e della robotica devono crescere in linea con l'obiettivo complementare, che è sancito dalla politica europea, di affermarsi come uno spazio di libertà, sicurezza e giustizia.

Gli obiettivi concorrenti di proteggere i consumatori e più in generale gli utenti finali da effetti pregiudizievoli promuovendo contemporaneamente l'innovazione devono quindi diventare propri del legislatore. A questo proposito, il sistema normativo più efficace deve combinare più strumenti: norme giuridiche, norme e standard tecnici, codici di condotta e best practices. In questo modo sarà possibile garantire la certezza, la flessibilità, la precisione ed anche l'interpretazione più corretta di fronte a determinati dubbi.

Un problema spesso sottolineato quando si affronta la tematica del rapporto tra tecnologia e regolamentazione è la lentezza della legge, nel senso che l'innovazione tecnologica è molto più rapida del legislatore che interviene con notevole ritardo a regolare l’introduzione di determinati prodotti o servizi di alto contenuto tecnologico. Il problema giuridico si pone non solo quando nasce una nuova tecnologia emergente, ma anche quando ci troviamo di fronte a profonde trasformazioni di tecnologie già esistenti. In questo caso nasce l’esigenza di adattare un quadro normativo preesistente al continuo evolversi del progresso tecnologico.

Gli uffici del futuro saranno più interattivi, collaborativi e semplificatirispetto a quelli di oggi, e il merito sarà delle tecnologie e dei processi che creeranno modalità di lavoro diverse. Le innovazioni che entro i prossimi vent’anni potranno colonizzare gli uffici includono l’ormai già tanto pubblicizzato metaverso, i droni, lecomunicazioni Bluetooth cervello-cervello e itrasmettitori sensoriali(piccoli dispositivi da inserire nell’orecchio, che inviano dati audio e video al cervello sotto forma di segnali elettronici). Sono ormai ipotizzabili robot che fungono da “assistenti”, immagazzinando informazioni e apprendendo dall’esperienza e dall’osservazione della realtà, oppure un customer service totalmente automatizzato. Un altro tipo di assistente virtuale, in questo caso non basato su hardware ma totalmente incorporeo, potrebbe nascere dall’utilizzo di ologrammi. Oppure, perché no, gli ologrammi potrebbero in certi casi sostituire i colleghi in carne e ossa, lontani oppure assenti dall’ufficio.

La ricerca sulla IA e la relativa regolamentazione rappresenta un costante punto di riferimento per le politiche comunitarie in materia di innovazione. Le principali questioni sono state affrontate sia da un punto di vista metodologico che da un punto di vista sostanziale. In effetti l’approccio interdisciplinare è stata una caratteristica costante dello studio fin dal suo inizio. L'esperienza diversificata dei ricercatori coinvolti (avvocati, filosofi, ingegneri, ecc.) hanno portato ad una costante interazione finalizzata allo scambio di informazioni, opinioni e punti di vista in modo che le regole suggerite fossero il risultato di una complessa valutazione tecnica, etica e giuridica.

Non bisogna dimenticare che le nuove tecnologie hanno spesso effetti dirompenti, imponendo cambiamenti radicali nello stile di vita, nell’economia e nel comportamento sociale delle persone, per cui la discussione sui benefici e sui pericoli delle nuove tecnologie è sempre molto accesa. La tecnologia solitamente viene definita neutrale, ma è l’uomo che decide se usarla per scopi buoni o cattivi.

Esiste, quindi, un problema di educazione sociale e consapevolezza sociale, che non serve solo ad indirizzare il comportamento umano nella direzione corretta, ma anche a mantenere alta l’attenzione sui pericoli che non sono intrinseci ad una tecnologia in sé ma che possono derivare dai suoi utilizzi impropri o effetti inattesi.

Ed è proprio su questo aspetto che bisogna insistere e che indubbiamente rende l’IA potenzialmente pericolosa in quanto specialmente con riferimento alle reti neurali che si fondano sull’apprendimento, poiché non conoscono già le regole ma si modellano, attraverso uno specifico algoritmo, il risultato finale del procedimento d’apprendimento è imprevedibile per il programmatore stesso: il programmatore non può prevedere l’evoluzione della rete.  Proprio sulla base di questo nuovo approccio ai sistemi di IA è nato il machine learning e cioè l’apprendimento automatico che è composto da strumenti, tecniche e algoritmi in grado di analizzare dati e gli scienziati lo utilizzano per creare modelli predittivi o identificare modelli nei dati. Un ramo del machine learning è il deep learning o apprendimento profondo che si concentra in modo specifico su algoritmi che costruiscono reti neurali artificiali.

Non sorprende, quindi, che sistemi così avanzati di IA possano preoccupare e probabilmente, non me ne voglia l’Autorità Garante, l’aspetto della violazione della privacy, che indubbiamente sussiste, è anche quello meno preoccupante. Pensiamo ad esempio alle conseguenze di campagne di disinformazioni mirate condotte da strumenti di IA. Difatti, la digitalizzazione di ogni aspetto della vita sociale, volano di crescita economica e sociale dei sistemi democratici occidentali, è sempre più sfruttata per azioni che mirano ad influenzare, interferire o tentare di condizionare il libero esercizio delle libertà fondamentali, specie a ridosso di momenti strategici per i sistemi democratici come quelli connessi allo svolgimento di consultazioni elettorali, allo sviluppo di processi decisionali su questioni di rilevanza strategica ovvero in concomitanza con situazioni di crisi internazionale.

Le conseguenze sarebbero devastanti con forti limitazioni della libertà e dello stesso libero arbitrio degli individui e potrebbero condurre ad una società del caos dove diventerebbe difficile distinguere tra realtà e finzione nel solco di incontrollabili derive tecnologiche.


Documenti correlati:

©2022 misterlex.it - [email protected] - Privacy - P.I. 02029690472