DoNotPay il famoso sistema di IA “ammazza multe” non andrà più in giudizio

Articolo di Michele Iaselli del 30/01/2023

Condividi su FacebookCondividi su LinkedinCondividi su Twitter

Di recente ha assunto grande rilevanza la notizia che per la prima volta negli Stati Uniti il sistema di IA denominato DoNoPay poteva essere utilizzato durante un processo il prossimo 22 febbraio.

Attraverso uno smartphone il sistema di Intelligenza Artificiale, nel corso di una causa relativa ad una multa per eccesso di velocità, avrebbe ascoltato quanto veniva detto in aula per poi suggerire all’accusato, attraverso degli auricolari, cosa dire, come un vero e proprio avvocato difensore.

Purtroppo, qualche giorno dopo tale annuncio Joshua Browder, CEO della startup DoNotPay, ha annunciato che l’intervento sperimentale del sistema in un caso giudiziario sarebbe stato rinviato dopo aver ricevuto minacce di reclusione dai pubblici ministeri se avesse portato a termine il piano.

DoNotPay è divenuto famoso come primo avvocato-robot in grado di fornire consulenza legale gratuita in materia di contravvenzioni stradali. In realtà, come già anticipato, non si tratta di un robot, almeno di come lo intendiamo tradizionalmente in forma umanoide, ma di un’applicazione di intelligenza artificiale denominata chatbot che genera in automatico, qualora sussistano le condizioni, una lettera di contestazione nei confronti della specifica contravvenzione, che l'utente deve solo stampare e firmare.

Si rientra, quindi, nell’ambito dei c.d. sistemi esperti che si distinguono dai sistemi informatici tradizionali poiché in questi ultimi:

1. La conoscenza non è mai rappresentata esplicitamente e non è mai separata dalle procedure che la usano e che ne disciplinano l’elaborazione;

2. la conoscenza è applicata in modo rigidamente predeterminato;

3. non è possibile aggiungere nuova conoscenza senza modificare le procedure;

4. il sistema non è in grado di esporre la conoscenza sulla quale si basa né di spiegare perché, sulla base della stessa, sia giunto a determinati risultati.

Invece, nei sistemi basati sulla conoscenza:

1. La conoscenza è contenuta in una determinata base, dove è rappresentata in un linguaggio ad alto livello, cioè in una forma relativamente vicina al linguaggio usato nella comunicazione umana. E’ possibile adottare una rappresentazione dichiarativa del compito affidato al sistema informatico, lasciando al sistema l’individuazione della procedura da seguire per svolgere quel compito;

2. la conoscenza è usata da un motore inferenziale, ovvero un meccanismo in grado di interpretare il contenuto della base di conoscenza ed effettuare deduzioni logiche in modo da risolvere il problema posto al sistema;

3. la base di conoscenza può essere arricchita di nuove informazioni senza intervenire sul motore inferenziale;

4. il sistema è in grado di esporre in forma comprensibile le premesse e le inferenze che hanno condotto ad un determinato risultato, cioè di giustificare le conclusioni cui giunge.

I sistemi basati sulla conoscenza sono spesso completati da interfacce che agevolano l’interrogazione e la preparazione della base della conoscenza.

Gli obiettivi dell’intelligenza artificiale sono essenzialmente due:

- approfondire e comprendere i principi che rendono possibile l’intelligenza (il computer viene usato per simulare le teorie sull’intelligenza);

- progettare computer o software dotati di capacità simili a quelle umane senza, però, tentare di imitare esattamente i processi informativi degli esseri umani.

I due approcci sono, naturalmente, correlati in quanto il risultato delle ricerche su come la gente risolve i problemi può spesso dare notevoli contributi per le tecniche di problem-solving attraverso l’uso dei computer.

Si può, quindi, tentare di definire l’intelligenza artificiale come quella scienza tendente a sviluppare modelli computazionali di comportamento intelligente, in modo che gli elaboratori possano eseguire compiti che richiederebbero intelligenza da parte dell’uomo.

Questi compiti possono essere suddivisi in:

- compiti del senso comune, che possono essere svolti da qualsiasi persona adulta normale, anche priva di una formazione specifica (come parlare la propria lingua madre, riconoscere oggetti e forme, comprendere la trama di racconti, ecc.);

- compiti da esperti, (come nel caso del chatbot) che normalmente presuppongono conoscenze e abilità specifiche (come diagnosticare malattie, progettare sistemi informatici, effettuare analisi chimiche, ecc.).

L’intelligenza artificiale, quindi, comprende, da un lato, la c.d. scienza cognitiva, che studia l’intelligenza al fine di rappresentarla in modelli che possano essere trasferiti in applicazioni informatiche, d’altro lato,l’intelligenza artificiale in senso stretto, che si occupa delle tecnologie per tali applicazioni. Quest’ultima, a sua volta, è stata divisa in intelligenza artificiale forte, intesa a duplicare la mente negli elaboratori, cioè a creare computer in grado di comprendere e di possedere stati cognitivi, ed in intelligenza artificiale debole intesa a realizzare sistemi informatici capaci di prestazioni normalmente attribuite all’intelligenza umana, pur senza assumere alcuna analogia tra le menti e i sistemi informatici.

Questa ripartizione dell’intelligenza artificiale è sicuramente la logica conseguenza della duplice concezione dell’intelligenza: quella pulita che assume la riducibilità di tutte le manifestazioni dell’intelligenza a pochi principi, esprimibili con eleganza in formalismi logici o matematici e quella sporca, secondo la quale, invece, l’intelligenza è una raccolta di molti metodi ad hoc, ciascuno adeguato ad un compito specifico.

Il dibattito tra la concezione sporca e la concezione pulita dell’intelligenza è connesso alla controversia tra i modelli procedurali ed i modelli dichiarativi della conoscenza: i primi assumono che la conoscenza sia costituita da un insieme di procedure intese a raggiungere determinati scopi nell’interazione con l’ambiente; i secondi presuppongono, invece, che la conoscenza consista di asserzioni che rappresentano il contesto dell’azione intelligente.

Naturalmente nel caso di DoNotPay pretendere che un sistema di IA possa sostituire l’uomo è un’ambizione che non ha alcun fondamento da un punto di vista tecnico, etico e giuridico, ma lo stesso sistema può essere di grande aiuto all’uomo come supporto per prendere determinate decisioni in settori estremamente specialistici.

©2022 misterlex.it - [email protected] - Privacy - P.I. 02029690472