ChatGPT è un software in grado di simulare conversazioni con gli esseri umani, che è stato implementato con una quantità di dati tale da permettergli di generare testi simili a quelli che genererebbe un umano, e di conseguenza di instaurare un dialogo o realizzare componimenti.
Naturalmente, con l'avvento di ChatGPT, si è subito instaurata una discussione sul tema. Chi accoglie con gioia l'idea di un aiuto tecnologico, e chi si chiede come questo potrebbe influire sulle professioni, ad esempio sull'avvocatura.
E se i clienti iniziassero a scriversi i testi da soli, come atti di diffida e messe in mora o ricorsi dinanzi alle autorità giudiziarie che non richiedono obbligatoriamente il patrocinio di un avvocato?
O, ancora, se fosse l'avvocato ad utilizzare l'intelligenza artificiale, magari per accorciare i tempi?
Ecco, questo è successo proprio negli Stati Uniti, dove l'avvocato Steve Schwartz è stato multato per 5mila dollari.
Il legale, appartenente ad uno studio di New York, rappresentava Roberto Mata, un uomo che aveva citato in giudizio la compagnia aerea Avianca, in quanto - sosteneva - nell'agosto del 2019, durante un volo da El Salvador a New York, era rimasto ferito dopo esser stato colpito al ginocchio da un carrello di servizio in metallo.
La compagnia aveva chiesto al giudice che la causa venisse archiviata per decorrenza dei termini di prescrizione.
Ebbene, a sostegno delle proprie tesi, i legali del signor Mata avevano citato nella propria memoria difensiva diversi precedenti giudiziari a sostegno.
La vicenda si è complicata quando gli avvocati di Avianca non sono riusciti a individuare i casi menzionati e, di conseguenza, il giudice Castel ha chiesto ai legali del signor Mata una copia degli incartamenti.
Qui l'assurda scoperta: quei casi non esistevano.
L’avvocato Schwartz ha quindi ammesso di essersi servito dell'intelligenza artificiale, ma ha sostenuto di aver utilizzato ChatGPT, in quell'occasione, per la prima volta, pensando fosse una sorta di super motore di ricerca. Di conseguenza, non aveva idea che il suo contenuto potesse essere falso.
A supporto, l'avvocato ha mostrato una schermata del sito, in cui chiedeva al bot se i casi menzionati fossero reali, ottenendo risposta affermativa.
Ovviamente, si assumeva la responsabilità di non aver operato un controllo sulle fonti.
Nonostante tali giustificazioni, il giudice Castel gli ha comminato una multa di 5mila dollari, nonché l’ordine di notificare la sanzione a ciascun giudice falsamente identificato come autore delle false sentenze.
Questa vicenda è quindi l'occasione per chiedersi cosa rischia l'avvocato che utilizza l'intelligenza artificiale: commette illecito disciplinare?
Per capirlo, ci tocca guardare un po' al Codice deontologico forense, che individua i doveri dell'avvocato.
In particolare, oltre ai doveri di probità, dignità, decoro e indipendenza, anche nella salvaguardia dell'immagine forense (art. 9 del Codice), l'avvocato ha il dovere di fedeltà, ai sensi dell'art. 10, che sancisce che "L’avvocato deve adempiere fedelmente il mandato ricevuto, svolgendo la propria attività a tutela dell’interesse della parte assistita e nel rispetto del rilievo costituzionale e sociale della difesa."
Soprattutto, però, il legale ha il dovere di diligenza. Ex art. 12 del Codice deontologico forense, "L’avvocato deve svolgere la propria attività con coscienza e diligenza, assicurando la qualità della prestazione professionale."
Naturalmente, l'avvocato deve anche "mantenere nei confronti dei colleghi e delle Istituzioni forensi un comportamento ispirato a correttezza e lealtà", come sancisce l'art. 19, che disciplina i doveri di lealtà e correttezza verso i colleghi e le Istituzioni forensi.
Ebbene, alla luce di tali articoli, è evidente che un avvocato che si fa scrivere gli atti dall'intelligenza artificiale, o comunque la utilizza per arricchire i propri scritti senza verificare le fonti, viola questi doveri, in particolare il dovere di diligenza.
Ma cosa rischia il legale che non rispetta il codice deontologico?
Ai sensi dell'art. 20, comma 1 del Codice deontologico, "la violazione dei doveri e delle regole di condotta di cui ai precedenti articoli e comunque le infrazioni ai doveri e alle regole di condotta imposti dalla legge o dalla deontologia costituiscono illeciti disciplinari ai sensi dell’art. 51, comma 1, della legge 31 dicembre 2012, n. 247.".
L'art. 51, comma 1 della legge 247/2012 stabilisce che le infrazioni ai doveri e alle regole di condotta dettati dalla legge o dalla deontologia sono sottoposte al giudizio dei consigli distrettuali di disciplina.
Al termine del procedimento disciplinare, l'avvocato può essere prosciolto, gli può essere mosso un richiamo verbale o, ai sensi degli artt. 52 e 53 della predetta legge può essergli irrogata una delle seguenti sanzioni:
- avvertimento, con cui si informa il professionista che la sua condotta non è stata conforme alle norme deontologiche e di legge, con invito ad astenersi dal compiere altre infrazioni;
- censura, ossia il biasimo formale;
- sospensione dall'esercizio della professione dai due mesi ai cinque anni;
- radiazione.
Ex art. 20, comma 2 del Codice, invece, qualora le violazioni dei doveri e delle regole di condotta siano riconducibili alle ipotesi tipizzate ai titoli II, III, IV, V e VI del codice, si applicheranno le sanzioni ivi espressamente previste.
Ma quindi l'intelligenza artificiale non può essere utilizzata dagli avvocati? In realtà sì, ma con attenzione.
Al riguardo la Commissione Nuove Tecnologie di FBE (Fédération des Barreaux d’Europe) ha redatto delle linee guida rivolte agli avvocati europei.
In particolare, agli avvocati è raccomandato, in primo luogo, di comprendere la GenAi, assicurandosi di possedere una conoscenza sufficientemente completa dell'intelligenza artificiale utilizzata.
Inoltre, è importante conoscere i limiti e il contesto dell'AI, ricordandosi che i contenuti potrebbero non essere sempre accurati o adatti al contesto.
Andranno poi rispettate le regole sull'intelligenza artificiale e quindi occorre aggiornarsi in merito a queste.
Ulteriore linea guida è finalizzata a ricordare che l'AI ha lo scopo di integrare le conoscenze giuridiche, senza sostituirsi al giudizio professionale. Non va quindi fatto un affidamento eccessivo sui risultati.
Inoltre, viene ricordato agli avvocati di rispettare sempre il segreto professionale, nonché di garantire la protezione dei dati personali e della privacy, quando si utilizzano i sistemi di AI.
Da ultimo, si raccomanda ai professionisti di informare il cliente in merito all'utilizzo dell'AI e assumersi la responsabilità degli esiti e delle conseguenze di tale utilizzo.
In sintesi, sì all'innovazione e agli aiuti che la tecnologia fornisce, ma ricordando che si tratta sempre di un supporto al lavoro umano, che non può sostituirsi ad esso.