L’avvocato deve sempre procedere alla verifica e al controllo delle ricerche effettuate con i sistemi di intelligenza artificiale. È ormai accertato che tali sistemi costituiscano potenziale fonte di risultati errati, comunemente qualificati come “allucinazioni da intelligenza artificiale”, che si verificano quando i medesimi sistemi inventano risultati inesistenti, ma apparentemente coerenti con il tema trattato. L'utilizzazione acritica di strumenti di intelligenza artificiale generativa, senza la doverosa verifica dell'attendibilità degli output mediante consultazione delle fonti primarie, integra gli estremi della colpa grave. Questi, in sintesi, i principi emersi dalla sentenza n. 338 del 20 febbraio 2026, emessa dal Tribunale di Siracusa.
Nella fattispecie il giudice rilevava come il difensore avesse inserito, nella memoria ex art. 171 ter c.p.c., quattro precedenti della Cassazione inesistenti: più precisamente le massime virgolettate erano state costruite ex novo dalla macchina, prive di qualsiasi riscontro nel CED della Cassazione. Si tratta di una condotta che configura una violazione del dovere del difensore di comportarsi in giudizio con lealtà e probità, perché introduce elementi potenzialmente idonei a influenzare il contraddittorio processuale e la fase di decisione verso un percorso non corretto e perché appesantisce inutilmente l’attività, da parte del giudice e delle controparti, di controllo della giurisprudenza evocata e dei principi giuridici dalla stessa affermati solo apparentemente.
Si rammenta che, già con la sentenza del 16 settembre 2025, la Sezione Lavoro del Tribunale di Torino aveva segnato un precedente destinato a incidere sul futuro rapporto tra professioni legali e intelligenza artificiale. I giudici, in quell'occasione, avevano infatti censurato duramente il comportamento di un avvocato che aveva impugnato un’ingiunzione di pagamento affidandosi in modo acritico agli output generati da un sistema di IA.
Secondo il tribunale piemontese, il ricorso si sostanziava in «un coacervo di citazioni normative e giurisprudenziali astratte, prive di un reale ordine logico e in gran parte inconferenti».
In entrambi i casi, pur riconoscendo la legittimità dell’uso di strumenti tecnologici nella pratica forense, i giudici evidenziano i rischi connessi a un affidamento indiscriminato agli algoritmi nella redazione degli atti giudiziari.
Per tale negligenza si è ritenuto applicabile l’articolo 96 del codice di procedura civile, norma che disciplina la cosiddetta responsabilità processuale aggravata, comunemente definita “lite temeraria”.
Ma quale dev’essere, secondo il legislatore, l’approccio corretto nell’utilizzo dell’IA?
Per gli avvocati il principale riferimento normativo rimane il Reg. UE 2024/1689 noto come AI Act, recepito in Italia con la L. 132/2025. Si tratta di un testo di legge europeo di ampia portata, che ha lo scopo di armonizzare l’approccio dei diversi Paesi alla regolamentazione dell’IA, in un’ottica di protezione dei cittadini. Oltre a regolamentare le applicazioni di IA proibite e ad alto rischio e a stabilire obblighi per i fornitori di IA a uso generale, l'AI Act richiede che le persone coinvolte nelle operazioni di IA dispongano di una conoscenza tecnica adeguata, esperienza, formazione continua. Ebbene, tale requisito si estende anche agli avvocati.
Altresì significativa è la Convenzione Quadro del Consiglio d'Europa sull'IA, adottata a maggio 2024, che sottolinea l'importanza della cultura digitale e delle competenze specifiche per coloro che sono incaricati di identificare, valutare, prevenire e mitigare i rischi legati all'IA.
Altresì significativa è la Convenzione Quadro del Consiglio d'Europa sull'IA, adottata a maggio 2024, che sottolinea l'importanza della cultura digitale e delle competenze specifiche per coloro che sono incaricati di identificare, valutare, prevenire e mitigare i rischi legati all'IA.
La Federazione degli Ordini Forensi d’Europa (FBE) ha, inoltre, recentemente reso disponibile in traduzione ufficiale italiana la versione 2.0 delle Linee guida sull’uso responsabile dell’intelligenza artificiale generativa (GenAI) da parte degli avvocati.
Nell’ambito di tale documento si esortano gli avvocati a temperare l’eccessivo affidamento sui risultati generati dall'IA, ad esercitare cautela e giudizio critico, evitando di fidarsi troppo di quei risultati senza una verifica indipendente, ricordando che la funzione principale della tecnologia è prevedere il token successivo (cioè la parola successiva in una sequenza), piuttosto che ragionare logicamente come farebbe un essere umano. Tale consapevolezza aiuta a mantenere un sano scetticismo riguardo ai risultati prodotti. È raccomandato, inoltre, di verificare le informazioni generate dall'IA con fonti verificate e applicare la rispettiva competenza per valutare la validità dei risultati.
È necessario, ancora, conoscere bene i limiti dell'IA generativa nella pratica legale 4.0. Non tutti i sistemi di IA sono uguali, e quelli progettati per conversazioni generali o uso dei consumatori potrebbero non essere adatti per applicazioni legali. I risultati generati dall'IA possono talvolta mancare di completezza, accuratezza o attualità, specialmente quando vengono impiegati al di fuori dell’ambito per i quali sono stati creati. Ciò può portare a output inaffidabili o fuorvianti, con rischi significativi in un contesto legale professionale. Pertanto, sarebbe consigliabile scegliere e applicare gli strumenti di IA in modo coerente con i contesti e gli usi per cui sono stati progettati, e conoscere e comprendere le loro limitazioni generali e specifiche.
Anche clienti e controparti potrebbero usare strumenti di IA generativa, ad esempio per affinare le proprie strategie o per produrre prove documentali. Questa eventualità apre la porta a un rischio concreto: l’uso di deepfake, cioè contenuti digitali – immagini, audio o video – creati o modificati in modo da sembrare autentici, ma che in realtà sono del tutto artefatti (imitando persone, oggetti, luoghi, enti o eventi reali). Diventa, quindi, indispensabile rivedere l'approccio alla prova (sin da quando si riceve un documento dal cliente e se ne valuta la possibile produzione in giudizio).
È necessario, ancora, conoscere bene i limiti dell'IA generativa nella pratica legale 4.0. Non tutti i sistemi di IA sono uguali, e quelli progettati per conversazioni generali o uso dei consumatori potrebbero non essere adatti per applicazioni legali. I risultati generati dall'IA possono talvolta mancare di completezza, accuratezza o attualità, specialmente quando vengono impiegati al di fuori dell’ambito per i quali sono stati creati. Ciò può portare a output inaffidabili o fuorvianti, con rischi significativi in un contesto legale professionale. Pertanto, sarebbe consigliabile scegliere e applicare gli strumenti di IA in modo coerente con i contesti e gli usi per cui sono stati progettati, e conoscere e comprendere le loro limitazioni generali e specifiche.
Anche clienti e controparti potrebbero usare strumenti di IA generativa, ad esempio per affinare le proprie strategie o per produrre prove documentali. Questa eventualità apre la porta a un rischio concreto: l’uso di deepfake, cioè contenuti digitali – immagini, audio o video – creati o modificati in modo da sembrare autentici, ma che in realtà sono del tutto artefatti (imitando persone, oggetti, luoghi, enti o eventi reali). Diventa, quindi, indispensabile rivedere l'approccio alla prova (sin da quando si riceve un documento dal cliente e se ne valuta la possibile produzione in giudizio).