Un
ricorso per un incidente stradale mortale, un avvocato che decide di allegare agli atti una
chat con ChatGPT come se fosse documentazione legale: è questo lo scenario che ha portato il
Tribunale di Ferrara a emanare l'
ordinanza 20/02/2026. Il
giudice ha respinto l'atto senza mezzi termini, stabilendo che
l'output di un chatbot non costituisce mai una prova, nemmeno in forma indiziaria, se a monte manca una supervisione umana rigorosa e una verifica puntuale delle fonti. La tecnologia, per quanto sofisticata, non può rimpiazzare il ragionamento critico del
professionista. Chi affida a una macchina il lavoro di ricerca e costruzione giuridica commette una grave
negligenza professionale, con tutte le conseguenze del caso.
Il documento dimezzato: perché manca la metà più importante
Il primo vizio rilevato dal giudice riguarda l'incompletezza strutturale del materiale depositato. L'avvocato aveva presentato soltanto le risposte dell'intelligenza artificiale, omettendo i cosiddetti prompt, ovvero le domande specifiche con cui aveva interrogato il sistema. Si tratta di un'omissione tutt'altro che marginale: senza conoscere la domanda, la risposta è priva di qualsiasi contesto interpretabile.
Un
software come ChatGPT modifica radicalmente i propri
output in base a come viene formulata la richiesta. Chiedere genericamente chi abbia torto in un
sinistro con nebbia produce un risultato molto diverso dall'interrogare il sistema su come dimostrare la responsabilità di un gestore autostradale. In quest'ultimo caso, la macchina elaborerà una risposta orientata a confermare la tesi suggerita dalla domanda, non a valutarla in modo imparziale. Presentare al giudice solo la risposta, senza il quesito originario, equivale a citare una frase estrapolata dal suo contesto: un'operazione che il diritto non ammette, perché priva di qualsiasi attendibilità oggettiva.
Il pericolo delle sentenze inventate
Esiste un secondo problema, ancora più insidioso, legato alla natura tecnica degli strumenti di intelligenza artificiale generativa: la tendenza a produrre
informazioni verosimili ma completamente false, fenomeno noto come "allucinazioni". Nel caso esaminato a Ferrara, il
software aveva citato sentenze della
Corte di Cassazione che, una volta verificate nelle banche dati ufficiali, si sono rivelate inesistenti o riferite a tutt'altre materie.
Il giudice ha descritto senza giri di parole come il sistema avesse costruito un'architettura giuridica fasulla. Non si tratta di un caso isolato: altri tribunali hanno già documentato come l'intelligenza artificiale possa inventare precedenti e poi confermarli come veritieri anche in seguito a una seconda interrogazione (Tribunale Firenze, ordinanza 14/03/2025).
La macchina non è in grado di distinguere tra una sentenza effettivamente emessa e una plausibile sequenza di parole che imita il linguaggio giuridico. Delegare la ricerca dei precedenti a un algoritmo, senza consultare i massimari o le fonti ufficiali, rappresenta una violazione diretta dei doveri di diligenza professionale.
Trasparenza e responsabilità: gli obblighi che l'avvocato non può ignorare
L'ordinanza ferrarese non si limita a censurare un errore tecnico: tocca un tema più profondo, quello della trasparenza verso il cliente. La Legge n. 132/2025 impone al professionista di informare esplicitamente il proprio assistito qualora intenda avvalersi di sistemi di intelligenza artificiale nell'ambito dell'attività di consulenza legale. In questo caso, quella comunicazione era del tutto assente nell'atto di procura.
Il giudice ha richiamato anche il principio di supervisione umana sancito a livello europeo (Reg. UE n. 2024/1689), secondo cui il professionista deve mantenere il controllo finale su ogni atto prodotto con il supporto dell'IA. Le conseguenze concrete di questa negligenza sono state immediate: il ricorso è stato dichiarato inammissibile e il ricorrente è stato condannato al pagamento delle spese di lite, per un totale superiore a 1.700 euro.
Ma il quadro sanzionatorio può farsi ancora più pesante. Quando la
scarsa qualità degli scritti difensivi e l'
assenza di pertinenza degli argomenti rivelano che l'intero lavoro è stato delegato a un
software senza alcuna revisione critica, i tribunali applicano la condanna per lite temeraria, prevista dall'
art. 96 del c.p.c. per i casi in cui la difesa risulti palesemente infondata o gestita con colpa grave
(Tribunale di Latina, sentenza n. 1034/2025).
Il messaggio che emerge dalla giurisprudenza più recente è univoco: i chatbot restano strumenti al servizio delle persone, non sostituti del pensiero giuridico. La responsabilità di ogni parola depositata in giudizio è - e resta sempre - in capo all'essere umano.