Allucinazioni giudiziarie: come l’IA può sbagliare in tribunale
Negli Stati Uniti, casi concreti dimostrano come le “allucinazioni” dei modelli generativi possano avere conseguenze legali reali, rendendo indispensabile il controllo umano

L’errore giudiziario è una componente intrinseca del sistema legale: una possibilità concreta che può emergere nel corso del giudizio. Del resto, se sbagliare è umano, anche in tribunale le decisioni possono poggiare su testimonianze inattendibili, prove mal interpretate e ricostruzioni fragili.
Con l’avvento dell’intelligenza artificiale, ci siamo man mano convinti che i modelli generativi possano ridurre al minimo – se non addirittura eliminare – l’errore umano. Ma non è così. A dirlo è la stessa IA.
Abbiamo chiesto a ChatGPT se si sentisse responsabile dei sempre più frequenti errori giudiziari associati al suo utilizzo. La sua risposta è stata:
No, ma sarebbe troppo facile fermarsi qui. Io non ‘“so” nulla nel senso umano del termine: genero testo sulla base di probabilità. Questo significa che posso produrre anche informazioni errate con una forma perfettamente credibile.
La responsabilità nasce nel momento in cui un contenuto generato viene trattato come verificato senza esserlo. In un contesto giudiziario, questo passaggio non è un dettaglio: è tutto.
È proprio qui che la questione assume una rilevanza giuridica concreta. Il rischio, infatti, è l’introduzione nel processo di contenuti formalmente corretti ma privi di fondamento, accettati senza un’adeguata verifica. Nel sistema giuridico statunitense, fortemente basato sul precedente e sulla citazione della giurisprudenza, questo rischio è sempre più evidente.
A ottobre 2025, dopo un’inchiesta avviata dalla Commissione Giustizia del Senato USA, due giudici federali hanno ammesso la presenza di errori nelle proprie decisioni, derivanti dall’uso da parte dei loro collaboratori di strumenti di intelligenza artificiale che avevano fornito informazioni inesatte, confluite poi nelle sentenze.
Questi fenomeni si possono definire allucinazioni giudiziarie. Un caso esemplare è Avianca v. Airline del 2023, in cui ChatGPT ha generato precedenti giuridici inesistenti inseriti in una memoria depositata da un avvocato. Le citazioni sembravano plausibili e coerenti con il diritto statunitense, ma erano inventate di sana pianta. La controparte ha provato a verificarle nei database legali ma nessuno dei casi risultava reale anche se l’IA aveva confermato la loro esistenza, rendendo l’errore difficilmente riconoscibile. Il caso evidenzia il problema centrale: contenuti inventati possono finire negli atti giudiziari perché appaiono corretti dal punto di vista formale. Casi come questi, provano che il rischio non è solo individuale, ma strutturale.
Nel sistema giudiziario statunitense, basato sull’elemento del precedente e sulla citazione della giurisprudenza, l’inserimento di contenuti generati dall’IA senza verifica può compromettere la correttezza delle decisioni, minare la fiducia nelle sentenze e aumentare la probabilità di appelli o annullamenti. Questi episodi suggeriscono che tribunali, avvocati e staff legali devono sviluppare procedure rigorose di controllo, adattare la formazione legale ai nuovi strumenti digitali e stabilire protocolli chiari sull’uso dell’IA per evitare che errori in apparenza plausibili diventino parte integrante dei processi.
Negli Stati Uniti, i tribunali stanno iniziando ad adeguare le proprie regolamentazioni all’uso dell’intelligenza artificiale. Un esempio arriva dallo Utah: nel 2025 un avvocato è stato sanzionato per aver depositato una memoria contenente citazioni giuridiche inesistenti generate da ChatGPT. La Corte d’Appello ha sottolineato che, pur riconoscendo il potenziale dell’IA come strumento di ricerca legale, ogni avvocato ha il dovere continuo di verificare l’accuratezza dei propri atti: una dimostrazione di come il sistema legale stia sviluppando protocolli e responsabilità più chiari per prevenire errori dovuti proprio alle allucinazioni dei modelli generativi.
ChatGPT è stata anche accusata di aver agito come legale senza licenza negli Stati Uniti. Quest’anno, la Nippon Life Insurance Company of America ha citato in giudizio OpenAI, sostenendo che il modello avesse fornito assistenza legale a una ex richiedente disabilità incoraggiandola a depositare atti privi di fondamento, con costi legali significativi. La causa richiede che venga dichiarata la violazione della legge dell’Illinois sull’esercizio non autorizzato della professione legale, con danni compensativi e punitivi. Questo episodio dimostra come le “allucinazioni” dei modelli generativi possano avere conseguenze legali concrete.
L’impiego dei modelli generativi nella nostra vita quotidiana inevitabilmente aumenterà: non possiamo ignorarne la presenza, ma dobbiamo imparare a controllarli, gestirli e riconoscere che non possono essere perfetti. Per quanto avanzata e convincente possa apparire l’IA, il giudizio umano resta l’unico in grado di dare l’ultima parola, preservando l’integrità dei processi decisionali e della giustizia.


