IA in Tribunale: quando l’Avvocato cita sentenze “allucinate”. Il TAR Lombardia richiama alla responsabilità professionale

Una recente sentenza del TAR Lombardia (Sez. V, 21.10.2025 n. 3348), pur decidendo nel merito una controversia relativa alla non ammissione di una studentessa alla classe successiva, ha acceso un faro su una questione sempre più attuale e delicata: l’uso dell’Intelligenza Artificiale (IA) nella pratica forense e la responsabilità dell’avvocato per gli output generati da tali strumenti

Alessandro Massari 31 Ottobre 2025
Modifica zoom
100%

Una recente sentenza del TAR Lombardia (Sez. V, 21.10.2025 n. 3348), pur decidendo nel merito una controversia relativa alla non ammissione di una studentessa alla classe successiva, ha acceso un faro su una questione sempre più attuale e delicata: l’uso dell’Intelligenza Artificiale (IA) nella pratica forense e la responsabilità dell’avvocato per gli output generati da tali strumenti.

Indice

Banner Appalti Pubblici e Intelligenza Artificiale 1200

Il fatto: citazioni giurisprudenziali fuori contesto

Nel corso del giudizio, il difensore della parte ricorrente aveva inserito nel proprio atto numerose citazioni di sentenze, apparentemente a sostegno delle proprie tesi sull’illegittimità della bocciatura.
Tuttavia, come rilevato dal Collegio e poi ammesso dallo stesso legale, tali precedenti giurisprudenziali si sono rivelati palesemente inconferenti rispetto ai motivi dedotti, riguardando materie del tutto estranee (urbanistica, condono edilizio, gestione di centri accoglienza, pubblico impiego).

Messo di fronte all’evidenza in udienza, l’avvocato ha fornito una spiegazione tanto inedita quanto emblematica dei tempi: aveva utilizzato strumenti di ricerca basati sull’intelligenza artificiale che avevano generato risultati errati, le ormai note “allucinazioni da IA”, ovvero informazioni inventate ma plausibili nel contesto.

La posizione del TAR: l’IA è uno strumento, la responsabilità resta umana

Il T.A.R. Lombardia, pur respingendo il ricorso nel merito, ha dedicato una parte significativa della motivazione a censurare la condotta del difensore, stabilendo principi chiari sull’uso dell’IA in ambito legale:

1. Nessuna esimente: l’aver utilizzato uno strumento di IA che ha prodotto risultati errati non costituisce una circostanza scusabile. La responsabilità per il contenuto degli atti processuali ricade interamente sull’avvocato che li sottoscrive.

2. Responsabilità personale e non Delegabile: la sottoscrizione dell’atto attribuisce la paternità e la responsabilità degli scritti difensivi al legale, “indipendentemente dalla circostanza che questi li abbia redatti personalmente o avvalendosi dell’attività di propri collaboratori o di strumenti di intelligenza artificiale”.

3. Obbligo di verifica e controllo (“Centralità della decisione umana”): il difensore ha un preciso onere di verifica e controllo critico sull’esito delle ricerche effettuate con sistemi di IA. Questi strumenti sono fonti potenziali di errori (“allucinazioni”) e il loro output non può essere recepito acriticamente. Viene richiamato il principio della “centralità della decisione umana”.

4. Violazione dei doveri deontologici: citare giurisprudenza errata o inconferente, anche se per colpa di un’IA non supervisionata, costituisce una violazione dei doveri di lealtà e probità (art. 88 c.p.c.), poiché introduce elementi fuorvianti nel contraddittorio e aggrava inutilmente il lavoro del giudice e delle controparti.

5. Possibili conseguenze disciplinari: proprio per la gravità della condotta, il Tribunale ha disposto la trasmissione della sentenza all’Ordine degli Avvocati di Milano per le valutazioni di competenza in sede disciplinare.

Conclusioni

La pronuncia del T.A.R. Lombardia, pur incidentale rispetto all’oggetto principale del giudizio, assume un valore paradigmatico. Rappresenta uno dei primi interventi giurisprudenziali italiani che affronta direttamente le implicazioni deontologiche e processuali dell’uso (scorretto) dell’IA da parte degli avvocati.

Il messaggio è inequivocabile: l’intelligenza artificiale può essere uno strumento di supporto prezioso, capace di velocizzare ricerche e analisi, ma non può sostituire il vaglio critico, la competenza e la responsabilità del professionista. L’affidamento cieco agli algoritmi, senza un’adeguata verifica umana, non solo espone a errori potenzialmente dannosi per l’esito della causa, ma configura anche una negligenza professionale suscettibile di sanzioni.

Questo caso sottolinea l’urgenza per la professione forense di sviluppare non solo competenze nell’uso delle nuove tecnologie, ma anche, e soprattutto, una metodologia critica per valutarne l’affidabilità e integrarle eticamente nella pratica quotidiana. La “centralità della decisione umana”, richiamata dal T.A.R., deve rimanere il faro che guida l’avvocato nell’era digitale.

Scrivi un commento

Accedi per poter inserire un commento