La sentenza n. 01895/2026 della Sezione Terza Bis del TAR Lazio rappresenta una pronuncia importante nel diritto amministrativo dell’era digitale.
In un’epoca in cui la Pubblica Amministrazione affida sempre più spesso la gestione di procedure complesse (come i concorsi PNRR) ad algoritmi e piattaforme telematiche, i giudici romani ribadiscono un principio giuridico non negoziabile: il sistema informatico deve essere un supporto all’azione amministrativa, non il decisore.
La decisione, pur riguardando un concorso pubblico, afferma principi trasversali applicabili anche al settore dei contratti pubblici.
Indice
Il caso
La vicenda riguarda un candidato al concorso docenti per la classe di concorso “A001 – Arte e Immagine”. L’aspirante docente, pur avendo correttamente dichiarato i propri anni di servizio (ottenendo il relativo punteggio), ha omesso di barrare la specifica casella per richiedere la riserva dei posti del 30% destinata ai riservisti ultratriennali.
L’algoritmo ministeriale, programmato per una lettura binaria e rigida del modulo, ha ignorato il diritto del candidato, escludendolo dalla quota riservata e, di fatto, dalla possibilità di stabilizzazione. L’Amministrazione si è difesa invocando il principio di autoresponsabilità: il candidato deve compilare correttamente la domanda; se sbaglia, il “sistema” non può correggere l’errore.
La decisione: la “riserva di umanità” e il controllo sull’algoritmo
Il TAR Lazio ribalta questa impostazione con l’affermazione della “riserva di umanità” (human oversight). I giudici chiariscono che l’algoritmo non è un’entità autonoma, ma un atto amministrativo informatico.
“L’algoritmo, ove utilizzato dall’Amministrazione […] non può tradursi in una delega integrale del potere decisionale a un sistema automatico, soprattutto nei procedimenti caratterizzati da profili valutativi o discrezionali.”
Secondo il Collegio, se l’Amministrazione è già in possesso dei dati (perché inseriti in altre sezioni del modulo), non può trincerarsi dietro la rigidità del software. La supervisione umana deve intervenire per correggere i formalismi che contrastano con la realtà documentale.
L’effetto anticipatorio dell’AI Act europeo
Un passaggio decisino della sentenza riguarda l’invocazione del Regolamento (UE) 2024/1689 (AI Act). Sebbene tale normativa non sia ancora pienamente efficace nelle sue sanzioni, il TAR Lazio le riconosce un effetto interpretativo anticipatorio.
Poiché l’AI Act qualifica i sistemi utilizzati per l’accesso a impieghi pubblici come “ad alto rischio”, l’obbligo di supervisione umana (art. 14 del Regolamento) diventa un parametro per valutare la legittimità dell’azione amministrativa già oggi.
“Il Regolamento (UE) 2024/1689 […] assume rilevanza quale fonte di indirizzo interpretativo […] impone, quale requisito strutturale, l’esistenza di una supervisione umana effettiva, idonea a consentire il controllo, l’intervento e la correzione del funzionamento del sistema.”
Il superamento dell’autoresponsabilità assoluta
La sentenza chiarisce che il principio di autoresponsabilità del privato non è un dogma assoluto. Nelle procedure pubbliche, l’Amministrazione deve perseguire il buon andamento (Art. 97 Cost.) e la verità sostanziale.
Se un titolo è presente negli atti, anche se indicato in una “parte erronea del modulo”, l’Amministrazione ha l’obbligo di valutarlo. Ignorare un diritto evidente solo perché “la macchina non l’ha letto” configura un eccesso di potere per irragionevolezza.
Conclusioni: verso un’amministrazione “algoritmico-umana”
Il ricorrente, grazie a questa sentenza, rientra in gioco: il suo servizio conta più della sua distrazione digitale.
La pronuncia del Tar Lazio afferma un principio pienamente applicabile anche al settore dei contratti pubblici. Come noto, l’art. 30 del DLgs. 36/2023 stabilisce al comma 3: “Le decisioni assunte mediante automazione rispettano i principi di:
a) conoscibilità e comprensibilità, per cui ogni operatore economico ha diritto a conoscere l’esistenza di processi decisionali automatizzati che lo riguardino e, in tal caso, a ricevere informazioni significative sulla logica utilizzata;
b) non esclusività della decisione algoritmica, per cui comunque esiste nel processo decisionale un contributo umano capace di controllare, validare ovvero smentire la decisione automatizzata;
c) non discriminazione algoritmica, per cui il titolare mette in atto misure tecniche e organizzative adeguate al fine di impedire effetti discriminatori nei confronti degli operatori economici”.
E, ancora, al comma 4: “Le stazioni appaltanti e gli enti concedenti adottano ogni misura tecnica e organizzativa atta a garantire che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori…”.
La sentenza afferma, in ultima analisi, come l’informatizzazione non possa diventare uno scudo per l’inerzia e la superficialità. La tecnologia deve servire a velocizzare i processi, ma l’ultima parola deve restare all’intelligenza umana, capace di discernere il valore della sostanza dall’errore formale di un “clic”.
Appalti pubblici e Intelligenza artificiale
Disciplina, giurisprudenza e laboratorio interattivo
26 Feb 2026 ore 9.00 – 13.00 e 14.00 – 16.00ROMA – Best Western Premier Hotel Royal Santina, Via Marsala 22, 00185
Scrivi un commento
Accedi per poter inserire un commento