di
Massimiliano Jattoni Dall’Asén

Nella bozza del nuovo contrato dei dipendenti pubblici, l’AI entra per supportare valutazioni, organizzazione del lavoro e orari. Stop però alle decisioni automatiche

C’è una differenza decisiva tra usare la tecnologia come strumento e trasformarla in un alibi. Nel nuovo contratto degli statali quella differenza viene fissata nero su bianco: l’intelligenza artificiale può entrare nei processi della pubblica amministrazione, ma non può sostituire chi decide. Può supportare, non comandare. Può suggerire, non firmare.

È questa la scelta che emerge dalla bozza contrattuale che Aran, l’organismo tecnico che rappresenta tutte le Pa nelle trattative per i contratti collettivi di lavoro, e i sindacati si apprestano a discutere (l’appuntamento è per il 20 gennaio). Si tratta di una prima assoluta per i 3,6 milioni di dipendenti pubblici italiani, che prende atto di una realtà ormai imminente. Gli algoritmi non sono più una proiezione futura, ma strumenti che le amministrazioni stanno già valutando per organizzare il lavoro, gestire i carichi, orientare le valutazioni. Regolarli ora significa evitare che entrino domani senza regole.



















































​L’AI diventa materia di contrattazione

Il primo segnale è di metodo, ma non è secondario. Le amministrazioni che intendono introdurre sistemi di intelligenza artificiale dovranno informare preventivamente i sindacati. È il riconoscimento implicito che l’uso degli algoritmi non è una scelta tecnica neutra, ma un intervento che incide sul rapporto di lavoro, al pari di un nuovo orario o di una riorganizzazione degli uffici.

In altre parole, l’AI non viene trattata come un software qualunque, ma come un fattore organizzativo che entra a pieno titolo nel perimetro delle relazioni sindacali.

​Niente automatismi decisionali

Il cuore della bozza è però un altro: il divieto di decisioni esclusivamente automatizzate quando sono in gioco effetti giuridici o professionali rilevanti. Gli algoritmi possono analizzare dati, individuare schemi, segnalare scostamenti. Ma la decisione finale deve passare da una persona. E di quella decisione qualcuno deve rispondere.

È un principio che sembra ovvio, ma che arriva in un momento storico in cui la tentazione di rifugiarsi dietro il «lo dice il sistema« è tutt’altro che teorica. Qui, invece, la responsabilità resta saldamente ancorata al dirigente: l’AI supporta, l’uomo decide.

​Il nodo delle valutazioni

Il terreno più sensibile è quello delle valutazioni individuali. Da anni la pubblica amministrazione fatica a distinguere davvero tra prestazioni diverse, oscillando tra automatismi e uniformità. L’idea che strumenti di analisi avanzata possano contribuire a maggiore coerenza e comparabilità non è priva di fondamento.

Ma è proprio qui che si annida il rischio più sottile: scambiare l’apparente oggettività del dato per equità. Ogni algoritmo riflette criteri, pesi, priorità decise a monte. Per questo il contratto introduce un diritto nuovo e significativo: il lavoratore deve poter conoscere, in forma comprensibile, i criteri generali di funzionamento dei sistemi che incidono sul suo lavoro. Non il codice, ma la logica. Non la formula, ma le regole del gioco.

​Il problema che viene da lontano

Il tema non è nuovo. Da anni le valutazioni nel pubblico impiego faticano a produrre vere differenziazioni, alimentando un sistema in cui il riconoscimento del merito tende ad appiattirsi e a distribuirsi in modo uniforme. Proprio per correggere questa distorsione, negli ultimi interventi normativi si è cercato di porre un argine ai cosiddetti premi «a pioggia», introducendo un limite alla quota di valutazioni massime attribuibili. In questo quadro, l’intelligenza artificiale viene guardata come possibile strumento di supporto: non per assegnare automaticamente premi o giudizi, ma per rendere meno arbitrario – e più difendibile – il percorso che conduce a quelle decisioni.

​Trasparenza come argine

La trasparenza diventa così un argine all’opacità tecnologica. Non un freno all’innovazione, ma una condizione perché l’innovazione non si trasformi in un automatismo amministrativo difficilmente contestabile. Se l’algoritmo entra nel rapporto di lavoro, deve essere leggibile almeno nei suoi presupposti essenziali.

È un passaggio che sposta il baricentro: dalla fiducia cieca nella tecnologia alla responsabilità consapevole di chi la utilizza.

​La domanda che resta aperta

Resta però una questione che il testo contrattuale può solo sfiorare: i dirigenti sono pronti a esercitare davvero questa responsabilità? Perché mantenere l’ultima parola non è solo una garanzia formale, è anche un onere concreto. Significa capire cosa suggerisce l’algoritmo, quando seguirlo e quando discostarsene.

Da qui l’ultimo pilastro previsto dalla bozza: la formazione. Non come accessorio, ma come condizione necessaria affinché la tecnologia resti uno strumento e non diventi un automatismo travestito da modernità

Chiedi agli esperti

17 gennaio 2026