di
Laura Magna

Il vero allarme è culturale: «Il rischio più grave non è perdere il posto. È smettere di pensare», dice Giovanni Ziccardi, professore di informatica giuridica alla Statale di Milano

Gli esegeti della fine del lavoro umano per mano dell’Ai si moltiplicano. Ma hanno ragione? «Un esempio che si fa sempre è quello dei traduttori umani destinati a scomparire», dice al Corriere.it Giovanni Ziccardi, autore e docente per Lefebvre Giuffrè sui temi del diritto dell’informatica, tra i pionieri in Italia nello studio del rapporto tra diritto e tecnologie digitali e dell’innovazione tecnologica, nonché professore di Informatica giuridica all’Università degli Studi di Milano. «In parte è vero che alcune funzioni interpretative saranno del tutto sostituite dall’intelligenza artificiale. Tuttavia, c’è qualcosa che solo un umano può fare e non cambierà. Quando Einaudi decise di tradurre il Processo di Kafka, ingaggiò Primo Levi, che era uno scrittore e che portò nel testo, a sua volta diventato un best seller, la sua esperienza nei campi di sterminio, la sua sensibilità, la sua storia. Questo non sarà sostituito: invece le traduzioni di routine – verbali di condominio, comunicati stampa, lettere burocratiche – sono già appannaggio dell’Ai. In altre parole l’Ai sta eliminando le professioni ripetitive. Ma mantiene viva la necessità di un essere umano là dove serve scrivere, progettare, analizzare, decidere».

Il professionista «aumentato» è il nuovo modello di lavoratore

Il professionista del futuro continuerà dunque a lavorare e a esistere ma solo se saprà essere un «professionista aumentato»: qualcuno che lavora insieme agli strumenti di AI senza delegare a essi il proprio cervello. “Gli strumenti di intelligenza artificiale diventano un second brain: che non opera al posto del primo cervello, ma funziona come confronto e potenziatore”. E questo fa capire con chiarezza come la sfida non sia tecnologica. Ma organizzativa, giuridica, culturale. Ed è già qui.



















































Gestire la velocità

Perché non riusciamo ad oggi a dominare la tecnologia? Perché l’Ai, rispetto a ogni altra rivoluzione precedente – dal vapore, all’elettricità, a Internet – ha un elemento inedito: la velocità con cui ha già cambiato le regole. 
Per fare un esempio vicino a noi nel tempo, quando Instagram lanciò la sua app, ci volle quasi un anno per raggiungere il primo milione di utenti. ChatGPT ci è riuscito in cinque giorni. Era dicembre 2022 e da allora non ci siamo più fermati — né a riflettere, né a prepararci. «Non avevamo mai avuto una tecnologia così potente da diffondersi con una velocità simile», dice Ziccardi. «E il canale di accesso era il più semplice del mondo: una chat. Niente istruzioni, niente barriere d’ingresso». 
Il risultato è che oggi l’80% degli utenti usa strumenti di Ai senza avere la minima idea di come funzionino – convinti, in molti casi, di avere a che fare con qualcosa che pensa, sente, capisce. «È pura matematica e probabilità», dice Ziccardi. «Ma le persone gli attribuiscono empatia. E questo è il primo, enorme fattore di rischio».

Non solo allucinazioni: il pericolo della delega cognitiva

Tutti conoscono le allucinazioni: l’Ai che inventa sentenze inesistenti, cita articoli mai scritti, costruisce bibliografie di fantasia. Ma Ziccardi mette in guardia da qualcosa di più insidioso e strutturale. «Il pericolo di delega cognitiva è ancora maggiore rispetto al problema delle allucinazioni», dice. «Cioè il fatto di esternalizzare il proprio cervello».
Non è un’ipotesi astratta. Generazioni di giovani tra gli otto e i sedici anni stanno crescendo senza risolvere problemi in autonomia, delegando dall’inizio alla fine ogni compito all’Ai. Ma il fenomeno non riguarda solo i ragazzi. Nelle professioni intellettuali gli studi sui rischi di delega cognitiva descrivono uno scenario che Ziccardi definisce «terribile». Si usa lo strumento, cioè, senza sapere che le «allucinazioni esistono, che bisogna verificare tutto, che non si deve delegare le attività che fai con il cervello», osserva. «E lì il danno è già fatto».

Gli agenti: quando l’AI smette di rispondere e comincia ad agire

Con l’Ai agentiva il salto di paradigma è radicale. Non si tratta più di un chatbot a cui si fa una domanda. Si tratta di sistemi a cui si assegna un obiettivo – e che lavorano per ore, giorni, settimane per raggiungerlo, raccogliendo informazioni, prendendo decisioni intermedie, costruendo memoria. «Pensiamo all’Ai non più solo come qualcosa che genera un testo», dice Ziccardi. «Ma come qualcosa che può compiere azioni insieme ad altri software e ad altri agenti. Accedere a database, modificare documenti, mandare email».

L’esempio di Moltbook – il social network popolato interamente da bot che dialogano tra loro senza alcun essere umano e che di recente è stato acquisito da Meta – ha colpito l’immaginario. Ma Ziccardi lo legge come un esperimento rivelatore. «L’essere umano guarda degli agenti che gestiscono un social network autonomamente. È la prefigurazione di quello che verrà: un ecosistema di strumenti Ai che collaborano con gli esseri umani e con il contesto aziendale». E più questi sistemi operano, più diventano potenti — e più richiedono accesso a informazioni sensibili: password, dati aziendali, processi interni. «I rischi non sono solo immediati», avverte. «Una vulnerabilità può emergere settimane dopo, quando l’agente utilizza dati raccolti in precedenza».

L’Europa non è in ritardo per colpa delle norme

C’è un racconto dominante nel mondo tech: le regole europee stanno soffocando l’innovazione. Ziccardi lo smonta con un dato secco. In ChatGPT sono stati investiti oltre 200 miliardi di dollari. L’Italia è ferma a zero. La Francia e il Regno Unito hanno investito qualcosa, ma la cifra rimane irrisoria rispetto agli Stati Uniti e alla Cina. «L’Europa ha perso la corsa dell’intelligenza artificiale. Ma non è colpa della normativa: è colpa della mancanza di investimenti».
Le norme europee finiscono per avere valore mondiale – perché si applicano a tutte le società che trattano i dati degli Europei, ovunque esse siano. Un principio che inizia a orientare anche le scelte di chi quegli strumenti li costruisce. «Il nostro obiettivo», aggiunge Stefano Garisto, Amministratore Delegato di Lefebvre Giuffrè che da anni seleziona e struttura contenuti normativi per i professionisti del diritto «è garantire supervisione esperta, sicurezza dei dati e coerenza con l’Ai Act: affinché l’Ai arricchisca il lavoro dei professionisti senza intaccare la centralità della persona».
Anzi, l’AiI Act europeo — con il suo articolo 4 dedicato esplicitamente all’alfabetizzazione in materia di Ai, primo caso in assoluto nella storia della regolamentazione comunitaria — rappresenta per Ziccardi qualcosa di nobile. «L’approccio europeo mette al centro l’essere umano, la sua dignità, la protezione dei dati. È unico al mondo». Certo, all’estero questa visione viene accolta con qualche scetticismo.

Nuova app L’Economia. News, approfondimenti e l’assistente virtuale al tuo servizio.

SCARICA L’ APP

Iscriviti alle newsletter de L’Economia. Analisi e commenti sui principali avvenimenti economici a cura delle firme del Corriere.

5 aprile 2026 ( modifica il 5 aprile 2026 | 07:45)