{"id":265970,"date":"2025-12-18T03:38:24","date_gmt":"2025-12-18T03:38:24","guid":{"rendered":"https:\/\/www.europesays.com\/it\/265970\/"},"modified":"2025-12-18T03:38:24","modified_gmt":"2025-12-18T03:38:24","slug":"se-un-algoritmo-decide-se-lavoriamo-bene-o-dobbiamo-essere-licenziati","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/it\/265970\/","title":{"rendered":"Se un algoritmo decide se lavoriamo bene o dobbiamo essere licenziati"},"content":{"rendered":"<p>Il Parlamento europeo vuole una stretta sull&#8217;uso di algoritmi e intelligenza artificiale nei luoghi di lavoro, per evitare che assunzioni, licenziamenti, valutazioni o sanzioni disciplinari siano decisi da sistemi automatizzati senza un controllo umano effettivo.\u00a0<\/p>\n<p>Con il diffondersi delle nuove tecnologie, il rischio del controllo stile Grande fratello digitale si fa sempre pi\u00f9 forte, e gi\u00e0 in passato sono emersi diversi casi che hanno fatto discutere non poco.<\/p>\n<p>I casi pi\u00f9 eclatanti<\/p>\n<p>Un caso simbolo riguarda Amazon in Francia, dove lo scorso anno l&#8217;autorit\u00e0 garante ha inflitto una maxi sanzione da 32 milioni di euro all&#8217;azienda, che ha fatto ricorso, per pratiche di monitoraggio nei magazzini ritenute in violazione del diritti dei lavoratori, monitoraggio che avveniva anche attraverso indicatori che misuravano in modo estremamente granulare i ritmi e le prestazioni dei lavoratori.<\/p>\n<p>La Commission Nationale de l&#8217;Informatique et des Libert\u00e9s (Cnil) ha puntato il dito contro il controllo automatizzato che veniva fatto sull&#8217;uso degli scanner dei pacchi. IN particolare tre pratiche sono state dihciarate illegali dalla Commissione: lo &#8220;Stow Machine Gun&#8221; che registra il dipendente che scansione un articolo in meno di 1,25 secondi dopo la scansione dell\u2019articolo precedente, l&#8217;indicatore &#8220;Tempo di inattivit\u00e0&#8221; che segnala quando un dipendente non ha scansionato nulla per dieci minuti o pi\u00f9 e l\u2019indicatore &#8220;Latenza inferiore a dieci minuti&#8221; segnala quando non si scansiona nulla per un tempo compreso tra uno e dieci minuti.\u00a0<\/p>\n<p>Nel 2021 invece, in Italia un tribunale ha ritenuto discriminatorio il sistema di ranking usato da Deliveroo per assegnare le sessioni di lavoro, perch\u00e9 per i giudici finiva per penalizzare indiscriminatamente anche chi si assentava per motivi legittimi (come malattia o sciopero), aprendo un precedente spesso citato nel dibattito europeo sulla gestione algoritmica.<\/p>\n<p>Approccio incentrato sulla persona<\/p>\n<p>In una relazione di iniziativa legislativa approvata a larga maggioranza (451 voti a favore, 45 contrari e 153 astensioni), gli eurodeputati invitano la Commissione a presentare una nuova proposta normativa che estenda a tutti i lavoratori europei le garanzie gi\u00e0 previste per chi opera sulle piattaforme digitali.<\/p>\n<p>&#8220;Questo tema riguarda sia i datori di lavoro sia 200 milioni di lavoratori nell&#8217;Ue. Un approccio incentrato sulla persona \u00e8 fondamentale e i diritti, la sicurezza e la dignit\u00e0 di datori di lavoro e lavoratori devono essere rigorosamente rispettati&#8221;, ha dichiarato il relatore del testo, il popolare polacco Andrzej Bu\u0142a, secondo cui &#8220;si tratta di un segnale forte: l&#8217;Europa pu\u00f2 coniugare competitivit\u00e0 e responsabilit\u00e0 sociale. Pu\u00f2 sostenere le imprese innovative senza sacrificare standard elevati e la tutela dei lavoratori&#8221;.<\/p>\n<p>Nel testo, l&#8217;Eurocamera sottolinea che la trasformazione digitale del lavoro deve essere guidata da un principio chiaro: le nuove tecnologie devono essere utilizzate &#8220;con l&#8217;obiettivo generale di servire le persone&#8221;, seguendo un approccio &#8220;incentrato sull&#8217;essere umano&#8221;, fondato su etica, precauzione e controllo umano effettivo.<\/p>\n<p><strong>Niente lavoro &#8220;deciso da una macchina&#8221;<\/strong><\/p>\n<p>Il principio cardine della risoluzione \u00e8 che la gestione algoritmica non pu\u00f2 sostituire la responsabilit\u00e0 umana. Il Parlamento afferma che il controllo umano non deve essere &#8220;un esercizio meramente formale&#8221;, ma una garanzia concreta per &#8220;verificare, spiegare e correggere le decisioni prese dall&#8217;intelligenza artificiale&#8221; che incidono sulla vita professionale dei lavoratori.<\/p>\n<p>Per questo, la relazione stabilisce che le decisioni che incidono sugli aspetti essenziali del rapporto di lavoro, dall&#8217;assunzione alla cessazione, dal rinnovo contrattuale alle variazioni retributive o alle sanzioni disciplinari, &#8220;devono sempre essere prese da una persona ed essere soggette a revisione umana&#8221;. Gli algoritmi possono supportare, ma non sostituire, la decisione finale.<\/p>\n<p>Diritto di sapere come funziona l&#8217;algoritmo<\/p>\n<p>La trasparenza \u00e8 uno dei pilastri della proposta. Secondo il Parlamento, i lavoratori devono sapere se e come vengono utilizzati sistemi di gestione algoritmica nel loro luogo di lavoro. La risoluzione chiede che i datori di lavoro forniscano informazioni chiare e accessibili sull&#8217;uso di questi sistemi, sul loro impatto sulle condizioni di lavoro e sui dati trattati.<\/p>\n<p>Nel testo si legge che le informazioni devono permettere ai lavoratori di &#8220;comprendere come i sistemi algoritmici influenzano le decisioni che li riguardano e di esercitare i propri diritti&#8221;. I dipendenti devono inoltre poter chiedere spiegazioni e ottenere una revisione delle decisioni automatizzate che li riguardano.<\/p>\n<p>Privacy: linee rosse invalicabili<\/p>\n<p>Sul fronte della protezione dei dati personali, la risoluzione fissa paletti molto chiari. Il Parlamento chiede di vietare la raccolta e il trattamento di informazioni particolarmente sensibili, come dati sullo stato emotivo, psicologico o neurologico dei lavoratori, sulle comunicazioni private o sulla geolocalizzazione al di fuori dell&#8217;orario di lavoro.<\/p>\n<p>La relazione parla esplicitamente di pratiche che non devono essere ammesse, come l&#8217;uso dei dati &#8220;al di fuori dell&#8217;orario di lavoro, quando il lavoratore non offre n\u00e9 svolge prestazioni lavorative o si trova in spazi privati&#8221;, o il trattamento di informazioni volte a prevedere l&#8217;esercizio di diritti fondamentali, dalla libert\u00e0 di associazione alla contrattazione collettiva.<\/p>\n<p>Salute, sicurezza e carico di lavoro<\/p>\n<p>Il Parlamento lega strettamente la gestione algoritmica alla tutela della salute e della sicurezza. La risoluzione avverte che questi sistemi possono aumentare pressione, intensit\u00e0 del lavoro e rischi psicosociali, portando a stress, burnout e perdita di autonomia. Per questo chiede che l&#8217;introduzione o la modifica significativa di sistemi algoritmici sia sempre accompagnata da una valutazione dei rischi per la salute fisica e mentale dei lavoratori.<\/p>\n<p>Nel testo si sottolinea che l&#8217;intelligenza artificiale deve essere usata come &#8220;uno strumento di supporto con un reale valore aggiunto per i lavoratori&#8221; e non come uno strumento di sorveglianza invasiva o di intensificazione incontrollata del lavoro.<\/p>\n<p>Tutele oltre le piattaforme digitali<\/p>\n<p>La risoluzione riconosce che l&#8217;Ue dispone gi\u00e0 di un quadro normativo su intelligenza artificiale e protezione dei dati, dal regolamento sull&#8217;IA al Gdpr, e che la direttiva sul lavoro tramite piattaforme digitali ha introdotto regole importanti sulla gestione algoritmica. Tuttavia, il Parlamento avverte che queste tutele &#8220;si applicano solo alle persone che svolgono lavoro tramite piattaforme&#8221;, mentre l&#8217;uso degli algoritmi si sta estendendo a tutto il mercato del lavoro.<\/p>\n<p>Per questo, gli eurodeputati chiedono di garantire &#8220;pari trattamento a tutti i lavoratori&#8221; e di colmare le lacune che lasciano milioni di dipendenti meno protetti rispetto a pratiche automatizzate opache o discriminatorie.<\/p>\n<p>Palla alla Commissione<\/p>\n<p>Trattandosi di una relazione di iniziativa legislativa, ora spetta alla Commissione europea rispondere alla richiesta del Parlamento. In base ai Trattati, l&#8217;esecutivo Ue ha tre mesi per indicare le misure che intende adottare o spiegare le ragioni di un eventuale rifiuto.<\/p>\n","protected":false},"excerpt":{"rendered":"Il Parlamento europeo vuole una stretta sull&#8217;uso di algoritmi e intelligenza artificiale nei luoghi di lavoro, per evitare&hellip;\n","protected":false},"author":3,"featured_media":265971,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[6],"tags":[8075,14,8,668,1537,90,89,7,15,82,9,83,10,107871,13,11,80,84,12,81,85],"class_list":{"0":"post-265970","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-ultime-notizie","8":"tag-algoritmo","9":"tag-cronaca","10":"tag-headlines","11":"tag-intelligenza-artificiale","12":"tag-it","13":"tag-italia","14":"tag-italy","15":"tag-news","16":"tag-notizie","17":"tag-notizie-di-cronaca","18":"tag-notizie-principali","19":"tag-notiziedicronaca","20":"tag-notizieprincipali","21":"tag-parlamento-ue","22":"tag-titoli","23":"tag-ultime-notizie","24":"tag-ultime-notizie-di-cronaca","25":"tag-ultime-notizie-e-news-di-oggi","26":"tag-ultimenotizie","27":"tag-ultimenotiziedicronaca","28":"tag-ultimenotizieenewsdioggi"},"share_on_mastodon":{"url":"https:\/\/pubeurope.com\/@it\/115738489881116783","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/265970","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/comments?post=265970"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/265970\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media\/265971"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media?parent=265970"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/categories?post=265970"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/tags?post=265970"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}