{"id":150970,"date":"2025-10-07T04:57:10","date_gmt":"2025-10-07T04:57:10","guid":{"rendered":"https:\/\/www.europesays.com\/it\/150970\/"},"modified":"2025-10-07T04:57:10","modified_gmt":"2025-10-07T04:57:10","slug":"chat-control-al-voto-cosa-ce-nel-regolamento-che-minaccia-la-privacy-degli-europei","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/it\/150970\/","title":{"rendered":"Chat Control al voto: cosa c\u2019\u00e8 nel Regolamento che minaccia la privacy degli europei"},"content":{"rendered":"<p>La settimana prossima, il 14 di ottobre, i ministri degli Stati membri riuniti nel Consiglio dell\u2019UE dovranno votare il regolamento europeo per prevenire e combattere l\u2019abuso sessuale su minori online (CSAR), passato ormai alla cronaca come \u201cChat Control\u201d. Nel momento in cui scriviamo otto Stati membri sono contrari, dodici sono favorevoli e sette, tra i quali anche l\u2019Italia, indecisi.<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Il Parlamento ha gi\u00e0 esaminato la proposta della Commissione, ha discusso il testo nelle commissioni competenti e ha proposto alcuni emendamenti, <b>respingendo la possibilit\u00e0 che vengano effettuate scansioni di tutte le comunicazioni private.<\/b> Questo \u00e8 importante, perch\u00e9 poco pi\u00f9 sotto vedremo a che punto siamo arrivati con la proposta attuale e come \u00e8 stata modificata proprio per evitare una sorveglianza indiscriminata. Restano comunque un gran numero di rischi.<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Se il Consiglio approver\u00e0 il Regolamento, si entrer\u00e0 nella fase dei triloghi, ovvero negoziazioni tra Parlamento, Consiglio e Commissione per trovare un testo comune da approvare definitivamente. Il testo dovr\u00e0 poi essere approvato da entrambi, formalmente, con un voto finale e solo dopo questo passaggio il CSAR diventer\u00e0 un regolamento UE vincolante e direttamente applicabile in tutti gli Stati membri.<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Insomma, c\u2019\u00e8 ancora molta strada da fare, ma \u00e8 importante capire per cosa si sta votando e perch\u00e9 da mesi si \u00e8 sollevata una protesta collettiva contro questo regolamento che, secondo attivisti ed esperti di privacy,\u00a0<b>rischia di trasformarsi in uno strumento di sorveglianza di massa<\/b>. Cercheremo di essere asettici: quello che leggerete qui sotto \u00e8 solo ed esclusivamente quello che prevede il regolamento allo stato attuale, affiancato da alcune interpretazioni date dagli esperti che per\u00f2 non sono esplicitamente previste.\u00a0<\/p>\n<p>&#13;<br \/>\nCos&#8217;\u00e8 il\u00a0CSAR, Child Sexual Abuse Regulament&#13;<\/p>\n<p>Il CSAR, Child Sexual Abuse Regulament, \u00e8 una proposta di regolamento UE risalente all\u201911 maggio 2022 che introduce alcuni obblighi per provider e piattaforme di messaggistica. Questi ultimi, su ordine preciso, saranno obbligati ad implementare soluzioni tecnologiche che permettano di rilevare lo scambio di materiale vietato, sia che si tratti di materiale gi\u00e0 noto o di un nuovo di abuso su minori. Dovranno intervenire anche in caso di possibile adescamento, e dovranno bloccare o cancellare le conversazioni e i canali dove questi scambi di materiale hanno luogo. <\/p>\n<p>Il regolamento prevede la creazione di un EU Centre (EUCSA) che rappresenta l&#8217;unit\u00e0 centrale, il centro-stella: gestisce le banche dati contenenti le tracce di tutto il materiale pedopornografico noto, fornisce le tecnologie a piattaforme e provider e coordina e inoltra le segnalazioni all\u2019Europol. <\/p>\n<p>In poche parole le persone che inviano tramite le app di messaggistica materiale illecito (foto e video) devono essere identificati da provider e piattaforme tramite analisi dei loro messaggi, segnalate all\u2019EUCSA questa unit\u00e0 europea, previa verifica di segnalazione corretta, girer\u00e0 le informazioni all\u2019Europol, quindi alle forze dell\u2019Ordine, per agire.\u00a0<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Il CSAR, che chiameremo da adesso in poi Chat Control, impatta su provider che fanno hosting di contenuti e su quelli che vengono definiti servizi di comunicazione interpersonale, che non solo solo <b>piattaforme di chat ma anche email<\/b>. Non solo: si applica anche a quelli che vengono definiti servizi accessori, quindi la funzionalit\u00e0 di chat dentro altri servizi (videogiochi) e i commenti all\u2019interno di piattaforme di sharing di immagini e foto, come ad esempio i commenti su Instagram e YouTube.<\/p>\n<p>&#13;<\/p>\n<p>Ci sono obblighi, anche se minori, per gli store di applicazioni: dovranno valutare il rischio di adescamento nelle app presenti e, se c\u2019\u00e8 rischio significativo, impedire l\u2019accesso a queste app ai minori mediante verifica o valutazione et\u00e0 e con altre misure ragionevoli.\u00a0<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Per controllare che tutto funzioni come previsto <b>ogni Stato membro dovr\u00e0 istituire un&#8217;Autorit\u00e0 coordinatrice<\/b>: a questa autorit\u00e0 spetter\u00e0 il compito di ordinare (passando da una autorit\u00e0 giudiziaria) ad una specifica piattaforma di hosting o ad un sistema di messaggistica di iniziare ad effettuare il controllo delle comunicazioni e dovr\u00e0 controllare che questo venga fatto.<\/p>\n<p>&#13;<br \/>\n&#13;<br \/>\nCosa succede all&#8217;atto pratico&#13;<br \/>\n&#13;<\/p>\n<p>Chat Control non agisce indiscriminatamente su tutte le piattaforme e su tutti i servizi di hosting: l\u2019Autorit\u00e0 coordinatrice deve chiedere a un\u2019autorit\u00e0 giudiziaria o indipendente di emettere un \u201cdetection order\u201d <b>verso un servizio specifico tra quelli che rientrano nel perimetro<\/b> e pu\u00f2 farlo solo se ci sono evidenze che le varie misure prese da quella piattaforma non sono sufficienti a combattere la pedopornografia. Serve qualcosa di pi\u00f9, e quel qualcosa \u00e8 l\u2019integrazione di misure tecnologiche che possano controllare quello che succede davvero.<\/p>\n<p>&#13;<\/p>\n<p>Il provider di servizi \u00e8 obbligato ad eseguire l\u2019ordine, installando\u00a0 quindi soluzioni di scansione dei contenuti che si interfaccino con la banca dati di contenuti pedopornografici istituita dall\u2019organo centrale. Queste misure dovranno cercare se sui server o nelle comunicazioni della piattaforma stanno transitando contenuti \u201ca rischio\u201d <b>identificando gli utenti che le fanno partire e quelli verso cui sono dirette.<\/b><\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Secondo la proposta di Regolamento il provider non \u00e8 obbligato ad utilizzare una tecnologia specifica: pu\u00f2 usare una sua soluzione per interfacciarsi con i database o pu\u00f2 usare quelle che l\u2019EUCSA gli metter\u00e0 a disposizione, ma deve rispettare alcuni principi: queste soluzioni dovranno essere <b>efficaci, di minima intrusivit\u00e0 e non dovranno estrarre e condividere dati che non siano strettamente necessari alla lotta alla pedopornografia.\u00a0<\/b>\ufeffFacile a dirsi, meno a farsi.<b\/><\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Va precisato che nel testo <b>non c\u2019\u00e8 scritto da alcuna parte che i sistemi operativi dovranno implementare<\/b> <b>una scansione dei contenuti \u201cclient side\u201d<\/b> e neppure che debba farlo il sistema operativo e non la singola app. Questa chiave di lettura, che \u00e8 emersa da molti articoli recenti e che \u00e8 stata presa come esempio anche da molti attivisti contrari alla proposta, \u00e8 legata a quella che pu\u00f2 essere una ovvia e logica interpretazione.<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Chat Control impone infatti la rilevazione anche nel caso in cui i servizi adottino la cifratura end to end sul dispositivo, pertanto \u00e8 evidente che l\u2019unico modo per far convivere il Regolamento con la cifratura \u00e8 fare in modo che <b>la scansione avvenga prima della cifratura <\/b>(sul dispositivo). <\/p>\n<p>Inoltre si ritiene che, visto che su un dispositivo sono installate decine di app, si vada verso una soluzione dove dovrebbe essere il sistema operativo stesso a controllare tutto, e non ogni singola app ad avere il suo sistema. Si tratta, anche qui, di <b>pure deduzioni che non trovano per\u00f2 riscontro nella bozza<\/b>. <\/p>\n<p>La bozza chiede solo una serie di misure tecnologiche che confrontino, per alcuni servizi specifici, i contenuti che transitano sulla rete con quelli presenti in un database.<\/p>\n<p>&#13;<br \/>\n&#13;<br \/>\nLa speranza che tutto funzioni (ma \u00e8 molto difficile)&#13;<br \/>\n&#13;<\/p>\n<p>Il regolamento non impone soluzioni specifiche per confrontare foto e video sui server e quelli inviati tra utenti con quelli presenti sulla banca dati gestita dall\u2019organo centrale, ma pretende sia risultati che salvaguardie, ovvero l&#8217;uovo e la gallina. Vuole efficacia, minima intrusivit\u00e0 e anche bassa percentuale di falsi positivi\/negativi ma questo, con le tecnologie disponibili oggi, \u00e8 davvero difficile ottenerlo ed \u00e8 uno dei punti pi\u00f9 critici dell&#8217;intero pacchetto.<\/p>\n<p>&#13;<\/p>\n<p>Le tre tipologie di contenuto che la soluzione tecnologica di controllo dovrebbe riconoscere sono il contenuto pedopornografico gi\u00e0 noto, quindi un qualcosa che viene ricondiviso ma esistente, il contenuto nuovo, quindi mai finito nel database centrale e infine le situazioni di adescamento, queste solitamente sulle piattaforme pubbliche.<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Il regolamento tratta queste situazioni in modo differente perch\u00e9 chi l\u2019ha redatto \u00e8 consapevole che nel caso di materiale gi\u00e0 noto \u00e8 molto pi\u00f9 facile avere un alto livello di accuratezza, mentre <b>nel caso di materiale nuovo si corre il rischio di sbagliare.<\/b>\u00a0Ecco perch\u00e9 abbiamo analizzato le tre diverse situazioni, inserendo anche quelle che secondo le diverse interpretazioni potrebbero essere le soluzioni tecnologiche che verranno messe in atto. Lo ribadiamo: queste non sono state decise e non sono presenti nel regolamento, sono solo frutto di ipotesi.<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Per riconoscere materiale noto la soluzione pi\u00f9 adatta sarebbe quella di usare matching \u201cdeterministico\u201d: utilizzando hash crittografici e percettivi <b>si calcola un\u2019impronta dell\u2019immagine o del video e la si confronta con l\u2019elenco di hash presente nel database centrale<\/b>. Per quanto utilizzando tecniche come il perceptual hashing ci sia una buona tolleranza alle trasformazioni ( si riconoscono anche immagini ridimensionate o ri-compresse) questa tecnica <b>pu\u00f2 generare comunque false corrispondenze<\/b> su contenuti simili ma non illeciti, oppure mancate corrispondenze se l\u2019immagine \u00e8 molto alterata.<\/p>\n<p>&#13;<\/p>\n<p>Insomma, si potrebbe anche fare ma richiederebbe comunque una scansione di tutti i messaggi server side nel caso in cui il fornitore di servizio possa accedere al contenuto o client-side se il contenuto \u00e8 codificato. Non sarebbe per\u00f2 perfetta, e potrebbe dare luogo ad errori. Il Regolamento <b>sembra dare per scontato che questa tecnica sia praticamente infallibile<\/b> e chiarisce che non importa dove si effettua il confronto, se sul dispositivo o sul server, quello che vuole \u00e8 il risultato.<\/p>\n<p>Molto pi\u00f9 complessa invece la questione del caso in cui si debba riconoscere materiale \u201cnuovo\u201d, perch\u00e9 qui l\u2019unico modo per farlo \u00e8 usare modelli ML (CNN\/ViT) addestrati a riconoscere un certo tipo di immagine. La scansione diventa molto pi\u00f9 invasiva e anche pesante a livello di risorse, perch\u00e9 nonostante il Regolamento chieda affidabilit\u00e0 e minima intrusivit\u00e0 l\u2019unico modo per farlo sarebbe mettere un pre-filtro a bassa soglia (alta sensibilit\u00e0) su immagini\/video caricati seguito da un modello pi\u00f9 robusto per l\u2019analisi, con l\u2019aggiunta anche di persone nel flusso di lavoro per rivedere manualmente campioni \u201cad alto rischio\u201d prima di segnalare alle autorit\u00e0. Qui i dischi sono enormi: <b>allucinazioni del modello AI, falsi positivi, privacy e altro ancora.<\/b><\/p>\n<p><b\/>Su questo punto l\u2019European Data Protection Board e l\u2019European Data Protection Supervisor) hanno espresso preoccupazioni molto forti riguardo al fatto che un monitoraggio su vasta scala delle comunicazioni per trovare materiale \u201cnuovo\u201d <b>impatti sui diritti fondamentali<\/b>, in particolare quelli garantiti dagli Articoli 7 e 8 della Carta dei diritti fondamentali dell\u2019Unione Europea.<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Infine c\u2019\u00e8 l\u2019adescamento di minori, dove possono essere usati modelli linguistici per cercare nelle chat pubbliche sulle diverse piattaforme (ad esempio le chat dei videogiochi) pattern conversazionali come la richiesta di spostare chat off-platform, l\u2019insistenza su et\u00e0 o la richiesta di contenuti intimi. Anche qui i rischi sono molto elevati, nonostante l&#8217;elevata accuratezza delle tecnologie oggi gi\u00e0 usate: Microsoft ha riportato un&#8217;accuratezza dell&#8217;88% per il suo strumento di rilevazione degli adescamenti e proprio per questo \u00e8 ha aggiunto una verifica umana delle conversazioni che gli algoritmi identificano come potenziale adescamento.<\/p>\n<p>&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<\/p>\n<p>Questo \u00e8 quello che c\u2019\u00e8 nel Regolamento. <\/p>\n<p>Non c\u2019\u00e8 la frase \u201cclient-side scanning obbligatorio\u201d ma c\u2019\u00e8 solo la possibilit\u00e0 di emettere detection orders su servizi specifici e successivamente a questi ordini l\u2019obbligo per il destinatario dell&#8217;ordine di \u201cinstallare e operare tecnologie\u201d efficaci e minimamente intrusive che possano controllare le conversazioni a caccia degli indicatori presenti nel database EUCSA.<\/p>\n<p>&#13;<\/p>\n<p>Perch\u00e9 allora tutti parlano di \u201cChat Control\u201d? Perch\u00e9 se un servizio \u00e8 criptato end to end, l\u2019unico modo per fare quello che chiede il Regolamento, rilevare contenuti illeciti, senza rompere la cifratura server-side <b>resta solo la scansione client side come opzione tecnica praticabile. Un controllo delle chat.<\/b><\/p>\n<p>&#13;<br \/>\n&#13;<br \/>\nSe dovesse essere approvata vitale\u00a0il ruolo di Apple e di Google&#13;<br \/>\n&#13;<\/p>\n<p>Ci troviamo davanti a quello che \u00e8 uno dei regolamenti forse pi\u00f9 discussi degli ultimi tempi, e anche pi\u00f9 critici e al tempo stesso pericolosi. Merita per\u00f2 una riflessione che va oltre: Chat Control guarda esclusivamente ai provider di messaggistica e di comunicazioni e agli hosting provider. Riguarda i server sui quali finiscono i contenuti e riguarda le app di messaggistica e comunicazioni che si possono installare su PC e su smartphone.<\/p>\n<p> Mentre su PC l\u2019installazione di queste applicazioni \u00e8 libera, nel caso degli smartphone, anche se c\u2019\u00e8 il DMA, <b>solitamente queste app vengono installate tramite gli AppStore.<\/b><\/p>\n<p>&#13;<\/p>\n<p>L\u2019articolo 6 del Regolamento CSAR introduce obblighi specifici per i \u201cfornitori di negozi di applicazioni software\u201d, ma come abbiamo detto sopra, sono obbligati solo a valutare se esiste un rischio significativo che le app da loro distribuite possano essere usate per adescare minori. Se lo sono devono prendere misure ragionevoli, come il controllo et\u00e0, per impedirne l\u2019uso da parte di minori.<\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Non c\u2019\u00e8 tuttavia alcuna norma che dica \u201clo store deve accettare app che usano tecnologie X o Y\u201d o che vieti agli store di rifiutarle per motivi di privacy o sicurezza, quindi <b>l\u2019obbligo legale di rilevazione grava sui fornitori del servizio di comunicazione<\/b> (WhatsApp, Telegram, ecc.), <b>non su Apple o Google come piattaforme di distribuzione.<\/b><\/p>\n<p>&#13;<br \/>\n&#13;<\/p>\n<p>Le App Store Review Guidelines vietano ad esempio applicazioni che raccolgono dati senza consenso, che implementano sorveglianza nascosta o che usano tecniche intrusive non necessarie e finch\u00e9 non esiste una legge specifica che obblighi Apple o Google ad ospitare quelle app gli Store possono continuare a rifiutarle.\u00a0<\/p>\n<p>&#13;<\/p>\n<p>Se un servizio E2EE (ad es. Signal) decidesse di implementare client-side scanning per conformarsi a un detection order e pubblicasse l\u2019app sull\u2019App Store, <b>Apple potrebbe rifiutarla se la scansione violasse le sue regole sulla privacy<\/b>. L\u2019unico modo per obbligare Apple ad accettare quell\u2019app sarebbe un regolamento europeo specifico che imponga agli app store di non bloccare app che implementano queste tecnologie, ma il CSAR ad oggi non lo fa.\u00a0<\/p>\n<p>Anche qui entriamo nel puro campo delle ipotesi: se mai Chat Control venisse approvato, e non ce lo auguriamo, e se mai dovesse venire ordinato ad una piattaforma di messaggistica &#8220;X&#8221;\u00a0di controllare le conversazioni dei suoi utenti perch\u00e9 si sospetta che quella piattaforma venga usata per scopi illeciti Apple e Google potrebbero anche decidere di non distribuire pi\u00f9 quell&#8217;app, perch\u00e9\u00a0in violazione delle loro norme sulla privacy, limitandone quindi la diffusione e l&#8217;utilizzo.\u00a0<\/p>\n","protected":false},"excerpt":{"rendered":"La settimana prossima, il 14 di ottobre, i ministri degli Stati membri riuniti nel Consiglio dell\u2019UE dovranno votare&hellip;\n","protected":false},"author":3,"featured_media":150971,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[160],"tags":[14,164,165,166,7,15,11,167,12,168,161,162,163],"class_list":{"0":"post-150970","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-mondo","8":"tag-cronaca","9":"tag-dal-mondo","10":"tag-dalmondo","11":"tag-mondo","12":"tag-news","13":"tag-notizie","14":"tag-ultime-notizie","15":"tag-ultime-notizie-di-mondo","16":"tag-ultimenotizie","17":"tag-ultimenotiziedimondo","18":"tag-world","19":"tag-world-news","20":"tag-worldnews"},"share_on_mastodon":{"url":"","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/150970","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/comments?post=150970"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/150970\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media\/150971"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media?parent=150970"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/categories?post=150970"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/tags?post=150970"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}