{"id":85122,"date":"2025-09-03T10:05:10","date_gmt":"2025-09-03T10:05:10","guid":{"rendered":"https:\/\/www.europesays.com\/it\/85122\/"},"modified":"2025-09-03T10:05:10","modified_gmt":"2025-09-03T10:05:10","slug":"aumentano-le-denunce-in-italia","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/it\/85122\/","title":{"rendered":"aumentano le denunce in Italia"},"content":{"rendered":"<p>L\u2019intelligenza artificiale non \u00e8 solo nei chatbot di servizi e nelle app che aiutano a scrivere. Sempre pi\u00f9 spesso, viene usata per <strong>ingannare<\/strong>, <strong>imitare<\/strong> e <strong>truffare<\/strong>. E in Italia, secondo la Polizia Postale, sono in aumento le denunce su <strong>finti call center<\/strong>, <strong>voci clonate<\/strong>, <strong>video manipolati<\/strong> con volti noti della TV. Le prime denunce sono gi\u00e0 arrivate. Nel frattempo, secondo un sondaggio Ipsos, <strong>il 61% degli italiani<\/strong> teme che l\u2019AI venga usata per truffarli. E a ragione.\n<\/p>\n<p><strong>Le truffe vocali: la voce \u00e8 la nuova arma<\/strong><\/p>\n<p>Immaginate di ricevere una chiamata da un\/a figlio\/a o da un\/a nipote: la voce \u00e8 identica, stesso tono, stesso accento. Ma non \u00e8 lui\/lei, bens\u00ec un software.<\/p>\n<p>Nel 2025 sono stati segnalati in Italia i primi casi di <strong>voice cloning<\/strong>, ovvero imitazioni vocali realizzate con l\u2019intelligenza artificiale. I truffatori le hanno usate per impersonare operatori bancari o familiari, riuscendo a ottenere <strong>dati sensibili<\/strong> e <strong>codici OTP<\/strong> per svuotare conti correnti.<\/p>\n<p>Secondo la <strong>Banca d\u2019Italia<\/strong>, i casi registrati sono ancora pochi:<\/p>\n<blockquote>\n<p>\u201cMa indicativi di un trend che potrebbe diventare esplosivo\u201d.<\/p>\n<\/blockquote>\n<p><strong>Deepfake: testimonial falsi per truffare online<\/strong><\/p>\n<p>Un altro fronte preoccupante riguarda i <strong>deepfake video<\/strong>, cio\u00e8 clip manipolate in cui personaggi famosi sembrano dire cose mai dette. Negli ultimi mesi si sono diffusi video in cui <strong>Carlo Cracco<\/strong> o <strong>Joe Bastianich<\/strong> sembrano promuovere piattaforme di investimento, corsi di cucina o prodotti online che non esistono.<\/p>\n<p>Questi contenuti sono spesso usati per portare l\u2019utente su siti illegali solo all\u2019apparenza affidabili, convincerlo a inserire dati personali o a fare un bonifico. Alcuni video sono cos\u00ec convincenti da aver spinto i diretti interessati a presentare denunce per uso illecito della propria immagine.<\/p>\n<p><strong>Italiani preoccupati: 6 su 10 temono le truffe AI<\/strong><\/p>\n<p>In Italia, la consapevolezza riguardo al fenomeno dei <strong>deepfake<\/strong> \u00e8 in aumento, ma molti restano ancora poco informati: solo il 41% degli italiani dichiara di conoscere chiaramente il termine \u201cdeepfake\u201d, mentre il 38% afferma di non conoscerlo affatto.<\/p>\n<p>\u00a0<\/p>\n<p>\u00a0<\/p>\n<p>Nonostante questo, emerge una significativa preoccupazione: <strong>il 46% degli italiani<\/strong> ritiene che l\u2019intelligenza artificiale aumenter\u00e0 il rischio di disinformazione, una cifra leggermente inferiore alla media mondiale del 51%.<\/p>\n<p>Lo studio approfondisce anche le paure legate al deepfake: <strong>circa il 70% di cittadini e imprese<\/strong> teme di poter essere direttamente coinvolto in un fenomeno di manipolazione digitale, tra cui immagini, audio o video falsificati.<\/p>\n<p>\u00a0<\/p>\n<p>Tra le principali preoccupazioni rilevate:<\/p>\n<ul>\n<li>la difficolt\u00e0 di distinguere il vero dal falso online;<\/li>\n<li>l\u2019impatto potenziale su reputazione, identit\u00e0 digitale e fiducia nei media;<\/li>\n<\/ul>\n<p>Per contrastare questo scenario, gli italiani intervistati hanno proposto soluzioni concrete: <strong>software per riconoscere i deepfake <\/strong>(47%), <strong>normative pi\u00f9 chiare <\/strong>(42%) e <strong>sanzioni pi\u00f9 severe per truffe e furto d\u2019identit\u00e0 <\/strong>(36%).<\/p>\n<p><strong>Le istituzioni iniziano a muoversi<\/strong><\/p>\n<p>Per affrontare queste nuove minacce, la <strong>Banca d\u2019Italia<\/strong> sta sviluppando un sistema di <strong>monitoraggio delle frodi basate su AI<\/strong>, in collaborazione con le banche. L\u2019obiettivo \u00e8 riconoscere pi\u00f9 rapidamente i tentativi sospetti di accesso ai conti o di trasferimento fraudolento di denaro, soprattutto se originati da call center o app con tecnologie vocali avanzate.<\/p>\n<p>L\u2019<strong>Agenzia per l\u2019Italia Digitale (AgID)<\/strong> ha pubblicato nel 2025 una <strong>guida<\/strong> per difendersi dai rischi dell\u2019intelligenza artificiale. Il documento offre consigli pratici per cittadini e imprese su come:<\/p>\n<ul>\n<li>riconoscere i contenuti generati dall\u2019AI,<\/li>\n<li>proteggere le proprie identit\u00e0 vocali e visive,<\/li>\n<li>segnalare deepfake sospetti,<\/li>\n<li>usare strumenti di autenticazione pi\u00f9 sicuri (come SPID o CIE).<\/li>\n<\/ul>\n<p>Inoltre, servono <strong>regole chiare<\/strong>, <strong>pi\u00f9 vigilanza <\/strong>da parte delle piattaforme social, <strong>educazione digitale<\/strong> per tutti. E anche chi usa l\u2019intelligenza artificiale per scopi leciti deve farsi parte attiva: dichiarare quando un contenuto \u00e8 generato artificialmente, distinguere le immagini e i messaggi reali da quelli sintetici.<\/p>\n<p>Truffe AI: chi rischia di pi\u00f9?<\/p>\n<p data-start=\"345\" data-end=\"489\">Tutti possono essere presi di mira dalle truffe basate sull\u2019intelligenza artificiale, ma alcune categorie risultano particolarmente vulnerabili.<\/p>\n<p data-start=\"491\" data-end=\"974\"><strong data-start=\"491\" data-end=\"532\">Anziani e persone poco digitalizzate.<\/strong> Sono i bersagli principali del <strong>voice cloning<\/strong>, cio\u00e8 la clonazione della voce tramite AI. In diversi casi segnalati nel 2025 alla Polizia Postale, i truffatori si sono finti figli o nipoti in difficolt\u00e0, usando una voce generata da audio presi dai social o da vecchi messaggi vocali.<\/p>\n<p data-start=\"976\" data-end=\"1536\"><strong data-start=\"976\" data-end=\"1017\">Professionisti e personaggi pubblici<\/strong>\u00a0sono sempre pi\u00f9 spesso vittime di <strong data-start=\"1052\" data-end=\"1070\">deepfake video<\/strong>. Negli ultimi mesi, sono circolati video falsi in cui <strong data-start=\"1125\" data-end=\"1141\">Carlo Cracco<\/strong>, <strong data-start=\"1143\" data-end=\"1161\">Joe Bastianich<\/strong>, <strong data-start=\"1163\" data-end=\"1182\">Chiara Ferragni<\/strong> e persino <strong data-start=\"1193\" data-end=\"1212\">Giovanni Floris<\/strong> sembrano promuovere criptovalute o corsi di guadagno rapido. La maggior parte di questi video viene diffusa attraverso campagne sponsorizzate su Facebook o TikTok, spesso con link verso piattaforme-truffa. Ferragni e Cracco hanno gi\u00e0 sporto denuncia, mentre Meta ha avviato la rimozione di centinaia di contenuti segnalati.<\/p>\n<p data-start=\"1538\" data-end=\"2161\">I <strong data-start=\"1538\" data-end=\"1583\">Consumatori digitali <\/strong>e gli <strong data-start=\"1538\" data-end=\"1583\">utenti dei social<\/strong>\u00a0sono esposti quotidianamente a <strong>adv fake <\/strong>in cui testimonial apparentemente credibili (a volte anche influencer minori) promuovono prodotti, piattaforme di investimento o integratori inesistenti. Un caso recente ha coinvolto un falso video deepfake in cui <strong data-start=\"1842\" data-end=\"1862\">Marco Montemagno<\/strong>, popolare divulgatore, sembrava sponsorizzare un progetto di \u201ccrypto AI\u201d inesistente. Il video, diffuso via Instagram Ads, ha raccolto oltre 10.000 visualizzazioni in meno di 48 ore prima di essere segnalato e rimosso.<\/p>\n<p data-start=\"2163\" data-end=\"2590\"><strong data-start=\"2163\" data-end=\"2207\">Piccole imprese e liberi professionisti<\/strong>\u00a0sono esposti anche a truffe B2B, in cui sedicenti consulenti o partner si presentano con identit\u00e0 finte (create con foto AI e voci sintetiche) per proporre contratti fasulli, finti investimenti o prestazioni da saldare in anticipo. Alcune camere di commercio locali stanno segnalando un aumento di queste frodi, soprattutto nel settore degli e-commerce e dei servizi di marketing.<\/p>\n<p><strong>Come difendersi dai deepfake<\/strong><\/p>\n<ol>\n<li><strong>Non fidarti solo della voce<\/strong>: se ricevi richieste insolite, anche da persone fidate, verifica sempre con una seconda chiamata o messaggio.<\/li>\n<li><strong>Attento ai video \u201ctroppo perfetti\u201d<\/strong>: controlla se il personaggio ha effettivamente pubblicato quel contenuto sui suoi canali ufficiali.<\/li>\n<li><strong>Non cliccare su link sconosciuti<\/strong>: soprattutto se promossi da pubblicit\u00e0 video con volti famosi.<\/li>\n<li><strong>Usa sistemi di sicurezza avanzati<\/strong>: come autenticazione a due fattori o identit\u00e0 digitale certificata.<\/li>\n<li><strong>Segnala<\/strong> contenuti sospetti alla piattaforma o alla <strong>Polizia Postale<\/strong> tramite <a href=\"https:\/\/www.commissariatodips.it\/\" target=\"_blank\" rel=\"nofollow noopener\" data-doctype=\"\">www.commissariatodips.it<\/a>.<\/li>\n<\/ol>\n","protected":false},"excerpt":{"rendered":"L\u2019intelligenza artificiale non \u00e8 solo nei chatbot di servizi e nelle app che aiutano a scrivere. Sempre pi\u00f9&hellip;\n","protected":false},"author":3,"featured_media":85123,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[173],"tags":[458,668,1537,90,89,195,198,199,197,200,201,194,196,48204],"class_list":{"0":"post-85122","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-scienza-e-tecnologia","8":"tag-informazioni-utili","9":"tag-intelligenza-artificiale","10":"tag-it","11":"tag-italia","12":"tag-italy","13":"tag-science","14":"tag-science-and-technology","15":"tag-scienceandtechnology","16":"tag-scienza","17":"tag-scienza-e-tecnologia","18":"tag-scienzaetecnologia","19":"tag-technology","20":"tag-tecnologia","21":"tag-truffe-e-frodi"},"share_on_mastodon":{"url":"","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/85122","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/comments?post=85122"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/85122\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media\/85123"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media?parent=85122"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/categories?post=85122"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/tags?post=85122"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}