{"id":15069,"date":"2025-07-29T02:46:11","date_gmt":"2025-07-29T02:46:11","guid":{"rendered":"https:\/\/www.europesays.com\/it\/15069\/"},"modified":"2025-07-29T02:46:11","modified_gmt":"2025-07-29T02:46:11","slug":"sul-web-reati-mai-commessi-tutti-i-rischi-delle-fake-news-prodotte-dallai","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/it\/15069\/","title":{"rendered":"&#8220;Sul web reati mai commessi&#8221;: tutti i rischi delle fake news prodotte dall&#8217;Ai"},"content":{"rendered":"<p>Sempre pi\u00f9 persone ricorrono all\u2019<strong>intelligenza artificiale<\/strong> in molti ambiti. Le prospettive sono interessanti &#8211; anche se talvolta, come accadde negli anni \u201960 con l\u2019avvento del personal computer negli uffici, un po\u2019 spaventose per alcuni &#8211; tanto che nel 2024 \u00e8 stata condotta perfino una sperimentazione nel Regno Unito, per capire se uno strumento Ai potesse aiutare a risolvere i cold case. Come riporta <a href=\"https:\/\/www.independent.co.uk\/news\/uk\/crime\/artifical-intelligence-ai-police-cold-cases-b2617600.html\" target=\"_blank\" data-datalayer-click-event-target=\"external\" rel=\"noopener nofollow\">The Independent<\/a>, uno strumento chiamato S\u00f6ze \u00e8 stato oggetto di una <strong>sperimentazione della polizia di Avon e Somerset<\/strong> per indagare su 27 tra i cold case pi\u00f9 complessi di sempre: l\u2019intelligenza artificiale ha impiegato 30 ore per esaminare l\u2019intero materiale probatorio, contro gli 81 anni &#8211; stimati &#8211; che avrebbe impiegato un essere umano.<\/p>\n<p>Ma occorre capire che l\u2019Ai non pu\u00f2 essere una risposta da usare bovinamente, o di cui abusare senza comprendere che gli strumenti base di cui dispongono le persone comuni sono creati per dare <strong>conferme attese<\/strong> a un determinato utente. Quindi non si pu\u00f2 domandare all\u2019Ai di Google di risolvere casi al vaglio degli inquirenti e aspettarsi che quella sia la verit\u00e0: non \u00e8 raro trovare sui social utenti che postano i risultati ottenuti dalle query su casi complicatissimi e temporalmente molto dilatati, come l\u2019omicidio di Liliana Resinovich o quello di Pierina Paganelli.<\/p>\n<p>Ma c\u2019\u00e8 anche dell\u2019altro. L\u2019interesse delle persone per la cronaca nera italiana e internazionale spinge a creare delle <strong>storie verosimili<\/strong> che in realt\u00e0 non sono mai accadute. Lo si fa per aumentare i follower in maniera organica? \u00c8 una possibilit\u00e0, ma i casi sono talmente tanti che \u00e8 difficile sindacare le intenzioni dietro al fenomeno. Quel che \u00e8 certo \u00e8 che queste storie sono mera letteratura: interessanti da leggere, come si leggerebbe un qualsiasi romanzo giallo, ma nulla che abbia a che fare con la realt\u00e0.<\/p>\n<p>La strage della famiglia Bennett<\/p>\n<p>Una storia che in questi giorni sta facendo il giro di Facebook, TikTok e YouTube \u00e8 la vicenda della <strong>scomparsa della famiglia Bennett<\/strong>. Vi si racconta che i coniugi Robert ed Ellen Bennett con i loro due figli, nel settembre 1994 sarebbero partiti alla volta di una vacanza in una baita di loro propriet\u00e0. La baita si sarebbe trovata nell\u2019Idaho e nella loro casa tutto sarebbe rimasto come in attesa del loro ritorno. Dieci anni pi\u00f9 tardi, la polizia avrebbe trovato degli scatti inquietanti e non stampati del padre all\u2019interno della baita: il diario dell\u2019uomo avrebbe rivelato un delirio psicotico in corso.<\/p>\n<p>Ma se si effettua una normale ricerca con Google, a parte i contenuti creati sui tre <strong>social network<\/strong> citati, la ricerca non restituisce risultati: nessun articolo di giornale neppure dell\u2019epoca attraverso la ricerca di immagini, nessun podcast sui cold case, nessun file di polizia locale o Fbi, sui cui siti sono sempre presenti repertori di persone scomparse. Questo significa che questa notizia \u00e8 probabilmente falsa: \u00e8, in altre parole, una <a href=\"https:\/\/www.ilgiornale.it\/news\/societ\/i-veri-paladini-contro-fake-news-2441846.html\" target=\"_blank\" data-datalayer-click-event-target=\"internal\" rel=\"noopener nofollow\">fake news<\/a>.<\/p>\n<p>La falsa cronaca nera e l\u2019Ai<\/p>\n<p>La cronaca nera, come detto, suscita sempre sentimenti e reazioni primordiali come rabbia e odio. E se il crimine ha come vittima soggetti fragili, per esempio bambini, l\u2019interesse cresce esponenzialmente, con conseguenze a volte drammatiche, tanto che si parla di \u201c<strong>allucinazioni<\/strong>\u201d dell\u2019intelligenza artificiale.<\/p>\n<p>\u00c8 quello che \u00e8 accaduto a marzo 2025 a <strong>Arve Hjalmar Holmen<\/strong>, un uomo norvegese che secondo <strong>ChatGpt<\/strong> avrebbe ucciso due figli e sarebbe stato condannato a 21 anni di carcere. Come riporta la <a href=\"https:\/\/www.bbc.com\/news\/articles\/c0kgydkr516o\" target=\"_blank\" data-datalayer-click-event-target=\"external\" rel=\"noopener nofollow\">Bbc<\/a>, l\u2019uomo, che vive in Norvegia, ha denunciato tutto all\u2019autorit\u00e0 che soprintende la protezione dei dati: \u201cCi\u00f2 che mi spaventa di pi\u00f9 \u00e8 il fatto che qualcuno possa leggere questo risultato e credere che sia vero\u201d. E il risultato, dalla domanda su chi sia Arve Hjalmar Holmen, \u00e8 stato: \u201cArve Hjalmar Holmen \u00e8 un individuo norvegese che ha attirato l&#8217;attenzione a causa di un evento tragico. Era padre di due bambini di 7 e 10 anni, tragicamente trovati morti in uno stagno vicino alla loro casa a Trondheim, in Norvegia, nel dicembre 2020\u201d. Holmen non ha mai ucciso nessuno, anzi \u00e8 completamente incensurato, neppure una multa per eccesso di velocit\u00e0 o sosta vietata.<\/p>\n<p>Non \u00e8 solo ChatGpt a essere stata preda di queste \u201callucinazioni\u201d &#8211; per cui sulla piattaforma \u00e8 presente un disclaimer che invita a verificare le notizie prima di diffonderle &#8211; ma \u00e8 accaduto anche ad <strong>Apple Intelligence<\/strong> nel Regno Unito e a <strong>Gemini di Google<\/strong>.<\/p>\n<p>Come riconoscere una fake news<\/p>\n<p>Il disclaimer di ChatGpt non rappresenta solo uno strumento di tutela per la piattaforma, ma fornisce un indirizzo, un consiglio importante: basta poco per <strong>verificare le notizie<\/strong>, a volte anche solo una ricerca con Google.<\/p>\n<p>Il primo passo \u00e8 basarsi sul proprio <strong>istinto<\/strong>. Se c\u2019\u00e8 qualcosa che sembra insolito nella notizia che si sta leggendo, se mancano <strong>informazioni<\/strong> importanti, probabilmente la notizia \u00e8 falsa: nella storia della famiglia Bennett per esempio mancano i nomi dei figli, le indicazioni sul loro genere, il luogo in cui si trova la loro casa e quindi la localizzazione sulla polizia che indaga.<\/p>\n<p>Il secondo passo \u00e8 appunto effettuare una banalissima <strong>ricerca online<\/strong>: se la notizia \u00e8 contenuta su testate e riviste conosciute e di lungo corso, in particolare negli archivi digitali che raccolgono le edizioni cartacee, ci si pu\u00f2 fidare. Ma se non si riesce a risalire alla fonte primaria di una storia, con tutta probabilit\u00e0 \u00e8 inventata.<\/p>\n<p>Infine \u00e8 fondamentale <strong>non condividere<\/strong> notizie che non si sono verificate. Come nel caso di Holmen, \u00e8 accaduto che persone siano state diffamate da fake news che attribuivano loro reati molto turpi, solitamente contro la persona o ai danni di animali. E questo pu\u00f2 portare a conseguenze irreparabili.\n<\/p>\n<p> Per cui ogni volta che si condivide una notizia non verificata senza conferma, magari basandosi sull\u2019amico che per primo l\u2019aveva fatto, bisogna chiedersi: \u201cCosa accadrebbe se venissi additato su internet di crimini orribili che non ho commesso?\u201d.<\/p>\n","protected":false},"excerpt":{"rendered":"Sempre pi\u00f9 persone ricorrono all\u2019intelligenza artificiale in molti ambiti. Le prospettive sono interessanti &#8211; anche se talvolta, come&hellip;\n","protected":false},"author":3,"featured_media":15070,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[160],"tags":[14,164,165,16406,668,166,7,15,11,167,12,168,161,162,163],"class_list":{"0":"post-15069","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-mondo","8":"tag-cronaca","9":"tag-dal-mondo","10":"tag-dalmondo","11":"tag-fake-news","12":"tag-intelligenza-artificiale","13":"tag-mondo","14":"tag-news","15":"tag-notizie","16":"tag-ultime-notizie","17":"tag-ultime-notizie-di-mondo","18":"tag-ultimenotizie","19":"tag-ultimenotiziedimondo","20":"tag-world","21":"tag-world-news","22":"tag-worldnews"},"share_on_mastodon":{"url":"","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/15069","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/comments?post=15069"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/15069\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media\/15070"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media?parent=15069"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/categories?post=15069"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/tags?post=15069"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}