{"id":172499,"date":"2025-10-19T05:47:22","date_gmt":"2025-10-19T05:47:22","guid":{"rendered":"https:\/\/www.europesays.com\/it\/172499\/"},"modified":"2025-10-19T05:47:22","modified_gmt":"2025-10-19T05:47:22","slug":"reddit-lintelligenza-artificiale-ha-suggerito-agli-utenti-di-provare-leroina","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/it\/172499\/","title":{"rendered":"Reddit, l&#8217;intelligenza artificiale ha suggerito agli utenti di provare l\u2019eroina"},"content":{"rendered":"<p>Ennesimo esempio di suggerimenti pericolosi elargiti agli utenti dai chatbot AI, stavolta tocca a Reddit. Dopo che ChatGpt ha messo a rischio la salute di un uomo di 60 anni, suggerendogli di sostituire il comune sale da cucina, il cloruro di sodio, con il <a href=\"https:\/\/www.wired.it\/article\/chatgpt-uomo-chiede-come-ridurre-il-consumo-di-sale-bromuro-di-sodio-allucinazioni\/\" target=\"_blank\" rel=\"nofollow noopener\">bromuro di sodio<\/a>, ora \u00e8 l\u2019<strong>intelligenza artificiale di Reddit<\/strong> a proporre ai suoi utenti di <strong>provare l\u2019eroina e il kratom<\/strong> come rimedi per la gestione del dolore. Secondo quanto segnalato da un utente, la funzionalit\u00e0 AI Reddit Answers &#8211; un chatbot conversazionale che risponde alle domande degli utenti &#8211; sta fornendo consigli pericolosi nei subreddit relativi alla salute e al benessere personale, che i moderatori non possono segnalare o bloccare in alcun modo.<\/p>\n<p>\u201cCome operatore sanitario, sono profondamente preoccupato per i contenuti generati dall&#8217;AI che appaiono sotto i post che scrivo &#8211; <a data-offer-url=\"https:\/\/www.reddit.com\/r\/ModSupport\/comments\/1o4bwx6\/safety_concern_reddit_answers_is_recommending\/\" class=\"external-link\" data-event-click=\"{&quot;element&quot;:&quot;ExternalLink&quot;,&quot;outgoingURL&quot;:&quot;https:\/\/www.reddit.com\/r\/ModSupport\/comments\/1o4bwx6\/safety_concern_reddit_answers_is_recommending\/&quot;}\" href=\"https:\/\/www.reddit.com\/r\/ModSupport\/comments\/1o4bwx6\/safety_concern_reddit_answers_is_recommending\/\" rel=\"nofollow noopener\" target=\"_blank\">ha segnalato<\/a> l\u2019utente su Reddit -. Ho fatto un post in <a data-offer-url=\"https:\/\/www.reddit.com\/r\/familymedicine\/\" class=\"external-link\" data-event-click=\"{&quot;element&quot;:&quot;ExternalLink&quot;,&quot;outgoingURL&quot;:&quot;https:\/\/www.reddit.com\/r\/familymedicine\/&quot;}\" href=\"https:\/\/www.reddit.com\/r\/familymedicine\/\" rel=\"nofollow noopener\" target=\"_blank\">r\/familymedicine<\/a> e sotto \u00e8 apparso un link con informazioni sul trattamento del dolore cronico. Il primo post citato esortava le persone a interrompere i farmaci prescritti e ad assumere kratom ad alte dosi, una sostanza illegale (in alcuni stati) e non regolamentata. Non lo approvo assolutamente\u201d. La stessa <a href=\"https:\/\/www.fda.gov\/news-events\/public-health-focus\/fda-and-kratom?\" target=\"_blank\" rel=\"nofollow noopener\">Federal Drug Administration<\/a>, l&#8217;ente di approvazione dei farmaci americano, infatti, avverte i consumatori di <strong>non usare il kratom<\/strong> per via \u201cdel rischio di gravi eventi avversi, tra cui tossicit\u00e0 epatica, convulsioni e disturbi da uso di sostanze\u201d. Il consiglio dell\u2019<a href=\"https:\/\/www.wired.it\/article\/intelligenza-artificiale-manipolazione-psicologica-utenti-reddit\/\" target=\"_blank\" rel=\"nofollow noopener\">AI di Reddi<\/a>t, quindi, \u00e8 da considerarsi altamente pericoloso per la salute degli utenti della piattaforma. Ma non finisce qui.<\/p>\n<p>L\u2019utente che ha avviato il thread su Reddit ha segnalato anche di aver chiesto all\u2019intelligenza artificiale <strong>indicazioni mediche per l\u2019eroina nella gestione del dolore<\/strong>. Mentre alcune risposte mettevano gli utenti in guardia dal rischio di dipendenza da questa sostanza, altre incoraggiavano \u201cle persone a interrompere i farmaci prescritti e a usare l&#8217;eroina\u201d, sottolineando tutti i benefici del caso. Una questione preoccupante, considerando che sono moltissimi gli utenti che si affidano ai suggerimenti dei chatbot o ai consigli forniti sui social, in virt\u00f9 della loro <strong>scarsa alfabetizzazione medica<\/strong>, che gli impedisce di distinguere cosa \u00e8 davvero credibile e cosa non lo \u00e8 affatto. \u201cCome societ\u00e0, cerchiamo aiuto dagli altri quando non sappiamo cosa fare &#8211; scrive l\u2019utente su Reddit -. Gli aneddoti personali sono incredibilmente influenti nel processo decisionale e Reddit sta amplificando molti aneddoti pericolosi\u201d attraverso la sua funzionalit\u00e0 AI, addestrata proprio sui dati e i contenuti condivisi dagli utenti sulla piattaforma.<\/p>\n<p>La risposta di Reddit<\/p>\n<p>Dopo che la segnalazione dell\u2019utente ha cominciato a farsi notare e il portale <a data-offer-url=\"https:\/\/www.404media.co\/reddit-answers-ai-suggests-users-try-heroin\/\" class=\"external-link\" data-event-click=\"{&quot;element&quot;:&quot;ExternalLink&quot;,&quot;outgoingURL&quot;:&quot;https:\/\/www.404media.co\/reddit-answers-ai-suggests-users-try-heroin\/&quot;}\" href=\"https:\/\/www.404media.co\/reddit-answers-ai-suggests-users-try-heroin\/\" rel=\"nofollow noopener\" target=\"_blank\">404 Media<\/a> ha portato la questione all\u2019attenzione degli utenti, <a href=\"https:\/\/www.wired.it\/topic\/reddit\/\" target=\"_blank\" rel=\"nofollow noopener\">Reddit<\/a> ha introdotto un aggiornamento per impedire che le risposte formulate dalla sua AI fossero suggerite all\u2019interno di conversazioni su temi sensibili. \u201cAbbiamo lanciato un aggiornamento progettato per <strong>affrontare e risolvere questo problema<\/strong> specifico &#8211; ha dichiarato un portavoce della societ\u00e0 -. Questo aggiornamento garantisce che le &#8216;Risposte correlate&#8217; ad argomenti sensibili, che potrebbero essere state precedentemente visibili nella pagina dei dettagli del post (nota anche come pagina della conversazione), non vengano pi\u00f9 visualizzate. Questa modifica \u00e8 stata implementata per migliorare l&#8217;esperienza dell&#8217;utente e mantenere un&#8217;adeguata visibilit\u00e0 dei contenuti all&#8217;interno della piattaforma\u201d.<\/p>\n","protected":false},"excerpt":{"rendered":"Ennesimo esempio di suggerimenti pericolosi elargiti agli utenti dai chatbot AI, stavolta tocca a Reddit. Dopo che ChatGpt&hellip;\n","protected":false},"author":3,"featured_media":172500,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[173],"tags":[668,1537,90,89,105412,195,198,199,197,200,201,194,196],"class_list":{"0":"post-172499","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-scienza-e-tecnologia","8":"tag-intelligenza-artificiale","9":"tag-it","10":"tag-italia","11":"tag-italy","12":"tag-reddit","13":"tag-science","14":"tag-science-and-technology","15":"tag-scienceandtechnology","16":"tag-scienza","17":"tag-scienza-e-tecnologia","18":"tag-scienzaetecnologia","19":"tag-technology","20":"tag-tecnologia"},"share_on_mastodon":{"url":"","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/172499","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/comments?post=172499"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/172499\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media\/172500"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media?parent=172499"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/categories?post=172499"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/tags?post=172499"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}