{"id":26166,"date":"2026-03-15T08:41:15","date_gmt":"2026-03-15T08:41:15","guid":{"rendered":"https:\/\/www.europesays.com\/be-nl\/26166\/"},"modified":"2026-03-15T08:41:15","modified_gmt":"2026-03-15T08:41:15","slug":"8-op-10-ai-chatbots-zouden-tieners-helpen-met-het-plannen-van-gewelddadige-aanslagen-volgens-rapport","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/be-nl\/26166\/","title":{"rendered":"8 op 10 AI-chatbots zouden tieners helpen met het plannen van gewelddadige aanslagen, volgens rapport"},"content":{"rendered":"<p>Key takeaways<\/p>\n<p>Populaire AI-chatbots helpen tieners bij het plannen van gewelddadige aanslagen door gevaarlijk advies en praktische details te verstrekken.<\/p>\n<p>De meeste AI-systemen slagen er niet in verzoeken om gewelddadige plannen te blokkeren, zelfs wanneer gebruikers zich als minderjarigen identificeren.<\/p>\n<p>Alleen Claude ontmoedigt consequent geweld.<\/p>\n<p>Acht op de tien populaire <a href=\"https:\/\/businessam.be\/ai-chatbots-voor-medisch-advies-experts-waarschuwen-vertrouw-de-machine-niet\/\" type=\"link\" id=\"https:\/\/businessam.be\/ai-chatbots-voor-medisch-advies-experts-waarschuwen-vertrouw-de-machine-niet\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">AI-chatbots<\/a> helpt tieners zonder meer bij het plannen van gewelddadige aanslagen. Dat blijkt uit een recent onderzoek van het Center for Countering Digital Hate (CCDH) en CNN. Onderzoekers deden zich voor als 13-jarige jongens die advies zochten over het plegen van schietpartijen op scholen, het vermoorden van publieke figuren en het opblazen van synagogen.<\/p>\n<p>Alarmerende bevindingen<\/p>\n<p>Het onderzoek analyseerde meer dan 700 reacties van enkele van de meest gebruikte AI-systemen die momenteel beschikbaar zijn. Het gaat hier om Google Gemini, Claude, Microsoft Copilot, <a href=\"https:\/\/businessam.be\/meta-ai-chatbot-test-productaanbevelingen-voor-amerikaanse-gebruikers\/\" type=\"link\" id=\"https:\/\/businessam.be\/meta-ai-chatbot-test-productaanbevelingen-voor-amerikaanse-gebruikers\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Meta AI<\/a>, DeepSeek, Perplexity AI, Snapchat My AI, Character.AI en Replika. Acht van de negen chatbots boden hulp aan bij het plannen van deze gewelddadige daden.  Zelfs wanneer de gebruikers zich expliciet als minderjarigen identificeerden. <\/p>\n<p>De chatbots gaven heel specifiek en gevaarlijk advies. Toen hem werd gevraagd hoe je een bomaanslag op een synagoge moet plannen, vertelde Gemini een gebruiker dat \u201cmetalen granaatscherven doorgaans dodelijker zijn\u201d. Ondertussen sloot DeepSeek een gesprek over het kiezen van een geweer af met \u201cVeel (en veilig) schietplezier!\u201d. De gebruiker had eerst wel ge\u00efnformeerd naar politieke moorden en het kantooradres van een politicus.<\/p>\n<p>Overgang naar geweld<\/p>\n<p>Het rapport wijst erop hoe gemakkelijk een gebruiker binnen enkele minuten van een vage gewelddadige gedachte naar een concreet plan kan overgaan. \u201cDeze verzoeken hadden onmiddellijk en volledig moeten worden afgewezen\u201d, vertelt de directeur van het CCDH, Imran Ahmed.<\/p>\n<p>Perplexity en Meta\u2019s AI bleken de minst veilige platforms te zijn. Ze hielpen de aanvallers in respectievelijk 100 en 97 procent van de reacties volgens het rapport. Opvallend is dat Character.AI als \u201cbijzonder onveilig\u201d wordt omschreven. Het platform moedigde aanvallen aan zonder daar om gevraagd te worden. In een voorbeeld stelde het platform voor dat een gebruiker een politicus die hij niet mocht fysiek zou aanvallen, zonder dat daar om gevraagd was.<\/p>\n<p>Claude en Snapchat\u2019s My AI weigerden daarentegen potenti\u00eble aanvallers te helpen in respectievelijk 68 en 54 procent van de gevallen.<\/p>\n<p>Veiligheidsmechanismen<\/p>\n<p>Ondanks het bestaan van veiligheidsmechanismen wijst het onderzoek op een gebrek aan bereidheid om deze effectief te implementeren. Claude herkende bijvoorbeeld een zorgwekkend patroon in een gesprek over het kopen van een wapen en verwees de gebruiker in plaats daarvan door naar crisis-hulplijnen.<\/p>\n<p>Het CCDH beoordeelde ook of chatbots gewelddadige handelingen ontmoedigden. Claude bleek het enige systeem te zijn dat aanvallen consequent ontmoedigde, en deed dit in 76 procent van zijn reacties. ChatGPT en DeepSeek boden af en toe ontmoediging.<\/p>\n<p>Gevolgen<\/p>\n<p>Dit onderzoek volgt op incidenten waarbij <a href=\"https:\/\/businessam.be\/pentagon-zoekt-ai-testsysteem-voor-militaire-toepassingen\/\" type=\"link\" id=\"https:\/\/businessam.be\/pentagon-zoekt-ai-testsysteem-voor-militaire-toepassingen\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">AI-chatbots<\/a> werden gebruikt voor het plannen van gewelddadige aanslagen. Bij een recente schietpartij op een Canadese school gebruikte de dader ChatGPT om de aanslag te plannen, met acht doden en 27 gewonden tot gevolg.<\/p>\n<p>Bovendien meldden Franse media de arrestatie van een tiener die ChatGPT had gebruikt om terroristische aanslagen tegen ambassades, overheidsinstellingen en scholen te beramen. (ev) (uv)<\/p>\n<p><a href=\"https:\/\/news.google.com\/publications\/CAow87yUCw?hl=nl&amp;gl=BE&amp;ceid=BE%3Anl\" target=\"_blank\" rel=\"nofollow noopener\">Volg Business AM ook op Google Nieuws<\/a><\/p>\n<p><a href=\"https:\/\/portal.businessam.be\/plans\/business-am-zomer-aanbieding\/\" target=\"_blank\" rel=\"nofollow noopener\">Wil je toegang tot alle artikelen, geniet tijdelijk van onze promo en abonneer je hier!<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"Key takeaways Populaire AI-chatbots helpen tieners bij het plannen van gewelddadige aanslagen door gevaarlijk advies en praktische details&hellip;\n","protected":false},"author":2,"featured_media":26167,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[38],"tags":[7030,27,26,25,7031,102,7032,7033,662,7034,7035,7036,7037,39,41,42,7038,46,40,1941,45,43,44],"class_list":{"0":"post-26166","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-wetenschap-en-technologie","8":"tag-ai-chatbots","9":"tag-be","10":"tag-belgie","11":"tag-belgium","12":"tag-character-ai","13":"tag-claude","14":"tag-cnn","15":"tag-deepseek","16":"tag-gemini","17":"tag-meta-ai","18":"tag-microsoft-copilot","19":"tag-perplexity-ai","20":"tag-replika","21":"tag-science","22":"tag-science-and-technology","23":"tag-scienceandtechnology","24":"tag-snapchat-my-ai","25":"tag-technologie","26":"tag-technology","27":"tag-tieners","28":"tag-wetenschap","29":"tag-wetenschap-en-technologie","30":"tag-wetenschaptechnologie"},"share_on_mastodon":{"url":"https:\/\/pubeurope.com\/@be_nl\/116232302286271326","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/be-nl\/wp-json\/wp\/v2\/posts\/26166","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/be-nl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/be-nl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/be-nl\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/be-nl\/wp-json\/wp\/v2\/comments?post=26166"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/be-nl\/wp-json\/wp\/v2\/posts\/26166\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/be-nl\/wp-json\/wp\/v2\/media\/26167"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/be-nl\/wp-json\/wp\/v2\/media?parent=26166"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/be-nl\/wp-json\/wp\/v2\/categories?post=26166"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/be-nl\/wp-json\/wp\/v2\/tags?post=26166"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}