Gisteren
leestijd 1 minuten
1436 keer bekeken
Bewaren

X is niet meer alleen een bruine poel des verderfs voor neonazi’s, maar inmiddels ook een bron van digitale aanranding en kinderporno. Via Elon Musks AI-speeltje Grok worden beelden van vrouwen en kinderen waarvan de kleding digitaal is verwijderd massaal gedeeld op het ranzige platform waar desondanks onder meer de voltallige Nederlandse regering nog communiceert.
Uit onderzoek van AI Forensics blijkt dat in een week tijd meer dan de helft van de gegenereerde afbeeldingen mensen (lees: vrouwen en kinderen) toonde in minimale kleding zoals ondergoed of bikini’s. Ook vragen de gebruikers Grok om de mensen (lees: vrouwen en kinderen) in seksuele posities af te beelden. In zeker 2 procent van de beelden gaat het om minderjarigen, sommige zelfs jonger dan vijf jaar. Dat meldt The Guardian. Slachtoffers zoals een 14-jarige actrice bekend uit het laatste seizoen van hitserie Stranger Things en andere bekende vrouwen reageerden woedend dat foto’s zonder toestemming waren gemanipuleerd. Musks eerste reactie op de (kinder)pornografische beelden was een lachende emoji.
De Europese Commissie heeft maandag laten weten dat ze klachten over het gebruik van Grok voor het genereren en verspreiden van seksueel expliciete en kinderpornografische afbeeldingen “zeer serieus onderzoekt”. “Grok biedt nu een ‘spicy mode’ aan met expliciet seksuele inhoud, waarbij sommige output bestaat uit afbeeldingen van kinderen. Dit is niet pikant. Dit is illegaal. Dit is afschuwelijk”, aldus Thomas Regnier, woordvoerder digitale zaken van de Europese Unie. “Dit hoort niet thuis in Europa.”