YouTube interdit les vidéos “deepfakes” mettant en scène des personnes décédées

by Canard-jaune

14 comments
  1. “Ces vidéos, appelées “deepfakes” (technologie permettant de reproduire le visage et/ou la voix d’une personnalité sur une vidéo quelconque), connaissaient un certain succès sur la plateforme et sur le réseau social Tik Tok. On peut y voir des personnes décédées dans des faits divers, comme Estelle Mouzin, le petit Grégory ou Samuel Paty, en train de raconter leur histoire, comme s’ils étaient face caméra, avec une voix artificielle.”

  2. Donc on aura plus le droit à Napoléon qui chante Baka Mitai ? 🙁

  3. Donc plutôt que de protéger les personnes en vie.

    On protège les morts.

    C’est “drôle” parce que je présume que c’est souvent des vidéos parodies/meme, ce qui irai encore plus dans la censure de ce type de contenu (humour).

    Pourquoi pas juste YouTube qui afficherai un “warning Ceci est un deepfake” sur l’interface du player au lancement de la vidéo.

    Après c’est clair que si c’est malintentionel de base, deepfake ou pas, ça devrait être banni.

  4. Ca me rappelle un faux stream Fortnite avec Jf Kennedy jouant avec Obama, Biden et Trump bardés de casques de gamers, et Kennedy ne voulait pas sortir d´un buisson car il disait se sniper tout le temps.

    après prescription, c´est drole mais pas super ethique hmm

  5. Ça inclue les chansons ? C’est pas super clair dans l’article.

    Entre Johnny chanter du Pokémon ou autre connerie c’est assez marrant

  6. Les batards ! Hitler et Staline qui chantait ” radio kill the video store ” était énorme !

  7. [source](https://support.google.com/youtube/answer/2802268?sjid=17993118352364934624-EU#zippy=%2Cother-types-of-content-that-violate-this-policy%2Cautres-types-de-contenus-enfreignant-ces-règles)

    >Contenus qui représentent de façon réaliste des mineurs décédés ou des victimes d’événements violents majeurs mortels ou largement attestés **décrivant leur décès ou la violence subie.**

    le titre est trompeur, ça ne concerne que certains cas

    [YouTube interdit les deepfakes mettant en scène des **victimes de violence**](https://www.phonandroid.com/ia-youtube-interdit-les-deepfakes-mettant-en-scene-des-victimes-de-violence.html)

  8. Pourquoi pas l’inverse? Je veux dire, un deepfake ça peut te ruiner ta vie potentiellement, en te faisant dire ce que t’as pas dit. Donc autant interdire ça pour les personnes vivantes, celles dont la vie est déjà ruinée c’est secondaire, même si ça peut affecter les descendants c’est déjà moins grave que pour quelqu’un en vie non?

  9. Ce que youtube dit exactement :

    Community Guidelines
    [January, 2024] Update to Harassment & cyberbullying enforcement: On January 16, we’ll begin striking content that realistically simulates deceased minors or victims of deadly or well-documented major violent events describing their death or violence experienced.

    Leur traduction FR: Contenus qui représentent de façon réaliste des mineurs décédés ou des victimes d’événements violents majeurs mortels ou largement attestés décrivant leur décès ou la violence subie.

  10. Heureusement que le titre est trompeur, sinon JDG aurait encore vu sa vidéo Cyberpunk sauter à cause de Johnny.

  11. Ne devrait-on pas interdire les deepfakes tout court si l’auteur n’a pas l’autorisation des proche ou de la personne concernée?

Leave a Reply