Accusés à tort de pédophilie pour des photos faites à la demande de médecins

7 comments
  1. >>Accusés à tort de pédophilie pour des photos faites à la demande de médecins
    >
    >Deux pères de famille américains ont été soupçonnés, à tort, de pédophilie, pour avoir pris en photographie, à la demande de médecins, le sexe de leurs enfants. Google a bloqué leurs comptes, et entend bien les supprimer définitivement, quand bien même les deux pères ont depuis été innocentés par la police.
    >
    >Mark, dont le téléphone Android stockait les photos dans le nuage de Google, reçut deux jours plus tard une alerte sonore lui indiquant que son compte avait été désactivé en raison d’un « contenu préjudiciable » qui constituait « une violation grave des règles de Google et pouvait être illégal ».
    >
    >Un lien « en savoir plus » le renvoyait à une liste de raisons possibles, dont « abus et exploitation sexuels d’enfants ».
    >
    >Mark, qui est par ailleurs ingénieur logiciel, et qui avait en outre été amené à travailler sur un outil automatisé destiné à traiter les contenus vidéo signalés par les utilisateurs comme problématiques, fit rapidement le lien avec les photos du pénis de son fils : « Oh mon Dieu, Google pense probablement que c’était de la pornographie enfantine », raconte-t-il au New York Times.
    >
    >Il fit appel de la suspension de son compte, expliquant les problèmes de santé de son fils, mais quelques jours plus tard, Google lui notifia une fin de non-recevoir :
    >
    >« Mark ne le savait pas, mais l’équipe de révision de Google avait également signalé une vidéo qu’il avait réalisée et la police de San Francisco avait déjà commencé à enquêter sur lui. »
    >Deux gouttes d’eau dans un grand seau
    >
    >Dans le même temps, Mark n’avait plus accès à ses courriels, son carnet d’adresses, ses photos stockées dans le cloud, son numéro de téléphone (il était abonné à Google Fi, l’opérateur mobile virtuel du groupe Alphabet), et découvrait « l’effet domino d’avoir été rejeté par Google ».
    >
    >Faute de pouvoir accéder à son adresse email et à son numéro de téléphone, il ne pouvait plus non plus obtenir les codes de sécurité lui permettant de se connecter à ses autres comptes, « le privant d’une grande partie de sa vie connectée ».
    >
    >Kashmir Hill, la journaliste du New York Times, raconte avoir identifié au moins un autre cas similaire. À la demande d’un pédiatre, Cassio avait, lui aussi, pris en photo les parties intimes de son enfant, elles aussi sauvegardées dans Google Photo.
    >
    >Sauf que Cassio était en parallèle en passe d’acheter une maison, et que la brusque fermeture de son compte Google a transformé en « véritable casse-tête » l’obtention de son emprunt immobilier.
    >
    >« En 2021, Google a enregistré à lui seul plus de 600 000 signalements de matériel pédopornographique et a désactivé les comptes de plus de 270 000 utilisateurs en conséquence », précise le New York Times : « les expériences de Mark et de Cassio étaient des gouttes d’eau dans un grand seau ».
    >29 millions de rapports, 4 260 nouvelles victimes potentielles
    >
    >Google a en effet développé un outil reposant sur l’intelligence artificielle afin d’identifier les images d’abus et d’exploitation d’enfants. Rendu public en 2018, il permet non seulement de reconnaître les empreintes d’images d’enfants abusés d’ores et déjà identifiées par les autorités, mais également celles qui ne l’ont pas encore été.
    >
    >Et c’est cet outil, par ailleurs utilisé par Facebook et d’autres entreprises, qui a identifié les photos de Mark et de Cassio comme potentiellement problématiques. Elles auraient ensuite été transmises à un modérateur, afin qu’il confirme qu’elles relèveraient bien de « la définition fédérale de matériel pédopornographique » :
    >
    >« Lorsque Google fait une telle découverte, il verrouille le compte de l’utilisateur, recherche d’autres contenus abusifs et, comme l’exige la loi fédérale, fait un rapport au CyberTipline du National Center for Missing and Exploited Children. »
    >Google API Content Safety
    >

  2. *Il y a quelques semaines*

    Moi :

    >Faudra regarder, les fesses du petit sont toutes rouges

    Ma copine bloqué à un cabinet médical avec le plus grand :

    >Rouge comment ? Attend je vois la pédiatre dans 5 minutes, je vais lui demander.

    *photo envoyé*

    Je suis ravi d’avoir pu échanger avec vous, j’entend des coups à la porte. Je

  3. >LinkedIn a de son côté découvert que seuls 31 des 75 comptes signalés aux autorités de l’UE au cours du second semestre 2021 avaient réellement partagés des contenus CSAM confirmés.

    C’est toujours le même problème avec les catégorisation sur des classes déséquilibrées : il faut se poser la question du ratio fausse alarme/non détection que l’on souhaite avoir.

    Ici, même si on ne connaît pas le taux de non détection, 40% de fausses alarmes me paraît être un système ultra performant (je suppose qu’il n’y a pas du genre 99% de non détection).

  4. Je ne veux absolument pas défendre la pédophilie, mais j’ai quand même l’impression que c’est un tabou qui prend des proportions toujours plus délirantes et qui sert à justifier toutes les dérives totalitaires. Rien qu’à écrire ce commentaire j’ai peut d’être taxé d’immonde pédophile

  5. J’utilise gmail, mais avec mon propre nom de domaine. Quand bien même mon compte se ferait striker, ça n’impacterait pas le moins du monde mes correspondances.

Leave a Reply