C’est vertigineux. Cela veut dire que des floutages d’émissions passées qui sont sur youtube par exemple sont réversibles.
J’aime bien l’idée. Je me demande quand même s’ils ont réfléchi à un effet pervers, il se passe quoi si le visage virtuel ressemble à celui d’une vraie personne ?
Le seul floutage valide est de ne pas être filmé.
C’est une problématique intéressante et je pense que le problème est surtout dans le choix dans la méthode de floutage.
Si on fait un parallèle avec la sécurité des données, je pense qu’il faut simplement trouver une autre méthode plus forte sans pour autant arriver au carré noir.
>Dans le cadre de *Nous, jeunesse(s) d’Iran*, donner un visage à ces femmes tout en les protégeant donne une puissance symbolique forte à ces témoignages. Cependant, la réalisatrice ne souhaite pas utiliser de nouveau cette technique, ce choix résultant davantage de contraintes.
J’avoue ne pas bien comprendre. Quelles contraintes? De coût? De droits d’auteur?
C’est pas étonnant, ça fait déjà quelques années qu’on est capable de faire ce genre de choses avec un taux de succès raisonnable.
La seule vraie solution reste le masquage complet par un bloc opaque (et ce que ce soit pour des visages, des documents, des QRCodes…). Après, on peut mettre un carré noir, un smiley, ou une photo de valéry giscard d’estaing, ça revient globalement au même. La seule contrainte, c’est que ce qu’on utilise pour masquer ne doit pas être généré à partir de ce qu’on veux masquer. Comme ça, on est sur qu’aucune info ne fuite.
Même avec du deepfake, on peut imaginer, dans 10 ou 20 ans, que on serait capable de déterminer certaines propriétées du visage masqué à partir du deepfake généré et du modèle utilisé pour le fabriquer, et utiliser ces propriétées pour faciliter l’identification de la personne.
Ça présente le double avantage d’expliciter qu’est-ce qui est masqué et qu’est-ce qui ne l’est pas.
Super utilisation des IA génératrives !
Et ça donnera de suite moins cette ambiance étrange avec les pixels flous… Vraiment super idée
Dans l’excelllllent docu Crime en eaux profondes, ils utilisent un visage deepfake pour masquer l’identité d’un témoin important, même quand elle est filmée en train de bouger etc.
C’est visible mais ça fonctionne bien.
Le docu est vraiment très bon (et glaçant) 😐
C’est vraiment du floutage de gueule.
Je vote pour un retour a l’anonymisation comme ils faisaient dans les talk shows minables avec perruques et lunettes de soleil géantes
Je suis monteur vidéo et tkt que si je floutte assez fort aucune IA pourra deviner qui se cache derrière.
Pardon mais si le floutage détruit de l’information, l’AI va en réinventer de la crédible mais en aucun cas deflouter car il n’y a pas de moyen de recréer l’information perdue.
Le visage deflouté sera peut être crédible mais ça ne sera pas le vrai.
On n’est pas loin des films américains où le Hero zoome sur un pixel et active la fonction netteté pour lire une plaque d’immatriculation.
12 comments
C’est vertigineux. Cela veut dire que des floutages d’émissions passées qui sont sur youtube par exemple sont réversibles.
J’aime bien l’idée. Je me demande quand même s’ils ont réfléchi à un effet pervers, il se passe quoi si le visage virtuel ressemble à celui d’une vraie personne ?
Le seul floutage valide est de ne pas être filmé.
C’est une problématique intéressante et je pense que le problème est surtout dans le choix dans la méthode de floutage.
Si on fait un parallèle avec la sécurité des données, je pense qu’il faut simplement trouver une autre méthode plus forte sans pour autant arriver au carré noir.
>Dans le cadre de *Nous, jeunesse(s) d’Iran*, donner un visage à ces femmes tout en les protégeant donne une puissance symbolique forte à ces témoignages. Cependant, la réalisatrice ne souhaite pas utiliser de nouveau cette technique, ce choix résultant davantage de contraintes.
J’avoue ne pas bien comprendre. Quelles contraintes? De coût? De droits d’auteur?
C’est pas étonnant, ça fait déjà quelques années qu’on est capable de faire ce genre de choses avec un taux de succès raisonnable.
La seule vraie solution reste le masquage complet par un bloc opaque (et ce que ce soit pour des visages, des documents, des QRCodes…). Après, on peut mettre un carré noir, un smiley, ou une photo de valéry giscard d’estaing, ça revient globalement au même. La seule contrainte, c’est que ce qu’on utilise pour masquer ne doit pas être généré à partir de ce qu’on veux masquer. Comme ça, on est sur qu’aucune info ne fuite.
Même avec du deepfake, on peut imaginer, dans 10 ou 20 ans, que on serait capable de déterminer certaines propriétées du visage masqué à partir du deepfake généré et du modèle utilisé pour le fabriquer, et utiliser ces propriétées pour faciliter l’identification de la personne.
Ça présente le double avantage d’expliciter qu’est-ce qui est masqué et qu’est-ce qui ne l’est pas.
Super utilisation des IA génératrives !
Et ça donnera de suite moins cette ambiance étrange avec les pixels flous… Vraiment super idée
Dans l’excelllllent docu Crime en eaux profondes, ils utilisent un visage deepfake pour masquer l’identité d’un témoin important, même quand elle est filmée en train de bouger etc.
C’est visible mais ça fonctionne bien.
Le docu est vraiment très bon (et glaçant) 😐
C’est vraiment du floutage de gueule.
Je vote pour un retour a l’anonymisation comme ils faisaient dans les talk shows minables avec perruques et lunettes de soleil géantes
Je suis monteur vidéo et tkt que si je floutte assez fort aucune IA pourra deviner qui se cache derrière.
Pardon mais si le floutage détruit de l’information, l’AI va en réinventer de la crédible mais en aucun cas deflouter car il n’y a pas de moyen de recréer l’information perdue.
Le visage deflouté sera peut être crédible mais ça ne sera pas le vrai.
On n’est pas loin des films américains où le Hero zoome sur un pixel et active la fonction netteté pour lire une plaque d’immatriculation.