**Facebook Files | Dans des documents internes de l’entreprise, ses ingénieurs avouent leur incompréhension face à un code informatique aux effets imprévus, qui fait du réseau social une machine complexe, difficile à maîtriser.**
C’est peut-être le principal sentiment qui émerge à la lecture des « Facebook Files ». Parmi ces milliers de pages de documents internes à Facebook, récupérés par Frances Haugen, une ancienne employée, et transmis par une source parlementaire américaine à plusieurs médias, dont Le Monde, de nombreux passages semblent indiquer que Facebook ne comprend plus, ou mal, ce que font ses propres algorithmes. Et que son réseau social est devenu une machine difficile à contrôler.
​
**Les « Facebook Files », une plongée dans les rouages de la machine à « likes »**
Les « Facebook Files » sont plusieurs centaines de documents internes à Facebook copiés par Frances Haugen, une spécialiste des algorithmes, lorsqu’elle était salariée du réseau social. Ils ont été fournis au régulateur américain et au Congrès, puis transmis par une source parlementaire américaine à plusieurs médias, expurgés des informations personnelles des salariés de Facebook. En Europe, ces médias sont, outre Le Monde, le quotidien allemand Süddeutsche Zeitung, les chaînes de télévision WDR et NDR, le Groupe Tamedia, Knack, Berlingske et l’OCCRP.
Ils montrent que Facebook consacre davantage de ressources à limiter ses effets néfastes en Occident, au détriment du reste du monde. Ils attestent que ces effets sont connus en interne mais les signaux d’alerte pas toujours pris en compte. Enfin, ils prouvent que les algorithmes de Facebook sont devenus d’une complexité telle qu’ils semblent parfois échapper à leurs propres auteurs.
C’est notamment le cas pour un algorithme crucial, chargé de « classer » les messages qui s’affichent dans le fil d’actualité des utilisateurs : Facebook utilise une multitude de signaux, des plus simples – le nombre de personnes abonnées à une page – aux plus complexes – l’intérêt que les « amis » d’un utilisateur ont manifesté pour un sujet – afin d’attribuer un « score » à un message. Plus ce score est élevé, plus il a des chances d’apparaître dans le fil d’actualités.
Or, avec le temps et l’accumulation de nouveaux signaux ajoutés par les ingénieurs du réseau social, le « score » moyen d’un message a explosé. Dans un document non daté, un analyste de Facebook a procédé à quelques calculs, et constate que pour certains contenus, le score « peut dépasser 1 milliard ». Ce qui a pour conséquence très directe de rendre de nombreux outils de modération inopérants. Ces derniers réduisent de 20 %, 30 % ou 50 % le score de certains messages problématiques, afin d’éviter qu’ils ne soient trop diffusés. Mais pour les contenus les mieux notés, le score est tellement élevé que le diviser par deux ne les empêche pas de continuer à s’afficher. « Certains de ces contenus resteraient en tête même si on appliquait une baisse de leur score de 90 % », regrette l’auteur du document.
​
**Système complexe sans « vision unifiée »**
Ce problème n’est absolument pas le résultat d’une politique intentionnellement mise en place, qui considérerait que certains messages devraient être immunisés contre les outils de modération automatiques. C’est simplement l’un des très nombreux effets de bord provoqués par les centaines de modifications des algorithmes de Facebook, au fil des ans, dont les propres ingénieurs du réseau social semblent ne pas pouvoir anticiper toutes les conséquences.
« Les différentes parties des applications de Facebook interagissent les unes avec les autres de façon complexe » et chaque équipe développe des modifications sans qu’il y ait une « vision systémique unifiée », regrette ainsi l’employée Mary Beth Hunzaker, dans une longue note rédigée à l’occasion de son départ de Facebook, en août 2020. La conséquence ? « Un risque accru de problèmes facilités ou amplifiés par des interactions imprévues entre des fonctions ou des services de la plate-forme. »
Dans l’un des document anonymisés transmis au Congrès américain par l’ex-employée de Facebook Frances Haugen, une employée regrette, à l’occasion de son départ, la complexité des systèmes mis en place par le réseau social.
A de multiples reprises, des employés témoignent, dans des documents internes, de leur incompréhension face à des comportements problématiques de leur code informatique. En Inde, ce sont des vidéos pornographiques soft qui se retrouvent subitement mises en avant dans l’onglet Watch, sans que personne ne comprenne pourquoi. Aux Etats-Unis, des ingénieurs s’arrachent les cheveux pour comprendre pourquoi certains groupes politiques continuent d’être recommandés aux utilisateurs alors qu’ils ne devraient plus l’être.
« Chaque expérience change la composition du fil d’actualité de manière imprévue », note un document de 2018. Deux ans plus tard, les analystes de Facebook se réjouissent de constater que le nombre de contenus engendrant de la colère semble en forte baisse dans les fils d’actualité, mais ils sont bien en peine d’expliquer pourquoi. « Ce résultat pourrait en théorie être la conséquence d’un ou plusieurs changements apportés à l’algorithme dans les deux derniers mois. En dernière analyse, il pourrait être difficile de déterminer lesquels », note un document.
Interrogé à ce sujet, Facebook reconnaît volontiers que ses algorithmes sont devenus des outils très complexes, mais s’enorgueillit de les modifier régulièrement pour les améliorer. Si les conséquences des changements ne sont pas toujours simples à prévoir, le réseau social assure que les sondages qu’il effectue régulièrement auprès de ses utilisateurs lui permettent de détecter rapidement tout problème majeur et, le cas échéant, de revenir en arrière si une modification s’avère trop problématique.
Quand je vois les propositions de Facebook, je peux comprendre que l’algo part en couille. La modération est aussi aux fraises de ce que j’ai pu constater, plus sur FB qu’ailleurs j’ai l’impression.
Le nombre d’arnaques “publicitaires” est aussi assez aberrant , genre Amazon va vendre des lots de colis abimés~/non réclamés pour 45€ et tu peux tomber sur une Switch/PS5/XsX, ou des chaussures de marques pour un tier du prix car gros destockage.
ça m’étonne pas que spitting image a décidé de caricaturer la modération facebook avec des singes qui font n’imp en fait si l’algorithme lui même est foireux
4 comments
**Facebook Files | Dans des documents internes de l’entreprise, ses ingénieurs avouent leur incompréhension face à un code informatique aux effets imprévus, qui fait du réseau social une machine complexe, difficile à maîtriser.**
C’est peut-être le principal sentiment qui émerge à la lecture des « Facebook Files ». Parmi ces milliers de pages de documents internes à Facebook, récupérés par Frances Haugen, une ancienne employée, et transmis par une source parlementaire américaine à plusieurs médias, dont Le Monde, de nombreux passages semblent indiquer que Facebook ne comprend plus, ou mal, ce que font ses propres algorithmes. Et que son réseau social est devenu une machine difficile à contrôler.
​
**Les « Facebook Files », une plongée dans les rouages de la machine à « likes »**
Les « Facebook Files » sont plusieurs centaines de documents internes à Facebook copiés par Frances Haugen, une spécialiste des algorithmes, lorsqu’elle était salariée du réseau social. Ils ont été fournis au régulateur américain et au Congrès, puis transmis par une source parlementaire américaine à plusieurs médias, expurgés des informations personnelles des salariés de Facebook. En Europe, ces médias sont, outre Le Monde, le quotidien allemand Süddeutsche Zeitung, les chaînes de télévision WDR et NDR, le Groupe Tamedia, Knack, Berlingske et l’OCCRP.
Ils montrent que Facebook consacre davantage de ressources à limiter ses effets néfastes en Occident, au détriment du reste du monde. Ils attestent que ces effets sont connus en interne mais les signaux d’alerte pas toujours pris en compte. Enfin, ils prouvent que les algorithmes de Facebook sont devenus d’une complexité telle qu’ils semblent parfois échapper à leurs propres auteurs.
C’est notamment le cas pour un algorithme crucial, chargé de « classer » les messages qui s’affichent dans le fil d’actualité des utilisateurs : Facebook utilise une multitude de signaux, des plus simples – le nombre de personnes abonnées à une page – aux plus complexes – l’intérêt que les « amis » d’un utilisateur ont manifesté pour un sujet – afin d’attribuer un « score » à un message. Plus ce score est élevé, plus il a des chances d’apparaître dans le fil d’actualités.
Or, avec le temps et l’accumulation de nouveaux signaux ajoutés par les ingénieurs du réseau social, le « score » moyen d’un message a explosé. Dans un document non daté, un analyste de Facebook a procédé à quelques calculs, et constate que pour certains contenus, le score « peut dépasser 1 milliard ». Ce qui a pour conséquence très directe de rendre de nombreux outils de modération inopérants. Ces derniers réduisent de 20 %, 30 % ou 50 % le score de certains messages problématiques, afin d’éviter qu’ils ne soient trop diffusés. Mais pour les contenus les mieux notés, le score est tellement élevé que le diviser par deux ne les empêche pas de continuer à s’afficher. « Certains de ces contenus resteraient en tête même si on appliquait une baisse de leur score de 90 % », regrette l’auteur du document.
​
**Système complexe sans « vision unifiée »**
Ce problème n’est absolument pas le résultat d’une politique intentionnellement mise en place, qui considérerait que certains messages devraient être immunisés contre les outils de modération automatiques. C’est simplement l’un des très nombreux effets de bord provoqués par les centaines de modifications des algorithmes de Facebook, au fil des ans, dont les propres ingénieurs du réseau social semblent ne pas pouvoir anticiper toutes les conséquences.
« Les différentes parties des applications de Facebook interagissent les unes avec les autres de façon complexe » et chaque équipe développe des modifications sans qu’il y ait une « vision systémique unifiée », regrette ainsi l’employée Mary Beth Hunzaker, dans une longue note rédigée à l’occasion de son départ de Facebook, en août 2020. La conséquence ? « Un risque accru de problèmes facilités ou amplifiés par des interactions imprévues entre des fonctions ou des services de la plate-forme. »
Dans l’un des document anonymisés transmis au Congrès américain par l’ex-employée de Facebook Frances Haugen, une employée regrette, à l’occasion de son départ, la complexité des systèmes mis en place par le réseau social.
A de multiples reprises, des employés témoignent, dans des documents internes, de leur incompréhension face à des comportements problématiques de leur code informatique. En Inde, ce sont des vidéos pornographiques soft qui se retrouvent subitement mises en avant dans l’onglet Watch, sans que personne ne comprenne pourquoi. Aux Etats-Unis, des ingénieurs s’arrachent les cheveux pour comprendre pourquoi certains groupes politiques continuent d’être recommandés aux utilisateurs alors qu’ils ne devraient plus l’être.
« Chaque expérience change la composition du fil d’actualité de manière imprévue », note un document de 2018. Deux ans plus tard, les analystes de Facebook se réjouissent de constater que le nombre de contenus engendrant de la colère semble en forte baisse dans les fils d’actualité, mais ils sont bien en peine d’expliquer pourquoi. « Ce résultat pourrait en théorie être la conséquence d’un ou plusieurs changements apportés à l’algorithme dans les deux derniers mois. En dernière analyse, il pourrait être difficile de déterminer lesquels », note un document.
Interrogé à ce sujet, Facebook reconnaît volontiers que ses algorithmes sont devenus des outils très complexes, mais s’enorgueillit de les modifier régulièrement pour les améliorer. Si les conséquences des changements ne sont pas toujours simples à prévoir, le réseau social assure que les sondages qu’il effectue régulièrement auprès de ses utilisateurs lui permettent de détecter rapidement tout problème majeur et, le cas échéant, de revenir en arrière si une modification s’avère trop problématique.
Quand je vois les propositions de Facebook, je peux comprendre que l’algo part en couille. La modération est aussi aux fraises de ce que j’ai pu constater, plus sur FB qu’ailleurs j’ai l’impression.
Le nombre d’arnaques “publicitaires” est aussi assez aberrant , genre Amazon va vendre des lots de colis abimés~/non réclamés pour 45€ et tu peux tomber sur une Switch/PS5/XsX, ou des chaussures de marques pour un tier du prix car gros destockage.
ça m’étonne pas que spitting image a décidé de caricaturer la modération facebook avec des singes qui font n’imp en fait si l’algorithme lui même est foireux
Un peu comme le bandeau d’information de BFMTV.