Lors de la coupe de France de Robotique Junior, organisée par Planet Sciences à la cité de l’espace, une table ronde s’est tenue avec comme sujet : « L’IA pas sans elles » avec 4 expertes et scientifiques du domaine, sur la place des femmes dans l’IA.

Quelques chiffres sourcés parlent tous seuls : 24 % des professionnels du numérique sont des femmes, dans l’IA spécifiquement, 14.8 % des postes dans l’IA en France sont occupés par des femmes, un tiers des étudiantes disent avoir été découragées (2 fois plus que les hommes), 33 % des filles disent être encouragées vers le numérique par leurs parents (contre 61 % des garçons).

Lors de cette rencontre, plusieurs questions ont été soulevées : pourquoi y a-t-il moins de femmes en IA aujourd’hui ? Qu’est-ce qu’un biais de genre ? Quelles conséquences sur la vie réelle ? Changer les algorithmes ou les personnes qui font les algorithmes ? Comment faire pour que les données/algorithmes soient moins biaisées ? Des solutions concrètes pour changer les choses ? La situation est-elle la même ailleurs qu’en France ? Quelques leviers et réponses ont été suggérés par les expertes : Celine Chantry-Darmon suggère : « Il faut agir dès la petite enfance » .

La chercheuse Fatiha Tali Otmani constate et propose : « Le phénomène d’auto-efficacité des filles dans le numérique que j’étudie est plus faible que celle des garçons : il faut renforcer les actions/ateliers en non-mixité (entre filles) pour qu’elles prennent toute leur place et confiance sur ces sujets, par exemple l’atelier Matild-IA proposé par Planète Sciences Occitanie. Chloé Braud rajoute: « Il faut donner des moyens à la recherche d’identifier ces biais ». Et Corinne Joffre voudrait : « Élever le niveau de curiosité de tous et de toutes ».

Les 4 scientifiques sont unanimes : « Il faut visibiliser les femmes pour avoir des modèles féminins inspirants ». Pour aller plus loin sur le sujet : lire « Les décodeuses du numérique » éditions du CNRS et / ou visionner « mon combat contre les algorithmes biaisés » de Joy Buolamwini.