Girl Power: peut-on casser les préjugés en IA et au-delà?

«Si on revient à la théorie de l’homme chasseur, la vie des hommes a été prise pour représenter celle de l’ensemble des êtres humains. Concernant l’autre moitié de l’humanité, il n’y a souvent que le silence. Et ce silence est omniprésent. Les films, les actualités, la littérature, la science, l’urbanisme, l’économie, les histoires que nous nous racontons sur notre passé, notre présent et notre avenir, sont tous marqués – défigurés – par la “présence absente” d’une forme féminine. C’est un écart de données entre les genres. Ce silence et cet écart ne sont pas sans conséquence. Ils ont des répercussions sur la vie des femmes, chaque jour.»

Cet extrait est tiré du livre Femmes invisibles – Comment le manque de données sur les femmes dessine un monde fait pour les hommes de Caroline Criado Perez, dont la lecture a été très difficile pour Anastasia Ailamaki, professeure à la Faculté informatique et communications (IC) de l’EPFL et responsable du Laboratoire de systèmes et applications de traitement de données massives: «Je voulais casser tous les meubles qu’on avait dans la maison. Je suis une femme et je suis spécialiste en bases de données. Cela m’a touchée au plus profond de moi.»

D’après ce livre, la plupart des bureaux sont cinq degrés trop froids pour les femmes parce que la formule utilisée dans les années 1960 pour déterminer la température idéale se basait sur le taux métabolique d’un homme de 40 ans et de 70 kg. Les voitures sont conçues en fonction de l’homme, de sorte que les femmes ont près de 50 % de risques supplémentaires d’être gravement blessées dans un accident. En 2019, on a constaté qu’un algorithme de Facebook permettait aux publicitaires de cibler délibérément les publicités en fonction du genre, le travail d’infirmière et de secrétaire étant suggéré principalement aux femmes. La même année, des plaintes ont été déposées à l’encontre d’Apple, accusée de faire preuve de partialité à l’égard des femmes en proposant une carte de crédit avec des limites de crédit différentes en fonction du genre.

«Les hommes ont juste des préjugés contre les femmes. Les femmes ont des préjugés contre les femmes. Tout le monde a des préjugés contre les femmes. Dans mon travail, je suis la seule femme. Les gens disent que c’est à cause de ce que je fais, mais ce n’est pas une donnée, c’est un résultat», poursuit Anastasia Ailamaki. Alors comment casser ce préjugé alors que l’intelligence artificielle devient omniprésente avec le risque de faire reculer l’égalité des genres de plusieurs décennies?

De nombreuses données historiques sont manifestement biaisées, car elles reflètent la société de l’époque et les algorithmes d’apprentissage machine sont entraînés avec ces données. Est-il possible de modifier ces algorithmes pour tenir compte des partis pris historiques?

Robert West, professeur assistant et responsable du Laboratoire de science des données (dlab) de l’EPFL confie: «Je pense qu’aujourd’hui on ne sait pas le faire, car le monde numérique est un système dynamique complexe. Ce n’est pas comme si tu tournais un bouton et qu’ensuite tu réglais le problème. Cela fonctionne plus comme un marché boursier. En tournant le bouton vous changez les incitations et alors tout est affecté, et vous ne savez pas vraiment ce qui en ressort. Je pense que cela se résumera à la mise en place de plateformes expérimentales où nous pourrons tourner des boutons et ensuite voir, pour le groupe de personnes concernées, comment les choses ont changé.»

Malgré la complexité des systèmes dans lesquels doivent évoluer les informaticiennes et informaticiens d’aujourd’hui, des travaux sont menés pour atténuer les préjugés, en essayant d’optimiser les algorithmes pour qu’ils soient non seulement précis, mais aussi équitables. Mais que signifie «équitable» et comment mesurer si quelque chose l’est?

«L’équité pourrait simplement être que si vous êtes une étudiante, l’algorithme a la même précision pour votre prédiction que si vous étiez un étudiant. À présent, au moins, les gens savent la plupart du temps que leur algorithme peut être biaisé et qu’il faut peut-être le vérifier. Je pense que c’est une première étape. Si je regarde mon domaine de recherche, je dirais qu’il y a 10 ans, on ne parlait pas d’équité, mais de précision. Maintenant, c’est complètement différent», raconte Tanja Käser, professeure assistante et responsable du Laboratoire d’apprentissage machine pour l’éducation.

Robert West convient que les définitions de l’équité seront différentes selon les personnes et que les informaticiennes et informaticiens doivent participer activement à ces discussions: «C’est un peu comme la bombe atomique. Quand vous avez la technologie, vous pouvez construire des centrales électriques et aussi des bombes. Nous avons le moteur de recherche. Il nous permet de faire des choses fantastiques mais il a aussi des effets négatifs. Je pense vraiment que les informaticiennes et informaticiens devraient suivre des cours d’éthique. Ils ne devraient pas prendre ces décisions seuls. Il est important qu’ils aient conscience des critères d’évaluation qui seront appliqués à un moment donné à leur technologie.»

Ce problème étant le reflet plus large des préjugés de la société, de la manière dont nous sommes élevés et dont nous voyons la dynamique des relations et de la vie professionnelle de nos parents, Tanja Käser estime qu’il faut commencer à éduquer les garçons et les filles dès leur plus jeune âge.

«On devrait commencer par les mathématiques et les STEM au niveau de l’école élémentaire. Il faudrait que ce soit plus intéressant pour les filles de faire des STEM, mais cela ne va pas changer rapidement. J’aime mettre l’accent sur les choses sympas que nous pouvons faire avec l’informatique et qui ont des répercussions sur la société. Mon sujet, comment l’apprentissage machine peut optimiser l’apprentissage humain, est interdisciplinaire et je fais des choses techniques, mais c’est très humain et je peux avoir un impact important. J’espère pouvoir être un bon modèle, c’est tellement important», confie-t-elle.

Anastasia Ailamaki a une perspective légèrement différente. «Nous ne pouvons rien faire pour la dame ordinaire qui pense que le bleu est pour les garçons et le rose pour les filles. Elle a une opinion et nous devons la respecter. Par contre, nous pouvons apporter des changements dans un environnement professionnel. Nous devons promouvoir un monde sans genre sur le lieu de travail, un monde où l’on est jugé pour ses capacités, et non pour son statut d’homme ou de femme. Ensuite, il s’agit de savoir jusqu’où on remonte. Nous devons arrêter d’appeler les enfants garçons et filles à l’école. Nous devons aussi empêcher le corps enseignant de dire aux enfants “nous allons te poser cette question parce que tu es un garçon et toi cette question parce que tu es une fille”, mais à l’extérieur, les gens doivent être qui ils sont.»

Robert West, qui est père de trois jeunes filles, pense souvent au monde dans lequel elles grandissent et à sa contribution au monde de demain: «Je veux qu’elles puissent faire ce qu’elles souhaitent sans contraintes sociales. Cela peut paraître idiot, mais je pense qu’il est important d’être gentil et chaleureux avec tout le monde, et c’est peut-être encore plus important en amont. Je pense qu’il y a beaucoup de filles qui fuient certaines activités parce qu’elles seraient les seules filles à les faire. Il est important de réfléchir à ce que nous devons changer dans les universités, et oui, nous devons changer, mais je ne suis pas sûr que ce changement soit le plus important. Et nous devons impliquer les hommes dans les conversations et les solutions. Nous représentons 50 % de la population et nous devons être aussi proactifs que les femmes pour bâtir un avenir moins biaisé.»

Author(s): Tanya Petersen
Importé depuis EPFL Actu
Array