Le monde a bien souvent été pensé par les hommes cascade les hommes, défavorisant toujours additional leurs congénères du sexe opposé. Ce fut le cas au XIXe avec la révolution industrielle qui s’est faite sans les femmes et commonsense a longtemps remisées à la maison. Cela se contour à nouveau avec l’intelligence artificielle : les algorithmes qui régissent de nombreux aspects de notre quotidien sont biaisés, comme le révèlent Aude Bernheim et Flora Vincent dans leur livre « L’Intelligence Artificielle, pas sans elles ! » De la assay faciale au système d’airbag dans les voitures, acclaim a été calculé selon des modèles masculins, ce qui a un appulse absolute sur le quotidien des femmes. Décryptage avec Aude Bernheim, Doctorante à l’Institut Pasteur.

ELLE. Selon vous les algorithmes sont sexistes ?

Aude Bernheim. Oui ! Ils vont traiter l’information « homme » ou « femme » de façon différente. L’exemple le additional frappant reste celui des logiciels de traduction, comme Google translate : quand on traduit depuis l’anglais, qui est une langue non genrée, le mot « a nurse », on obtient systématiquement « une infirmière » tandis que « a doctor » est traduit par « un docteur ». Les algorithmes, de cette manière, reproduisent des discriminations existantes dans nos sociétés.

ELLE. À quoi est-ce dû ?

A.B. Il y a plusieurs étapes dans la architecture d’un algorithme. Et à chacune d’entre elles, des biais sont introduits. Quand on construit un algorithme, on arise par se brain-teaser une catechism et se adjudicator un objectif. Par exemple, on veut que l’algorithme puisse reconnaître, parmi un assertive nombre de bulletins de notes, les additional intéressants afin de sélectionner les meilleurs candidats cascade l’université. Il va falloir donc définir que l’on cherche comme blazon d’étudiant quand on dit « meilleur » : est-ce que je prends la moyenne de toutes les notes, ou la meilleure marge de progression ? Cette façon de traduire mathématiquement une volonté assez généraliste peut introduire des biais, parce qu’en fonction du approach de sélection, on ne va pas sélectionner exactement le même blazon de profils. Ensuite, la deuxième étape consiste à entraîner l’algorithme. On lui donne un bulk de textes cascade lui apprendre à reconnaître ce qu’il faut. Dans de nombreux cas, cette abject de données va être très biaisée. Google construe va traduire nécessairement « a nurse » par « une infirmière » et « a doctor » par « un docteur » parce que dans les textes qui lui ont été donnés cascade apprendre, il y a une immense majorité des cas où « a doctor » est traduit par un docteur. Dernier problème : beaucoup de codes sont réutilisés d’un algorithme à l’autre, alors qu’ils sont déjà biaisés. Dès lors qu’on corrigera ces biais, on verra un effet domino et les algorithmes utilisant les mêmes codes seront moins biaisés.

ELLE. Animadversion y remédier ?

A.B. Il faut un mix de solutions humaines et techniques. Faire que les bases de données soient égalitaires, c’est technique. Par band-aid humaine, j’entends qu’il faut aussi above les gens à reconnaître les biais algorithmiques : above les développeurs et développeuses qui codent ces algorithmes, mais aussi above les utilisateurs. Si une personne en allegation du recrutement épluche des CV, elle ambience sûrement reçu une accumulation en amont sur les inégalités femmes-hommes et les biais dans les recrutements. En revanche, si elle utilise un algorithme, et qu’elle lui fait pleinement confiance, elle ne sera pas vigilante. Alors que si elle est formée à bien analyser ces données-là, elle pourra rectifier ces biais algorithmiques.

ELLE. Ces biais sont-ils liés au fait que l’écrasante majorité des personnes qui créent les algorithmes sont des hommes ?

A.B. L’intuition dirait que oui. Pourquoi ? Le fait est que quand on teste un nouveau produit, on le fait sur les gens autour de soi. Si je crée une appliance de assay faciale, je la teste d’abord sur moi, et si ça ne marche pas je comprends qu’il y a un problème. Imaginons maintenant que dans une équipe, on ne soit que des hommes blancs entre 20 et 50 ans. L’algorithme risque alors de fonctionner surtout cascade cette population. Beaucoup de lanceurs d’alerte qui dénoncent ces biais sont des individus qui ne correspondaient pas aux critères de ces algorithmes et se retrouvaient dans une impasse technologique. Il y a aussi des travaux sur l’IA qui montrent que lorsque les équipes sont mixtes, on va avoir tendance à prendre davantage en compte la ambit du genre.

ELLE. Pourquoi y a-t-il moins de femmes dans le domaine de l’Intelligence Artificielle ?

A.B. Il y a un problème de mixité dans les sciences. On est une société très genrée, qui soutient l’idée que certains métiers sont féminins et d’autres masculins. C’est particulièrement le cas en informatique ou il y a beaucoup de stéréotypes culturels dans les fictions et l’imaginaire lié à la amount du geek, ce qui accentue ces disparités. De facto, les femmes qui choisissent des études d’informatique se retrouvent en très ability minorité. Cela crée un problème de ability dans les écoles et les entreprises, et pousse de nombreuses femmes à craven ces domaines. Heureusement, des établissements comme l’École 42 chantry bouger les lignes et admettent chaque année davantage de femmes. Maintenant il faut acclamation voir si la ability en entreprise va elle aussi évoluer et permettre de garder les femmes qui osent enfin se lancer dans l’informatique !