Femmes et IA, le risque d’un avenir technologique biaisé

L’intelligence artificielle est en train de s’infiltrer partout : dans nos téléphones, nos voitures, nos recommandations Netflix, notre quotidien… et même nos processus de recrutement. Il faut dire qu’elle nous facilite vraiment la vie au jour le jour !
Mais surprise (ou pas) : cette belle innovation technologique a un gros souci, elle est biaisée, et pas juste un peu. Pourquoi ? Parce qu’elle est conçue majoritairement par des hommes avec des bases de données qui reflètent les inégalités existantes. Résultat ? Des algorithmes qui recyclent des clichés plus vieux que le Minitel…

Quand l’IA devient sexiste en toute tranquillité

Les algorithmes d’IA ne naissent pas sexistes, non, non, c’est nous qui leur enseignons nos beaux travers. Si on leur donne des données biaisées, ils font du copier-coller XXL et appliquent ces biais comme des vérités absolues. Et après, on s’étonne des dégâts !

« Désolé, vous n’existez pas »

Prenons la reconnaissance faciale : en 2024, une étude menée par le NIST (National Institute of Standards and Technology) a révélé que ces systèmes avaient jusqu’à 10 fois plus de chances de se tromper sur des visages féminins et non blancs. Génial. Vous êtes une femme noire ? L’algorithme peut carrément nier votre existence. Pratique, surtout si on commence à l’utiliser pour contrôler les frontières ou identifier des suspects.

« Désolée, Aya, mais Steven est un meilleur profil »

Amazon a essayé en 2018, de mettre en place un recrutement par IA, mais ça n’a pas marché… Leur IA de recrutement a vite compris que dans la tech, les CV masculins avaient historiquement plus de succès : Elle a donc naturellement blacklisté les CV contenant le mot « femme ». La subtilité d’un marteau-piqueur.

Et en 2024, rebelote : une étude de Harvard a prouvé que les systèmes d’IA privilégient encore 85 % du temps les candidatures masculines car ils sont entraînés sur des historiques de recrutement ultra-genrés. Félicitations les gars, vous avez un nouvel allié dans votre carrière !

« Alexa, sois mignonne et obéis »

Pourquoi nos assistants vocaux ont-ils presque tous une voix féminine ? C’est facile : parce qu’un ton doux et féminin est jugé plus « agréable », et voilà donc des IA qui perpétuent l’image de la femme serviable et docile.
Jusqu’en 2019, ces assistants répondaient même aux blagues et insultes sexistes par des « merci pour le compliment ». Heureusement, après un bon scandale, Apple, Google et Amazon ont enfin ajusté leurs réglages !

Pourquoi on en est encore là ? Spoiler, la tech a un problème de diversité

Petite devinette : qui conçoit ces IA ?
Réponse : 88 % d’hommes (étude AI Now Institute, 2025).
Traduction : la diversité, c’est pas leur fort. Et forcément, quand on code entre potes qui ont tous le même background, on ne pense pas toujours à vérifier si l’IA fonctionne bien pour d’autres profils.

Et puis, il y a aussi la grande mode du « on ne sait pas trop comment l’algorithme fonctionne mais faisons-lui confiance ». Facile de fermer les yeux ! Les modèles d’IA sont souvent des boîtes noires, ce qui veut dire que quand ils font n’importe quoi, on met parfois des années à comprendre pourquoi.

Comment éviter que l’IA devienne le parfait « Mansplainer » ?

Heureusement, on peut encore rectifier le tir ! Bon, c’est plus simple à dire qu’à faire, et il va y avoir du boulot, mais c’est à nous de se retrousser les manches pour que ça bouge !

Des solutions techniques

Il existe des solutions techniques pour minimiser les biais, cependant il est toujours important de savoir qu’il n’y a pour l’instant pas de baguette magique, et que lorsque l’on tente de minimiser un biais social avec la tech… on peut en créér un autre ! C’est le cas de SMOTE par exemple.

Lui donner un terrain de jeu plus juste

Une IA, c’est comme un élève : si on ne lui donne que des exemples biaisés, elle va les prendre pour vérité absolue. Pour éviter ça, il faut enrichir son terrain d’apprentissage avec des données plus variées et mieux équilibrées.

Data augmentation

Histoire que l’IA arrête de croire qu’un « ingénieur » est forcément un homme blanc en costume, on peut enrichir ses bases d’apprentissage en créant artificiellement plus de diversité. Ça peut passer par des transformations géométriques (rotation, recadrage d’images), des modifications de couleurs (contraste, luminosité) ou encore par la synthétisation de nouvelles données avec des réseaux neuronaux comme les GANs (Generative Adversarial Networks).

Rebalancement des jeux de données

Actuellement, les bases de données sur lesquelles les IA s’entraînent ressemblent un peu à une classe où certains élèves ont 100 fois plus d’heures de cours que d’autres. Résultat ? L’IA favorise toujours les mêmes profils. Pour corriger ça, on peut :

  • Sous-échantillonner (undersampling) les classes sur-représentées pour réduire leur influence.
  • Sur-échantillonner (oversampling) les classes sous-représentées pour mieux équilibrer l’apprentissage. Une méthode comme SMOTE (Synthetic Minority Over-sampling Technique) permet par exemple de créer artificiellement de nouveaux exemples issus des données minoritaires.
Audits et suivi des bases de données

Comme un prof qui relit les copies, il faut vérifier régulièrement ce que l’IA apprend. Des analyses automatisées peuvent repérer les déséquilibres et biais cachés, et des tableaux de bord de suivi permettent d’ajuster la diversité des données en temps réel.

Reprogrammer l’IA pour qu’elle arrête de juger à vue d’œil

Si on laisse une IA apprendre sans supervision, elle risque surtout d’amplifier les inégalités existantes. Heureusement, il existe des techniques pour lui imposer des garde-fous et éviter qu’elle ne devienne un recruteur des années 1950.

Fairness-Aware Learning

L’idée est d’intégrer l’équité directement dans son apprentissage. Plusieurs approches existent :

  • Reweighing : Ajuster les poids des données pour éviter que l’IA ne favorise certains profils juste parce qu’ils sont plus nombreux dans l’historique.
  • Apprentissage adversarial (adversarial debiasing) : Un peu comme un détecteur de biais intégré, cette méthode entraîne l’IA à « oublier » certaines caractéristiques discriminantes (genre, origine…) en opposant deux réseaux neuronaux, dont un chargé de repérer les biais.
Régularisation des modèles

On peut imposer des contraintes aux algorithmes pour limiter leur dépendance à certaines variables sensibles. L’objectif ? Empêcher l’IA de trop s’appuyer sur des tendances historiques qui la poussent à discriminer.

Post-processing

Même après qu’une IA ait pris une décision, il est encore possible de corriger ses biais :

  • Recalibrage des scores : Ajuster les évaluations finales pour éviter qu’une catégorie de candidats soit systématiquement sous-évaluée.
  • Réajustement des seuils de décision : Modifier les critères d’acceptation pour assurer une équité entre les différentes catégories.

C’est un peu comme repasser derrière un prof injuste pour ajuster les notes… sauf qu’ici, il s’agit de carrières et d’opportunités réelles.

Des solutions humaines

Lutter contre les biais sexistes de l’IA ne se limite pas à un problème technique. C’est aussi une question humaine, et ça commence dès la conception des algorithmes. Parce qu’une IA est à l’image de celles et ceux qui la programment, si les équipes derrière restent homogènes, les biais, eux, restent bien ancrés.

Diversifier les équipes humaines

Actuellement, l’intelligence artificielle est principalement développée par des hommes blancs issus des mêmes parcours académiques. Ça donne des IA qui considèrent un candidat masculin comme plus qualifié ou qui peinent à reconnaître les visages féminins et non blancs. Intégrer plus de femmes et de minorités dans la tech, c’est permettre d’avoir des points de vue différents et d’anticiper les biais dès la conception. Et soyons clairs : ce n’est pas qu’une question d’éthique, c’est une question d’efficacité. Une IA qui comprend mieux la diversité du monde réel sera forcément plus pertinente et performante !

Sensibiliser et former

Un algorithme, c’est un outil. Mais si ceux qui le conçoivent ne sont pas conscients des biais qu’ils y injectent, c’est le début des problèmes. Les ingénieurs et data scientists doivent être formés aux biais algorithmiques, comprendre comment ils se créent et apprendre à les corriger. Parce que coder sans se poser de questions, c’est comme cuisiner sans goûter : on risque de servir une catastrophe. Il est donc essentiel d’intégrer dans les cursus de formation des modules dédiés à l’éthique et à l’équité en intelligence artificielle. Sans ça, on continuera à bâtir des technologies qui renforcent les inégalités au lieu de les corriger.

Responsabiliser les entreprises

Les grandes entreprises tech doivent aller au-delà des beaux discours et mettre en place de vraies politiques d’inclusion et de contrôle des biais. Ça passe par des audits réguliers de leurs IA, des comités éthiques avec des expert·es indépendants, et des objectifs clairs en matière de diversité dans le recrutement. Parce qu’à force d’attendre que les choses changent toutes seules, on risque juste d’avoir des algorithmes qui nous expliquent que les inégalités, finalement, c’est « mathématiquement logique ».

Bref, si on veut que l’IA soit vraiment intelligente, il va falloir commencer par l’entourer de personnes qui ne pensent pas toutes pareil !

Sources
  1. National Institute of Standards and Technology (NIST)Face Recognition Vendor Test (FRVT), Part 3: Demographic Effects, 2019.
     https://www.nist.gov/publications/face-recognition-vendor-test-frvt-part-3-demographic-effects
  2. AI Now InstituteAI Now 2018 Report, 2018.
    https://ainowinstitute.org/wp-content/uploads/2023/04/AI_Now_2018_Report.pdf
  3. Amazon AI Recruiting BiasReuters – Amazon Scraps Secret AI Recruiting Tool That Showed Bias Against Women, 2018.
    https://www.reuters.com/article/amazon-com-jobs-automation-idUSKCN1MK08G
  4. UNESCOArtificial Intelligence and Gender Equality, 2020. https://unesdoc.unesco.org/ark:/48223/pf0000374174
  5. NumeramaReconnaissance faciale : une étude montre que les algorithmes discriminent plus les femmes noires, 2019.
    https://www.numerama.com/politique/535715-reconnaissance-faciale-une-etude-montre-que-les-algorithmes-discriminent-plus-les-femmes-noires.html