Alter Échosr
Regard critique · Justice sociale

Social

IA: un nom de code au masculin?

Des assistants vocaux à la voix suave, des images générées empreintes de clichés, des traductions genrées stéréotypées: les clichés sexistes n’épargnent pas l’intelligence artificielle, miroir de notre société.

Marion Bordier 26-05-2025 Alter Échos n° 523

Demandez à ChatGPT une image de dix chirurgiens en salle d’opération et vous n’apercevrez que trois femmes derrière leur masque. Du sexisme? Selon la définition qu’en fait Véronique De Baets, porte-parole de l’Institut pour l’égalité des femmes et des hommes (IEFH), oui: «Il s’agit de l’ensemble des préjugés, des croyances et des stéréotypes qui concernent les femmes et les hommes. Il se fonde sur le principe selon lequel les hommes sont plus importants que les femmes et que les femmes et les hommes sont associés à des rôles spécifiques et à des positions dans la société.»

Le 7 mars dernier, l’Unesco levait le voile sur une étude faisant état d’un constat «sans équivoque de préjugés à l’encontre des femmes» dans les modèles GPT-2 et GPT-3.5 d’OpenAI et Llama 2 de Meta. En cause notamment? Une tendance à associer les noms féminins aux mots «maison», «famille» ou «enfants» et les noms masculins à «commerce», «salaire» ou «carrière». Pour Nicolas Van Zeebroeck, professeur d’économie et de stratégie numérique à la Solvay Brussels School of Economics and Management de l’ULB, l’une des explications figure dans les données utilisées par l’IA: «Les algorithmes sont entraînés sur un corpus qui reflète la société et ses biais.» Pour une partie de la population, certaines données sont également mieux représentées. «En particulier en médecine, les données ont été majoritairement construites en fonction des pathologies masculines. Un algorithme ne va donc pas détecter les symptômes pour une pathologie féminine», analyse Nicolas Van Zeebroeck.

Lorsque l’intersectionnalité entre en jeu, la problématique s’intensifie, notamment en matière de reconnaissance faciale. En 2018, une étude du Massachusetts Institute of Technology a mis en évidence un taux de réussite de 99% pour identifier le genre d’un homme blanc, contre 20 à 35% de précision en moins pour une femme et une femme à la peau foncée. Un travail pour un corpus plus représentatif et diversifié est donc nécessaire.

L’IA, miroir sociétal

«Les IA ont parfois tendance à amplifier ce qui est présent dans les données», observe Hugues Bersini, professeur d’informatique à l’ULB, à la tête du laboratoire IRIDIA spécialisé en intelligence artificielle, et initiateur du projet FARI, un institut d’intelligence artificielle pour le bien commun. Bien loin de ce dernier concept, l’influence de la norme dominante peut générer des représentations stéréotypées et des discriminations concrètes. «Lorsqu’Amazon s’est mis à utiliser l’IA pour trouver de nouveaux développeurs, toutes les femmes ont été éliminées car ses données montraient que la majorité des développeurs étaient des hommes», relate Nicolas Van Zeebroeck.

Pour contrer les biais de l’IA et assurer l’égalité des chances dans une société démocratique, la discrimination positive apparaît alors comme une solution possible. Mais aussi l’éducation et la formation. «Il faut expliquer ces outils et communiquer sur leurs défauts et erreurs», insiste Hugues Bersini. Des erreurs dans des situations décisionnelles parfois très sensibles: médicales, de surveillance policière, de contrats d’assurance ou d’attributions de crédit. Dans ces cas, surreprésenter une population par rapport à une autre peut donner lieu à des stigmatisations et renforcer des idées reçues, des inégalités préexistantes et exclure des pans entiers de la population. Dans cette optique, le programme wallon en intelligence artificielle DigitalWallonia4AI a notamment pour objectif de «rendre les citoyens et les entreprises du secteur public conscients des risques de l’IA», résume sa coresponsable et consultante Emilie Fockedey.

L’enjeu est de taille car si les modèles IA sont entraînés sur un corpus de données publiques et privées, ils peuvent être enrichis par les données issues de l’utilisation elle-même. «Depuis toujours, Google affine ses résultats sur la base des clics des utilisateurs qui indiquent les résultats les plus pertinents», prend pour exemple Nicolas Van Zeebroeck. Le risque? Si l’utilisation elle-même est biaisée en faveur d’un certain groupe, les résultats le seront de plus en plus également. Résultat? Une boucle de feed-back et un possible effet boule de neige de préjugés et stéréotypes sexistes dans l’IA mais aussi la société; miroirs mutuels. «Si les algorithmes sont efficaces et satisfaisants pour une partie de la population car elle est mieux traitée et représentée, ces utilisateurs vont être plus à l’aise avec l’IA que d’autres personnes qui vont peut-être la délaisser. Résultat? Leurs données vont continuer d’alimenter l’IA et pas celles des autres», alerte Nicolas Van Zeebroeck.

Des IA et du sexisme sous moult formes

Outre l’image et le recrutement, les biais sexistes de l’IA n’épargnent pas la traduction. «Certains outils de transcodage linguistique automatique vont traduire des langues qui n’ont pas de pronoms genrés, comme le philippin, vers une langue qui en a, comme le français par exemple, et conjuguer les verbes ‘travailler’ ou ‘investir’ à la troisième personne avec un pronom masculin. Pour ‘garder les enfants’, il sera féminin», note Nicolas Van Zeebroeck.

« Si les algorithmes sont efficaces et satisfaisants pour une partie de la population, car elle est mieux traitée et représentée, ces utilisateurs vont être plus à l’aise avec l’IA que d’autres personnes qui vont peut-être la délaisser. Résultat ? Leurs données vont continuer d’alimenter l’IA et pas celles des autres. »

NICOLAS VAN ZEEBROECK, PROFESSEUR D’ÉCONOMIE ET DE STRATÉGIE NUMÉRIQUE À LA SOLVAY BRUSSELS SCHOOL OF ECONOMICS AND MANAGEMENT DE L’ULB

Par défaut, les IA audio demeurent féminines. C’est le cas de GPS, mais aussi d’assistants vocaux comme Alexa, l’IA d’Amazon sortie en 2014. Depuis 2023, il est possible de passer de la voix originale féminine à une voix masculine. «Les concepteurs des technologies sont généralement des hommes. Peut-être par fantasme ou par habitude, ils ont des biais pour donner une enveloppe charnelle plutôt féminine dans une logique d’assistanat, de stéréotype, voire sexuelle», donnait comme élément de réponse en décembre dernier Nicolas Van Zeebroeck dans le podcast Coffee & ExperTease «L’IA est-elle sexiste?» de l’ULB.

Où sont les femmes?

La sous-représentation des femmes dans le secteur de l’IA est l’une des clés qui permet de comprendre tous ces biais. Selon une étude de l’UNESCO publiée en 2020, seulement 12% des chercheurs en IA dans le monde seraient des femmes. Le cabinet de Vanessa Matz (Les Engagés), la ministre chargée notamment du Numérique et de la Politique scientifique, le reconnaît: «Un des défis majeurs pour garantir aux femmes un accès équitable aux opportunités créées par l’IA est de surmonter les stéréotypes de genre profondément ancrés, qui découragent les femmes de se lancer dans les carrières numériques.» La Belgique n’y échappe pas. Seuls 19,4% des spécialistes en TIC sont des femmes. De quoi favoriser une IA réductive, possiblement cantonnée à une vision masculine. «Si une technologie est principalement conçue par seulement la moitié de la population, nous passons à côté des idées et des solutions de l’autre moitié», fait remarquer Véronique De Baets.

Face à ce problème, la stratégie Women in Digital adoptée en 2021 ouvre la voie à plus de diversité et d’égalité des chances dans le secteur du numérique. «Il convient notamment de travailler sur les stéréotypes de genre, les programmes scolaires, les modèles à suivre et la mise en place d’un environnement de travail inclusif et respectueux de l’égalité des genres», liste la porte-parole de l’IEFH. Bien loin du sexisme vécu par Emilie Fockedey: «Nous n’étions que 15% de femmes en ingénierie civile et 10% en mécanique. Des remarques sexistes, de la part du corps enseignant, d’associations ou à des événements professionnels, il y en a eu pas mal.»

Pour briser le monopole masculin dans le secteur, des événements se multiplient, comme le Women and AI Day du 11 avril dernier à Wavre. Mais aussi des communautés telles que Women in AI, AI for Her et le Réseau des femmes pour une IA éthique (Women4Ethical AI) de l’UNESCO. Cette plateforme collaborative vise à soutenir les gouvernements et les entreprises dans leurs efforts pour assurer l’égalité des genres à la fois dans la conception et le déploiement de l’IA.

Quid de la législation

Les lois belges anti-discrimination de 2007 et sur l’égalité de traitement entre hommes et femmes s’appliquent également aux systèmes d’IA. Mais elles ne sont pas spécifiquement conçues pour traiter les biais des algorithmes, et, pour l’heure, identifier un biais et une discrimination peut être compliqué. En cause? Un manque de transparence. «Un chercheur d’emploi ne sait pas toujours si sa candidature a été traitée par un système IA. Une éventuelle discrimination passera souvent inaperçue et il peut être encore plus difficile de prouver un dommage et d’établir un lien de causalité entre les deux», dénonce Véronique De Baets. Ce à quoi Nele Roekens, cheffe de projet IA au sein de l’institution publique interfédérale indépendante qui lutte contre la discrimination et promeut l’égalité, Unia, ajoute: «En cas de soupçon de discrimination, il est très difficile d’avoir accès à comment fonctionne le système, s’il y a eu détection et correction de biais, comment la supervision humaine est organisée, etc.»

Lorsque l’intersectionnalité entre en jeu, la problématique s’intensifie, notamment en matière de reconnaissance faciale. En 2018, une étude du Massachusetts Institute of Technology a mis en évidence un taux de réussite de 99 % pour identifier le genre d’un homme blanc, contre 20 à 35 % de précision en moins pour une femme et une femme à la peau foncée.

Le règlement européen sur l’intelligence artificielle – ou AI Act – se penche sur ces questions. Le texte, entré en vigueur le 1er août et pleinement applicable en août 2026, encadre juridiquement l’utilisation de l’IA et favorise l’innovation et l’adoption de systèmes fiables et sécurisés. Les systèmes d’IA discriminatoires ou susceptibles d’entraver les droits fondamentaux sont interdits. Dans ce cadre, l’IEFH et Unia font partie des 26 organismes belges désignés comme autorité de protection des droits fondamentaux (art. 77 du règlement IA). Ils pourront «demander à l’autorité de surveillance du marché l’organisation de tests d’un système d’IA à haut risque et d’être informés si des risques pour les droits fondamentaux d’un système IA ont été identifiés», se réjouit Véronique De Baets. Pour se préparer à assumer son rôle de protection, Unia travaille sur un projet visant à détecter et à prévenir la discrimination algorithmique dans les administrations publiques «en assurant un accès effectif au droit et aux mécanismes de réparation», précise Nele Roekens. Et ce, en collaboration avec la Commission européenne et le Conseil de l’Europe.

«L’innovation ne doit jamais être un prétexte pour aggraver les discriminations. C’est pourquoi une vigilance constante s’impose», insiste la ministre Vanessa Matz. Prévention, éducation, législation, voire sanctions apparaissent alors comme indispensables pour contrer le cercle vicieux d’une société sexiste alimentant les biais de l’IA. Mais aussi d’une IA biaisée alimentant les préjugés des utilisateurs et contribuant à un monde inégalitaire.

 

Alter Échos

Pssstt, visiteur, visiteuse du site d'Alter Échos !

Nous sommes heureux que vous soyez si nombreux à nous suivre sur le web. Nous avons fait le choix de mettre en accès gratuit une grande partie de nos contenus, notamment ceux en lien avec le Covid-19, pour le partage, pour l'intérêt qu'ils représentent pour la collectivité, et pour répondre à notre mission d'éducation permanente. Mais produire une information critique de qualité a un coût. Soutenez-nous ! Abonnez-vous ! Et parlez-en autour de vous.
Profitez de notre offre découverte 19€ pour 3 mois (accès web aux contenus/archives en ligne + édition papier)