Selon ChatGPT, les femmes sont souvent jeunes, avenantes, dynamiques. Jamais trop âgées, rarement cheffes, presque toujours « prometteuses ». Une représentation flatteuse en surface, mais profondément biaisée. Et surtout, révélatrice d’un problème systémique : les intelligences artificielles, censées refléter le monde, reproduisent et amplifient les stéréotypes de genre qui le traversent.
Des femmes invisibles à mesure qu’elles vieillissent
C’est le constat troublant d’une étude publiée début octobre dans la prestigieuse revue scientifique Nature. Menée par des chercheur·euses de l’Université de Californie, elle s’est intéressée à la façon dont les modèles d’intelligence artificielle « voient » les femmes et les hommes. L’équipe a analysé plus de 1,4 million d’images et de vidéos provenant de Google, Wikipédia, IMDb, Flickr et YouTube, en parallèle de neuf grands modèles de langage nourris par des milliards de mots glanés sur le Web.
Leur conclusion est sans appel : les IA, tout comme les moteurs de recherche, présentent systématiquement les femmes comme plus jeunes que les hommes, peu importe la profession ou le contexte. Une déformation qui ne correspond en rien à la réalité.
« Les images en ligne montrent l’opposé de ce que disent les données, explique le chercheur Douglas Guilbeault. Et même si l’internet a tort, lorsqu’il nous dit ce “fait” sur le monde et que nous commençons à le croire, cela renforce nos biais et nos erreurs. »
Derrière ce constat, un double phénomène : le sexisme et l’âgisme conjugués. Dans les contenus qui nourrissent les IA, les femmes plus âgées deviennent pratiquement invisibles. Elles sont rarement représentées comme des professionnelles accomplies, des leaders d’expérience ou des expertes. À l’écran comme dans les algorithmes, elles s’effacent, remplacées par des visages plus jeunes, plus « présentables ». L’idée que la valeur d’une femme décroît avec l’âge, elle, reste terriblement persistante.
Les biais des machines, reflets de ceux des humains
Les IA ne créent pas ces stéréotypes : elles les absorbent. Les modèles génératifs comme ChatGPT, DALL·E ou Midjourney sont entraînés sur des masses gigantesques de données extraites du Web. Or, internet n’est pas neutre : il reflète les préjugés culturels, économiques et historiques de nos sociétés. Résultat, les machines apprennent à penser, ou plutôt à reproduire, comme nous.
Et parfois, elles le font avec une efficacité redoutable. Les chercheur·euses ont voulu mesurer concrètement l’effet de ces biais sur la perception du travail. Ils ont demandé à ChatGPT de générer 40 000 CV pour 54 professions différentes, en variant simplement le genre du prénom (masculin ou féminin).
Le verdict est glaçant : les femmes fictives de ChatGPT étaient presque toujours plus jeunes, diplômées plus récemment, et avec moins d’années d’expérience que leurs homologues masculins. Pire encore, lorsque les chercheur·euses ont demandé à ChatGPT d’évaluer ces CV, il a jugé les candidats masculins plus compétents, en particulier les hommes plus âgés.
« Ce biais apparaît même lorsque ChatGPT invente lui-même les candidats, souligne les chercheur·euses de l’Université de Californie. C’est la preuve que le préjugé est intégré au cœur même du système. »
Un cercle vicieux bien réel
Les chercheur·euses parlent d’un cercle vicieux : les femmes sont représentées en ligne comme jeunes et moins expérimentées / les IA apprennent cette représentation / elles la reproduisent dans leurs contenus / ces contenus renforcent à leur tour la perception collective selon laquelle les femmes plus âgées seraient moins aptes ou moins légitimes.
Et ce mécanisme, bien qu’algorithmique, finit par influencer des décisions bien humaines : qui on embauche, qui on promeut, à qui on donne la parole.
« Que se passe-t-il lorsque ces préjugés deviennent une prophétie autoréalisatrice ? », interroge Douglas Guilbeault. Sa collègue, la chercheuse Solène Delecourt, ajoute : « Ces distorsions alimentent directement le monde réel, d’une manière qui peut élargir les écarts sur le marché du travail et fausser notre manière d’associer le genre à l’autorité et au pouvoir. »
L’illusion de la neutralité
Ce que cette étude démontre, c’est qu’aucune IA n’est véritablement neutre. Derrière chaque réponse générée, chaque image produite, il y a la trace du monde tel qu’il est perçu (ou mal perçu) par les humains. Et tant que les femmes, en particulier les femmes plus âgées, resteront sous-représentées ou stéréotypées dans les données d’entraînement, elles le seront aussi dans les réponses des machines.
C’est un rappel brutal : la technologie ne nous dépasse pas, elle nous reflète. Et ce miroir, aujourd’hui, déforme dangereusement.
Source : Huffington Post France
