WiDS

Women in Data Science: ce sont les humains qui ont des préjugés, pas la technologie

27 mai 2024

Data

La conférence Women in Data Science (WiDS), qui s’est tenue le 17 mai à Gand, s’inscrit dans le cadre d’une initiative mondiale visant à inspirer et à former les professionnels des données dans le monde entier, quel que soit leur sexe, et à soutenir les femmes dans ce domaine. Deux de nos collègues, Rossana Della Ghelfa (Smart Data Consultant) et Cin Vermeiren (Smart Data Specialised Sales), ont assisté à la première édition de la WiDS en Belgique et sont heureux de partager quelques enseignements avec vous.

Pourquoi organiser une conférence spécifiquement dédiée aux femmes dans la science des données ?

Rossana & Cin

Rossana (à gauche) : La conférence a offert une formidable opportunité d’interagir et d’échanger avec d’autres professionnelles de la science des données, tant dans le monde académique que dans l’industrie. Cela peut être particulièrement bénéfique pour les femmes qui pourraient se sentir un peu isolées sur leur lieu de travail. Cependant, il faut bien comprendre l’objectif des conférences WiDS. Bien que l’accent soit mis sur l’autonomisation des femmes et que les intervenantes soient des femmes, les conférences WiDS sont généralement ouvertes à tout le monde, quel que soit le sexe. La conférence a souligné l’importance de la diversité et de l’inclusion dans la science des données, y compris pour lutter contre le déséquilibre entre les sexes. Donc, à mon avis, les messages et présentations s’appliquaient fondamentalement aux femmes, mais aussi aux hommes.

Cin (à droite) : L’une des raisons d'être de la conférence WiDS est de s’attaquer aux préjugés de genre dans la science des données, et plus particulièrement dans les modèles de données, qui privilégient toujours majoritairement les « hommes blancs ». Au cours de sa session, Malvina Nissim, professeure de linguistique informatique à l’Université de Groningue, s’est penchée sur les préjugés et a mis en évidence plusieurs exemples de biais de genre trouvés dans des modèles linguistiques tels que Google Translate et ChatGPT. Un exemple courant est le biais visant à associer les infirmières aux femmes, et les médecins ou les professeurs aux hommes, ce qui renforce les stéréotypes de genre existants. C’est ainsi que le modèle fonctionne par défaut aujourd’hui. Toutefois, si les échantillons de données utilisés pour former les modèles linguistiques ne sont pas représentatifs de l’ensemble de la population, certains groupes, y compris les femmes, seront sous-représentés. La conférence de Gand avait pour objectif de sensibiliser à cette problématique et de promouvoir la diversité et l’inclusion dans ce domaine.

Gender Bias Translate

Rossana : L’une des façons d'y parvenir est d’encourager davantage la participation des femmes et de s’assurer que les données utilisées pour construire les modèles proviennent de groupes divers. Cela enrichit les données et aide à créer des modèles plus précis et impartiaux, ce qui est crucial pour garantir l’exactitude, l’impartialité et une utilisation responsable de technologies telles que l’IA.

Donc, en fait, ce sont les humains qui ont des préjugés, pas la technologie ?

Rossana : L’un des principaux enseignements pour moi était que nous devons nous concentrer sur l’élimination des préjugés au sein de la société, et non au sein de la technologie elle-même. La technologie peut être incroyablement puissante. Les possibilités sont quasi infinies. Cependant, les modèles de données et les algorithmes reflètent souvent les préjugés présents dans les données à partir desquelles ils apprennent – des données générées par des humains qui peuvent commettre des erreurs et avoir des préjugés inconscients. Cela suscite en même temps une autre inquiétude. Pouvons-nous surcorriger ou surcompenser ? Que se passe-t-il si, dans nos efforts bien intentionnés pour minimiser ou même éliminer les biais, l’aiguille va trop loin dans l’autre direction ?

Overcompensation

Cin : C’était le cas en février, lorsque le modèle d’IA de Google, Gemini, a été accusé de biais anti-blanc lorsqu’il a généré des images d’une papesse asiatique. Cela a révélé la nécessité d’une approche nuancée. Bien qu’il soit crucial de garantir la diversité des données et de leur modélisation, il est également important de s’efforcer d’obtenir une exactitude factuelle.

Censorship

Rossana : Au cours de sa session, Malvina Nissim nous a également invités à réfléchir à la pertinence de la censure dans ChatGPT. Elle a donné l’exemple suivant : si vous demandez à ChatGPT de faire une blague sur les femmes, l’IA déclarera que c’est inapproprié. Cependant, il fournira une blague sur les hommes si on lui demande. Ce constat a provoqué quelques réactions. Pour moi, les données sont capitales et l’IA recèle un immense potentiel, mais il reste encore fort à faire. Il y a encore beaucoup d’aspects à prendre en compte, en particulier en ce qui concerne les thèmes sensibles.

Cin : De même, et de mon avis personnel, la relation complexe et parfois contradictoire entre l’IA et la durabilité nécessite également une réflexion attentive. Même si je dois admettre que, dans son intervention, Jenny Ambukiyenyi Onya a développé un point de vue très positif sur les données et l’économie durable, en parlant de Halisi Livestock. Cette solution utilise des fonctions avancées de l’IA et de la biométrie pour aider les agriculteurs et les institutions financières à améliorer l’accès au capital pour les populations défavorisées. Elle transforme ainsi le paysage de l’agro-fintech en Afrique.

La science des données est omniprésente dans l’actualité de nos jours, en particulier avec l’essor de l’IA. S’agit-il d’un thème purement technique ou cela va-t-il au-delà ?

Cin : La technologie et l’IA en particulier améliorent sans aucun doute la productivité et l’efficacité, en particulier pour les tâches répétitives, dangereuses ou ingrates. Cependant, l’accent devrait être mis sur l’utilisation de l’IA pour augmenter les capacités humaines, et non pour les remplacer. Imaginez que nous devenions des « surhumains », avec une technologie qui améliore notre façon de penser et d’agir. Pensez aux implants alimentés par l’IA qui peuvent permettre aux gens d’entendre à nouveau ou de marcher après une paralysie. À cet égard, j’aimerais partager une de mes recommandations personnelles préférées : « Le dilemme numérique. » Cette série documentaire flamande diffusée sur VRT MAX par le journaliste Tim Verheyden explore l’impact de l’innovation technologique sur les personnes et la société.

Quelle est la valeur ajoutée des femmes dans la science des données ?

Cin : Notre cerveau fonctionne différemment, et la diversité de pensée est cruciale dans la science des données et ses implications commerciales. Des personnes d’origines différentes apportent des perspectives uniques qui peuvent mener à des solutions innovantes. Chez KBC, un grand nombre de scientifiques des données sont des femmes. Ce succès est dû à une combinaison de facteurs : initiatives d’apprentissage STEM, solides compétences mathématiques intrinsèques ou encore bons résultats académiques chez beaucoup de femmes, ainsi qu’à leur capacité à fournir d’autres approches.

Rossana : Un groupe plus diversifié fournira toujours des solutions plus diverses. Nous nous concentrons aujourd’hui sur les femmes, mais cela s’applique également à d’autres minorités telles que des personnes d’autres nationalités, classes d’âge ou en situation de handicap. Pour moi, c’est une situation classique de l’œuf et de la poule, ou du serpent qui se mord la queue si vous voulez. Nous avons besoin de plus de femmes ayant des origines et des mentalités différentes dans la science des données pour réduire les biais, mais le manque de diversité pourrait décourager certaines femmes de se lancer dans l'aventure. Des conférences comme celle de Gand peuvent jouer un rôle crucial dans la sensibilisation et la destruction de ces obstacles.

Avez-vous d’autres choses à partager avec nous ?

Cin : Ce qui m’a frappé, c’est la session sur l’invisibilité des données sur les femmes dans la recherche scientifique. Elle a mis en évidence un problème critique en montrant ce que peut provoquer le manque de données féminines dans la recherche scientifique : médicaments inefficaces ou encore réactions indésirables aux médicaments qui peuvent exposer les femmes à un surdosage. Même l’absence de données pendant la grossesse, souvent motivée par la volonté d’éviter les risques, limite les options des femmes pour gérer divers problèmes de santé pendant leur grossesse. Alors, comblons l’écart.

Female Data

Merci à tous deux d'avoir échangé avec nous et de nous aider à détruire les obstacles !

Vous avez une passion pour la science des données ou l’ICT et souhaitez avoir un réel impact ?

Venez nous rejoindre chez Inetum ! Nous offrons un environnement de travail divers et inclusif avec des opportunités de mentorat et de développement professionnel, où vous pouvez contribuer à des solutions innovantes qui stimulent notre succès et façonnent l’avenir dénué de préjugés de la technologie. Si vous êtes à la recherche d’un endroit où vous pouvez évoluer et avoir un impact significatif, n’hésitez pas à nous contacter.