Le réseau GRAIN a organisé, lundi 29 janvier 2025, une session de formation en ligne axée sur « Intelligence Artificielle et Genre » au profit des bénéficiaires du projet Grain par ailleurs membres dudit réseau GRAIN.
L’objectif de la formation était entre autres de renforcer la compréhension des participants quant à l’intégration des perspectives de genre dans les initiatives d’IA, d’explorer le rôle des données probantes dans la conception de solutions d’IA efficaces et inclusives ; de fournir des outils pratiques pour appliquer des approches sensibles au genre aux projets d’IA.
Animée par Sixtus Onyekwere, chercheur en développement international et expert en genre au Centre d’études des économies africaines (CSEA), la formation a permis de sensibiliser sur l’importance de l’intégration de la dimension de genre dans les processus d’innovation technologique, notamment d’IA ; à repenser la conception, le déploiement et l’évaluation des systèmes d’IA à travers le prisme de l’équité, de l’inclusion et de la justice sociale.
La session a donné l’occasion à l’expert genre de revenir sur les notions clé telles que les biais algorithmiques, de l’intersectionnalité et d’éthique de l’IA. Elle a insisté sur l’idée que l’IA peut, soit renforcer les inégalités existantes, soit être un levier de transformation positive, selon la manière dont elle est pensée et appliquée.
En effet, si l’intelligence artificielle est souvent perçue comme objective, elle hérite pourtant de biais qui peuvent être présents dans les données, les algorithmes ou les équipes qui la conçoivent. Ceux de genre peuvent avoir des conséquences concrètes notamment l’exclusion de certaines populations, renforcement de stéréotypes, décisions discriminatoires avec les algorithmes de recrutement, de crédit ou de justice prédictive. Des exemples de biais de genre ont été partagés par le formateur à savoir : la reconnaissance faciale ; des outils de ressources humaines basés sur l’IA, un diagnostic médical, etc.
La session a également permis d’aborder les méthodes et outils permettant de réfléchir à une meilleure intégration du genre tel que : des audits réguliers des modèles d’IA pour détecter les biais sexistes et raciaux ; l’intégration des critères de diversité et d’inclusion dans les indicateurs de performance des technologies ; encourager la diversité des profils dans les équipes de conception : (femmes, minorités, personnes issues des sciences sociales) ; travailler une diversité d’usagers finaux pour tester les outils dans des contextes variés ; collecter des données représentatives qui tiennent compte des différences de genre ; Penser à l’impact social des innovations dès la conception et non comme une réflexion secondaire et mettre en place des méthodes d’anonymisation et de dé-biassage des données.
Au terme de la présentation, les discussions ont été l’occasion pour les membres du réseau d’exprimer leur difficulté à opérationnaliser ces bonnes pratiques dans certains contextes notamment (un manque de moyens, faible sensibilisation, résistance institutionnelle). Il est donc important selon eux, de former les développeurs et les décideurs à la pensée critique et à l’approche genre dès l’université ou dans les cursus techniques.
Not that long ago, people lived and functioned in tight communities. Every vendor knew their customers personally and could make...
This Machine Learning Glossary aims to briefly introduce the most important Machine Learning terms - both for the commercially and...