GRAIN forme près d’une centaine de personnes sur l’Intelligence Artificielle et le Genre

Environ une centaine de participant.e.s ont pris part, le vendredi 21 février 2025, à la formation en ligne sur l’Intelligence Artificielle et le Genre organisée par le réseau GRAIN (Gender and Responsible Artificial Intelligence Network).

En effet, dans le cadre du projet Grain et surtout de l’animation de son réseau, des formations en présentiel et en ligne sont offertes dans le but de sensibiliser et d’outiller un large public sur les bonnes pratiques à adopter dans le domaine du Genre et de l’intelligence Artificielle.

Sous la conduite de Ndeye Fatou Cissé, experte en Genre à l’Ipar, la formation visait à approfondir les connaissances des participant.e.s concernant l’intégration du genre dans les projets liés à l’IA.

Suite à la présentation et l’exposé des objectifs par Ndeye Fatou Mboup, experte en Intelligence Artificielle et coordinatrice du projet Grain, Mme Cissé, responsable de la formation, a animé une présentation sur le thème : “Genre, intelligence artificielle et inclusion : poser les bases d’un écosystème responsable et équitable”.

Dans sa présentation, elle est revenue sur la déconstruction des stéréotypes de genre, la promotion de bonnes pratiques pour une IA plus inclusive, ainsi que l’amélioration de la compréhension de quelques concepts de genre tels que les Stéréotypes sexistes, l’égalité de genre, l’inclusion sociale, l’intersectionnalité entre autres.

Pour une bonne intégration du genre dans l’IA, elle a proposé le concept « Gender Mainstreaming » qui est une approche intégrée pour inclure la dimension de genre à toutes les étapes des politiques publiques ainsi l’utilisation de l’IA pour réduire les disparités dans l’éducation, la santé, l’emploi et l’accès aux technologies.

En somme, son intervention encourage une IA plus équitable en intégrant la perspective de genre afin de lutter contre les discriminations et de promouvoir une société inclusive.

Dans une démarche participative et collaborative, les divers groupes ont réalisé des travaux pratiques visant à identifier et à corriger les biais de genre dans les solutions IA. En clair, il s’agissait de proposer des solutions pour des politiques d’emplois plus inclusives au Sénégal ; renforcer la présence des femmes dans les métiers liés à l’IA ; utiliser l’IA pour lutter contre les violences basées sur le genre et évaluer l’impact des politiques publiques sur les femmes. 

Les différents résultats ressortis de ces travaux de groupe ont permis d’identifier des solutions mettant en avant l’importance de l’innovation technologique ; des politiques inclusives ; de la sensibilisation et de la réglementation pour lutter contre les discriminations et favoriser l’équité dans l’emploi, la protection contre les VGB ; la participation des femmes aux instances de décision ; la nécessité d’augmenter la présence des femmes dans les différentes étapes de production de l’intelligence artificielle ; notamment la conception, le codage, la programmation, le développement, le management et l’évaluation ; la formation des femmes et des jeunes pour une utilisation optimale de l’IA ; la réduction de la discrimination, l’analyse de données entre autres.

Parmi les recommandations issues de cette session de formation, l’on peut retenir : le rôle de l’intelligence artificielle dans la lutte contre les disparités entre le genre dans des secteurs tels que l’éducation, la santé, l’emploi ou l’accès aux technologies ainsi que le rôle de l’IA dans l’évaluation des impacts des politiques publiques sur les femmes.

Similar articles
STEM AND EDUCATION: SEARCHING FOR GENDER RELATED GAPS
STEM AND EDUCATION: IDENTIFYING GENDER GAPS

Not that long ago, people lived and functioned in tight communities. Every vendor knew their customers personally and could make...

sexual-violence-as-political-instrument-during-elections-in-kenya
sexual-violence-as-political-instrument-during-elections-in-kenya

This Machine Learning Glossary aims to briefly introduce the most important Machine Learning terms - both for the commercially and...