Si l’IA est l’avenir, l’égalité des sexes est essentielle

Alors que le monde est confronté à de nombreux défis majeurs – du changement climatique à la pauvreté en passant par les déplacements de population et l’injustice sociale – les femmes et les filles jouent un rôle clé dans la résolution de ces problèmes et dans l’élaboration de la prospérité future pour tous. L’intelligence artificielle (IA), ainsi que d’autres outils numériques, peuvent nous aider à relever ces défis et à ouvrir de nouvelles perspectives. Pour exploiter ce potentiel, nous devons prendre des mesures significatives afin d’atténuer les risques que l’IA fait peser sur les femmes et les filles, et d’utiliser l’IA pour faire progresser l’équité entre les sexes.

Par Leila Toplic, responsable de l’initiative sur les technologies émergentes à NetHope

L’adoption de l’IA s’accélère et son potentiel est considérable. Aujourd’hui, l’IA est intégrée dans presque tous les secteurs, de la santé à la finance en passant par l’éducation et la fabrication. Elle est utilisée pour prendre des décisions dans tous les domaines, qu’il s’agisse de l’embauche, de l’offre de crédit et de son montant, ou de l’accès prioritaire aux soins de santé. Cela signifie que les systèmes d’IA sont essentiels à la participation des femmes dans tous les secteurs de la société. La capacité d’accéder à l’IA, de l’utiliser et de la façonner est essentielle pour l’avenir des droits humains des femmes.

Si l’IA peut nous aider à résoudre certains des problèmes les plus difficiles et à transformer notre mode de vie et de travail, elle pourrait aussi exacerber les inégalités et les fractures numériques. La fracture numérique entre les hommes et les femmes est déjà alarmante. Selon ONU Femmes, les femmes représentent plus des deux tiers des 796 millions d’analphabètes dans le monde. Sur les quelque 2,9 milliards de personnes non connectées, la majorité sont des femmes et des jeunes filles. Les femmes sont 25 % moins susceptibles que les hommes de savoir comment tirer parti de la technologie numérique pour des usages de base. Les femmes et les filles n’ont pas accès et ne participent pas aux domaines des sciences, de la technologie, de l’ingénierie et des mathématiques (STEM). Elles sont quatre fois moins susceptibles de savoir programmer des ordinateurs. Avec un écart aussi important en matière d’éducation, il n’est pas surprenant que les femmes soient sous-représentées dans les domaines technologiques au sein de la population active. Selon le rapport 2021 Global Gender Gap du Forum économique mondial, seuls 32 % des personnes occupant des postes dans le domaine des données et de l’IA sont des femmes.

Ce fossé numérique entre les hommes et les femmes a deux conséquences. Premièrement, les obstacles à l’accès et à l’utilisation des technologies numériques (y compris l’IA) empêchent les femmes et les filles d’accéder aux opportunités dans l’éducation, l’économie et la société. Deuxièmement, la sous-représentation des femmes et des filles dans l’industrie technologique, y compris dans le développement des systèmes d’IA, ne fait que renforcer et amplifier les préjugés et les stéréotypes sexistes existants dans notre société, car l’IA ne reflète pas leurs besoins, leurs contextes, leurs expériences et leurs idées.

Il n’est donc pas surprenant que les femmes et les filles soient touchées de manière disproportionnée par l’IA. Il existe de nombreux cas où les systèmes d’IA font preuve de discrimination fondée sur le sexe. Par exemple, les logiciels d’analyse faciale ont signalé des taux d’erreur plus élevés pour reconnaître les femmes, en particulier celles qui ont la peau plus foncée (taux d’échec de 1 sur 3 pour l’identification des femmes à la peau plus foncée). Il existe un cas tristement célèbre où une grande entreprise technologique a utilisé un outil d’embauche qui était discriminatoire à l’égard des femmes. L’Alexa d’Amazon et le Siri d’Apple se sont avérés ancrer des préjugés sexistes préjudiciables. Une étude récente sur la manière dont un algorithme diffuse des annonces promouvant des emplois dans le domaine des STIM a montré que les femmes étaient moins susceptibles de voir l’annonce d’emploi en raison de son rapport coût-efficacité. L’intégration de mots, qui est l’un des concepts les plus importants du traitement du langage naturel (NLP) et qui est largement utilisé par les entreprises commerciales, renforce les stéréotypes de genre en proposant des mots qui reflètent la même vieille perception biaisée des femmes, qui n’est pas basée sur des faits ou centrée sur l’équité. Il est important de noter qu’il s’agit principalement d’exemples du Nord et que nous manquons de preuves du Sud.

En résumé, si l’on ne met pas intentionnellement l’accent sur l’équité entre les sexes, l’IA peut être déployée comme un outil de discrimination, d’oppression et de contrôle.

Pour en savoir plus : https://nethope.org/articles/if-ai-is-the-future-gender-equity-is-essential/

Articles similaires
IPAR prend part à deux groupes de travail sur l’élaboration de la stratégie nationale sur l’Intelligence Artificielle 

IPAR a participé au deuxième atelier de  formulation de la stratégie nationale de l’Intelligence Artificielle qui s’est tenu les 21 Read more

Ipar prend part à l’atelier de consultations nationales des jeunes experts, acteurs clés, activistes, chercheurs et professionnels des systèmes d’IA

Ipar a participé du 26 au 28 Juillet à l’atelier de Consultations nationales des jeunes experts, acteurs clés, activistes, chercheurs Read more