Intitulée “A Systematic Literature Review on Bias Evaluation and Mitigation in Automatic Speech Recognition Models for Low-Resource African Languages”, cette étude met en lumière un enjeu central de l’intelligence artificielle inclusive : les biais liés au genre, à l’accent, au dialecte et à la sous-représentation linguistique, qui affectent fortement les performances des technologies vocales en Afrique.
Réalisée par Joyce Nakatumba-Nabende, Sulaiman Kagumire, Caroline Kantono et Peter Nabende (Makerere University, Ouganda), cette étude propose une analyse systématique de la littérature scientifique internationale, selon la méthodologie PRISMA, afin d’identifier les principaux types de biais et les stratégies mises en œuvre pour les évaluer et les réduire.
Les auteurs montrent que, malgré les avancées rapides de l’IA vocale, les langues africaines restent largement sous-représentées dans la recherche. Les biais liés au genre, à l’accent et au dialecte sont les plus documentés, tandis que ceux liés à l’âge et à l’origine ethnique demeurent presque absents. L’étude souligne également que les approches de mitigation restent majoritairement centrées sur les données (diversification, augmentation, transfert), avec un recours encore limité aux méthodes avancées d’IA responsable et de fairness-aware modeling.
Cette revue appelle à une mobilisation accrue de la recherche, des décideurs et des acteurs technologiques pour développer des systèmes de reconnaissance vocale capables de refléter la diversité linguistique et sociale du continent africain, et garantir que l’innovation numérique bénéficie à toutes et à tous.
Auteurs : Joyce Nakatumba-Nabende, Sulaiman Kagumire, Caroline Kantono, Peter Nabende
Lire l’article complet ci-dessous :
L’IPAR a participé, lundi 15 mai 2023 à Saly, à un "panel d’experts sur l'intelligence artificielle comme levier de développement Read more
IPAR a participé au deuxième atelier de formulation de la stratégie nationale de l’Intelligence Artificielle qui s’est tenu les 21 Read more