High-Tech : l’UNESCO alerte sur des préjugés sexistes dans l’intelligence artificielle générative
Les grands modèles de langage de Meta et d’OpenAI, qui servent de base à leurs outils d’intelligence artificielle générative, véhiculent des préjugés sexistes, met en garde une étude dévoilée jeudi par l’Unesco, à la veille de la journée internationale des droits des femmes.
Les modèles GPT 2 et GPT 3.5 d’OpenAI, ce dernier étant au coeur de la version gratuite de ChatGPT, ainsi que Llama 2 du concurrent Meta, font preuve «sans équivoque de préjugés à l’encontre des femmes», prévient l’UNESCO dans un communiqué.
«Les discriminations du monde réel ne font pas que se refléter dans la sphère numérique, elles y sont aussi amplifiées», souligne Tawfik Jelassi, sous-directeur général de l’UNESCO pour la communication et l’information.
Selon l’étude, menée d’août 2023 à mars 2024, ces modèles de langage ont davantage tendance à associer les noms féminins à des mots comme «maison», «famille» ou «enfants», tandis que les noms masculins sont davantage associés aux mots «commerce», «salaire» ou «carrière».
Impact sur la perception de millions de personnes
Les chercheurs ont par ailleurs demandé à ces interfaces de produire des récits sur des personnes de différentes origines et genres. Les résultats ont montré que les histoires concernant les «personnes de cultures minoritaires ou les femmes étaient souvent plus répétitives et basées sur des stéréotypes». Un homme anglais a ainsi davantage tendance à être présenté comme un professeur, un chauffeur ou un employé de banque, tandis qu’une femme anglaise sera présentée dans au moins 30% des textes générés comme une prostituée, un mannequin ou une serveuse. Ces entreprises «ne parviennent pas à représenter tous leurs utilisateurs», déplore auprès de l’AFP, Leona Verdadero, spécialiste des politiques numériques.
Sami Nemli Avec Agence / Les Inspirations ÉCO