Combattre les préjugés sexistes dans le domaine de l’intelligence artificielle et de l’automatisation

Sans une prise en compte de la question de l’égalité des sexes dans leur développement et leur application, l’intelligence artificielle et l’automatisation vont probablement reproduire et renforcer les stéréotypes sexistes existants ainsi que les normes sociales discriminatoires.



Geralt/Pixabay


Vingt-cinq ans après l’adoption de la Déclaration et du Programme d’action de Beijing, les normes sociales continuent de refléter de nombreux préjugés sexistes. Par exemple, aussi récemment qu’en février 2020, la Cour suprême indienne a dû rappeler au gouvernement indien que ses arguments justifiant le fait de refuser aux femmes des postes de commandement au sein de l’armée s’appuyaient sur des stéréotypes. Et les  préjugés sexistes ne sont pas uniquement un problème masculin : un récent rapport du PNUD, intitulé Tackling Social Norms, a conclut qu’environ 90 % des personnes (qu’elles soient des hommes ou des femmes) ont des préjugés sur les femmes.

Les préjugés sexistes et les diverses formes de discrimination, à l’encontre des femmes et des filles, imprègnent tous les aspects de la vie. L’égalité des femmes, face à la science et aux technologies de l’information, ne fait pas exception. Si les difficultés engendrées par la fracture numérique et la sous-représentation des femmes dans les STEM (science, technologie, ingénierie et mathématiques) restent d’actualité, l’intelligence artificielle (IA) et l’automatisation posent de nouveaux défis pour arriver à une véritable égalité des sexes à l’heure de la quatrième révolution industrielle.

Sans une prise en compte de la question de l’égalité des sexes dans leur développement et leur application, l’intelligence artificielle et l’automatisation vont probablement reproduire et renforcer les stéréotypes sexistes existants ainsi que les normes sociales discriminatoires. En fait, c’est peut-être, consciemment ou pas, ce qui se passe déjà. Prenons quelques exemples :

  • Comme le souligne un rapport de l'UNESCO de 2019, ce n’est pas le fruit du hasard si les assistants personnels virtuels comme Siri, Alexa et Cortana ont des noms féminins et si leur voix par défaut est féminine. Les entreprises qui développent ces assistants virtuels renforcent la réalité sociale selon laquelle la majorité des assistants personnels ou des secrétaires, tant dans le secteur public que dans le privé, sont des femmes.
  • Les préjugés sexistes imprègnent également les algorithmes d'IA. Les hommes constituant 78% des professionnels de l’IA, la création des algorithmes s’inspire de manière prédominante de l’expérience vécue par les hommes. Ces préjugés sexistes peuvent avoir des effets négatifs importants pour les femmes. Par exemple, les algorithmes peuvent impacter l'accès des femmes à l'emploi et aux prêts en refusant automatiquement leur candidature ou en évaluant négativement leur dossier. De même, l'évaluation du risque fondée sur les algorithmes, dans le système de justice pénale, peut avoir un impact négatif sur les femmes si le système ne prend pas en compte le fait qu’elles sont moins susceptibles de récidiver que les hommes.
  • Bien que la robotisation et l’automatisation des métiers vont toucher aussi bien les hommes que les femmes, il est probable que les préjugés sexistes perdurent et impactent ainsi les femmes de manière disproportionnée. Par exemple, les femmes, surreprésentées dans certains secteurs où le risque d’automatisation est élevé, pourraient souffrir davantage : si plus de 70 % des employés dans la confection textile sont des femmes, l’automatisation aura un impact plus fort sur ces dernières que sur les hommes. Le relatif manque de mobilité et de flexibilité va également très probablement réduire le pouvoir de négociation, ainsi que les alternatives en termes d’emploi, pour les femmes.

Malgré le risque de préjugés sexistes, la question de l’égalité des sexes n’est pas suffisamment prise en compte dans les normes, toujours plus nombreuses, portant sur l’IA. Par exemple, la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle ne fait pas explicitement référence au fait d’intégrer une perspective de genre, tandis que le cadre éthique pour l’IA et la société publié par le groupe de réflexion AI4People ne mentionne qu’une seule fois les termes de diversité et de genre. La Recommandation du Conseil de l'OCDE sur l’intelligence artificielle et les Principes du G20 sur l'intelligence artificielle soulignent tous deux l’importance de la contribution de l’IA à la réduction des inégalités de genre sans toutefois ne donner de détail sur la manière d’y arriver.

Les principes responsables d’apprentissage automatique (Responsible Machine Learning Principles) intègrent « l’évaluation des préjugés ». Cette approche cloisonnée du genre est également adoptée par des entreprises comme Google et Microsoft, dont les principes en matière d’IA soulignent la nécessité d’éviter de « créer ou de renforcer des préjugés injustes » et de traiter « tout le monde équitablement». Les entreprises liées à l’IA et à l’automatisation devraient adopter une approche sensible au genre dans tous leurs principes afin de combattre les préjugés sexistes inhérents. Google devrait, par exemple, intégrer une perspective de genre pour évaluer quelles nouvelles technologies sont « bénéfiques à la société » ou comment les systèmes d’IA sont « conçus et testés pour la sécurité ».

Qu’est-ce qui devrait être fait pour lutter contre les préjugés sexistes dans le domaine de l’IA et de l’automatisation ? Le cadre de référence prévu pour les questions liées au genre dans les Principes directeurs relatifs aux entreprises et aux droits de l'homme des Nations unies pourrait fournir des orientations concrètes aux États, aux entreprises et à d’autres acteurs. Le cadre de référence comprend trois niveaux de mesures : une évaluation tenant compte de la question de l’égalité de genre, des initiatives favorisant l’égalité des sexes, et des recours qui visent à faire évoluer favorablement les inégalités de genre. L’évaluation devrait pouvoir répondre aux impacts négatifs différenciés, multidimensionnels, et disproportionnés sur les droits des femmes. Les mesures et les recours qui en résultent, devraient être transformateurs en étant capables de faire évoluer les normes patriarcales, les relations de pouvoir inégales et les stéréotypes sexistes.

Les États, les entreprises, et d’autres acteurs, peuvent prendre plusieurs mesures concrètes. Premièrement, les femmes devraient être des participantes actives (plutôt que de simples bénéficiaires passives) dans la création de l’IA et de l’automatisation. Les femmes devraient participer à toutes les étapes de la conception, du développement et de l’application de l’IA et de l’automatisation. En plus d’embaucher plus de femmes à tous les niveaux, les entreprises dans le domaine de l'IA et de l’automatisation devraient, dès le départ, impliquer des spécialistes des questions de l’égalité des sexes et des organisations féministes dans la conduite d’une diligence raisonnable en matière de droits humains.

Les femmes devraient être des participantes actives (plutôt que de simples bénéficiaires passives) dans la création de l’IA et de l’automatisation.

Deuxièmement, les données qui informent les algorithmes, l’IA et l’automatisation devraient être ventilées par sexe, sinon ces outils technologiques ne s’appuieront pas sur l’expérience vécue par les femmes et pourraient ainsi continuer à internaliser les préjugés sexistes existants à leur encontre. De plus, même les données sur les femmes devraient être préservées de tout préjugé sexiste inhérent.

Troisièmement, les États, les entreprises et les universités devraient prévoir et investir dans le renforcement des capacités des femmes pour assurer une transition en douceur vers l’IA et l’automatisation. Ceci nécessiterait une formation professionnelle et technique, tant dans le monde de l’éducation que dans celui du travail.

Quatrièmement, l’IA et l’automatisation devraient être conçus de manière à contrer la discrimination sexiste et les normes sociales patriarcales. En d’autres termes, ces technologies devraient être utilisées pour répondre aux difficultés rencontrées par les femmes, comme dans le cas du travail non rémunéré, de l’inégalité salariale, du cyber-harcèlement, de la violence fondée sur le genre, du harcèlement sexuel, de la traite humaine, de la violation des droits sexuels et génésiques, et de la sous-représentation dans les postes de direction. De même, le pouvoir de l’IA et de l’automatisation devrait être utilisé afin d’améliorer l’accès des femmes à la finance, à l’éducation supérieure et aux opportunités de travail flexible.

Cinquièmement, des mesures spécifiques devraient être prises afin de sensibiliser les femmes sur leurs droits humains et sur l’impact de l’IA et de l’automatisation sur ces droits. Des mesures semblables sont nécessaires pour garantir que des mécanismes de recours (tant judiciaires que non judiciaires) puissent répondre aux préjugés sexistes, à la discrimination, aux structures de pouvoir patriarcales, et à l’asymétrie de l’information et des ressources.

Sixièmement, les États et les entreprises devraient garder à l’esprit le caractère multidimensionnel de la discrimination de genre, sinon leurs réponses, malgré de bonnes intentions, n’utiliseront pas l’IA et l’automatisation pour arriver à l’égalité de genre. Les femmes, en fonction de leur couleur de peau, de leur niveau de revenu faible, de leur orientation sexuelle, ou encore les mères célibataires, les migrantes ou les femmes handicapées peuvent toutes être affectées différemment par l’IA et par l’automatisation et n’ont pas les mêmes besoins ou attentes.

Enfin, toutes les normes en lien avec l’IA et l’automatisation devraient intégrer une perspective de genre dans sa globalité, plutôt que de traiter la question du genre comme un simple problème de préjugés qui doit être géré.

Les technologies sont rarement, en pratique, neutres sur le plan du genre. Si l’IA et l’automatisation continuent d’ignorer le vécu des femmes ou de les délaisser, tout le monde s’en portera plus mal.

 


This piece is part of a blog series focusing on the gender dimensions of business and human rights. The blog series is in partnership with the Business & Human Rights Resource Centre, the Danish Institute for Human Rights and OpenGlobalRights. The views expressed in the series are those of the authors. For more on the latest news and resources on gender, business and human rights, visit this portal.


 

 

 

ORIGINALLY PUBLISHED: April 10, 2020

Surya Deva est professeur agrégé à la faculté de droit de l’université de Hong Kong (City University of Hong Kong). En tant que membre du Groupe de travail sur les entreprises et les droits de l'homme de l’ONU, Surya Deva a développé un cadre et des orientations, en matière d’égalité des sexes pour les PDNU.   


 

COMMENTS