Nouveaux principes des droits humains sur l’intelligence artificielle 

Un des risques les plus importants de l’apprentissage automatique réside dans le fait d’amplifier les préjugés et la discrimination. Foto: Flickr - Public Domain

En mai 2018, Amnesty International, Access Now, et un certain nombre d’organisations partenaires, ont publié la Déclaration de Toronto qui porte sur la protection du droit à l’égalité et à la non-discrimination dans le domaine de l’apprentissage automatique. Cette déclaration est un véritable événement : elle vise à faire en sorte que les normes internationales des droits humains soient intégrées au développement et à l’utilisation de l’apprentissage automatique (ou de « l’intelligence artificielle »).

L’apprentissage automatique (ML) est un élément de l’intelligence artificielle (IA). Elle peut se définir par le fait de « donner aux systèmes la capacité d’apprendre et de s’améliorer automatiquement par le retour d’expérience, sans programmation spécifique ».

En quoi l’apprentissage automatique concerne-t-il les droits humains ? L’IA est une technologie puissante qui peut avoir un effet potentiellement transformateur dans de nombreux domaines allant des transports et de la production à la santé et à l’éducation. Elle est de plus en plus utilisée dans ces secteurs ainsi que dans le domaine judiciaire, policier et militaire. L’IA peut permettre de gagner en efficacité, de mieux comprendre certaines maladies, et d’accélérer la découverte de nouveaux médicaments. Mais son utilisation malavisée, que ce soit intentionnellement ou non, peut également nuire aux droits des personnes.

Un des risques les plus importants de l’apprentissage automatique réside dans le fait d’amplifier les préjugés et la discrimination à l’encontre de certaines populations qui sont souvent marginalisées et vulnérables et qui luttent déjà pour être traitées dans la dignité et le respect.

Dans sa conception, lorsque des données historiques sont utilisées sans prendre les précautions nécessaires, l’apprentissage automatique peut renforcer et même accroître les préjugés structurels existants. De même, les décisions prises en cours de conception peuvent entraîner de nouveaux préjugés aux conséquences discriminatoires néfastes, que ce soit de manière délibérée ou non.

Quand Amnesty a commencé à examiner le lien entre intelligence artificielle et droits humains, deux éléments ont tout de suite retenu notre attention. Tout d’abord, les questions d’éthique en matière d’IA semblaient générer un intérêt réel et partagé, non seulement dans les milieux académiques, mais également dans de nombreux cercles d’affaires. C’était encourageant : des enseignements semblaient avoir été tirés des scandales répétés ayant touché les réseaux sociaux et il existait une volonté de gérer de manière proactive les risques liés à l’IA.

En second lieu, les normes relatives aux droits humains étaient trop souvent absentes du débat sur l’éthique dans l’IA. L’importance des droits humains étaient souvent mentionnée, mais sans aller au-delà de la simple référence. Et à certains égards, la discussion sur l’éthique dans l’IA commençait à prendre une forme qui nous est bien familière : la nécessité de tenir compte du facteur culturel, ouvrant ainsi la porte à des différences en termes de normes et de niveaux de protection des droits des individus, ce qui n’est guère judicieux dans le cadre des technologies digitales comme l’IA qui ne se préoccupent pas des frontières.

Affirmer le rôle central des droits humains dans les questions d’éthique dans le domaine de l’IA était clairement une priorité. Nous avons choisi de porter notre attention tout particulièrement sur l’égalité et la non-discrimination dans l’apprentissage automatique en raison de leur acuité dans la vie quotidienne.  

La déclaration de Toronto a été rédigée après des discussions et entretiens avec de nombreux experts de l’IA, des droits humains et des affaires. Après la tenue de vastes consultations, la Déclaration a été adoptée le 16 mai lors de la RightsCon 2018. La Déclaration contient trois grandes sections.

Premièrement, elle définit les devoirs des États dans la prévention de la discrimination lors de la conception ou de la mise en œuvre de systèmes d’apprentissage automatique dans un cadre public ou par le biais de partenariats entre le public et le privé. Cette section inclut les principes en matière d’identification des risques dans l’utilisation des systèmes d’apprentissage automatique, de garantie de la transparence et de la responsabilité (notamment en communiquant publiquement en cas de recours aux systèmes d’apprentissage automatique), de mise en œuvre d’une surveillance (notamment les mécanismes de surveillance indépendante), et de promotion de l’égalité.

Deuxièmement, la Déclaration souligne les responsabilités des acteurs privés dans le développement et le déploiement des systèmes d’apprentissage automatique. Ces responsabilités sont basées sur le principe de diligence en matière de droits humains (défini à l’origine dans les Principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l'homme). Ces responsabilités comprennent l’identification des effets potentiellement discriminatoires en cartographiant et en évaluant les risques, la prise d’initiatives efficaces pour prévenir et atténuer la discrimination (notamment en soumettant les systèmes à des audits indépendants menés par des tierces parties en cas de risque important de violation des droits humains), et la transparence (notamment en publiant les spécifications techniques, les échantillons des données d’apprentissage utilisées et leurs sources).

Troisièmement, la Déclaration affirme le droit à un recours efficace et l’engagement des responsabilités en cas d’abus. La Déclaration appelle les gouvernements à garantir des normes dans l’utilisation de l’apprentissage automatique dans le domaine public, à agir prudemment en matière d’utilisation de l’apprentissage automatique dans le système judiciaire, à souligner clairement les responsabilités dans le développement et le déploiement des applications d’apprentissage automatique, et à clarifier quels sont les organismes ou les individus juridiquement responsables des décisions prises dans l’utilisation de ces systèmes.

Le développement et la publication de la Déclaration n’est qu’une première étape visant à faire des droits humains un élément fondamental de l’IA et de l’éthique des données. La Déclaration définit les principes dans les politiques et les pratiques mais pour les transcrire dans les faits, nous avons besoin de lignes directrices concrètes pour leur mise en œuvre afin d’aider les ingénieurs et les chefs de produit à appliquer ces principes. Amnesty commence à travailler avec les ingénieurs et les chercheurs dans cette optique.

Il importe également que la déclaration de Toronto soit approuvée le plus largement possible par la société civile pour affirmer la place centrale des droits humains dans le débat sur l’éthique dans l’IA. Un signal puissant serait ainsi envoyé aux sociétés technologiques sur l’attente qu’elles approuvent également la Déclaration et s’engagent à garantir que les droits humains ne soient pas compromis par les nouvelles technologies. S’engager davantage avec le secteur technologique pour établir un dialogue entre les praticiens des droits humains et les ingénieurs aiderait à intégrer les droits humains au développement et à l’utilisation de l’IA.

Enfin, nous devons encourager une communication équilibrée sur les technologies de l’IA en soulignant que son utilisation peut être positive mais qu’elle peut également déboucher sur des abus. Présenter l’IA de manière utopique ou dystopique ne favorise pas un débat constructif, et nous empêchera de traiter les risques réels et de tirer profit des opportunités liées à l’IA.

*** This article is part of a series on technology and human rights co-sponsored with Business & Human Rights Resource Centre and University of Washington Rule of Law Initiative.