La « nouvelle économie verte » ? Les entreprises et l’utilisation responsable des algorithmes

Les algorithmes ont depuis longtemps aidé à la prise de décision mais alors que l’intelligence artificielle gagne en autonomie, les entreprises ont besoin de lignes directrices et de réglementations pour garantir que cette nouvelle technologie ne viole pas les droits humains.


By: Matthew Fenech
May 17, 2018

Available in:
English | Español


EFE/John G Mabanglo

The process by which the data powering AI is collected, stored and analyzed is often opaque.


L’intelligence artificielle (IA) se réfère aux techniques en informatique, ingénierie et techniques connexes qui sont utilisées pour construire des machines capables de comportement « intelligent », comme par exemple le fait de résoudre des problèmes. Les tendances et les informations qui peuvent être obtenues en analysant d’énormes bases de données utilisant l’intelligence artificielle se sont révélées être extrêmement précieuses sur le plan commercial : Accenture a estimé que le secteur de l’intelligence artificielle vaudra 8,3 billions de dollars, rien qu’aux États-Unis, d’ici 2035.

Les algorithmes (les procédures étape par étape utilisées par les machines pour les calculs, le traitement des données, et le raisonnement automatisé) ont depuis longtemps été utilisés dans l’aide décisionnelle. Mais au cours de ces dernières années, l’aptitude de plus en plus forte de l’intelligence artificielle à interroger des bases de données importantes et à établir des prédictions a entraîné une augmentation des prises de décisions fondées sur les algorithmes. Les algorithmes prennent désormais des décisions avec divers degrés d’autonomie dans tout un ensemble de situations, y compris dans le système judiciaire pénal, les services financiers, les ressources humaines, la publicité (en particulier dans les médias sociaux), et la santé. Alors que des décisions toujours plus sensibles sont remises entre les mains des algorithmes, cette dépendance de plus en plus forte à l’égard de l’intelligence artificielle soulève de sérieuses préoccupations en matière de droits humains et de protection de la vie privée.

Par exemple, le processus par lequel les données qui alimentent l’intelligence artificielle sont collectées, stockées et analysées est souvent opaque. Cet état de fait est particulièrement évident dans le scandale récent concernant le partage des données de plus de 87 millions d'utilisateurs de Facebook avec la société de conseil en politique Cambridge Analytica. En général, de nombreux utilisateurs d’internet ne savent pas que leurs données sont collectées ou « consentent » à leur collecte dans le cadre de « conditions générales » incompréhensibles.

L’utilisation d’un algorithme pour prendre une décision (ou la manière dont celui-ci est arrivé à une décision spécifique) pose également un souci car ce n’est pas toujours clair. Les algorithmes d’apprentissage automatique modernes, en particulier les réseaux neuronaux, ont souvent été qualifiés de « boîtes noires ». Utiliser des algorithmes qui ne sont pas transparents ou explicables soulève des préoccupations justifiées, en particulier lorsque les décisions prises peuvent affecter de manière significative la vie d’une personne. Un exemple notoire est celui de l’algorithme COMPAS, qui fut utilisé par des tribunaux américains pour évaluer le risque de récidive d’un individu : les populations blanches étaient deux moins susceptibles d’être désignées à tort alors que les populations noires étaient deux fois plus susceptibles d’être signalées à tort. less likely to falsely flag white people, and two times more likely to falsely flag black peopleL’entreprise qui élabore l’algorithme, Equivant (anciennement Northpointe Inc.) conteste cette analyse. Pire encore, les concepteurs ont refusé de divulguer les rouages internes de l’algorithme en invoquant la propriété intellectuelle, et les contestations de cette position devant la justice ont échoué.

Le vieil adage informatique « garbage in, garbage out » (littéralement, ordures à l’entrée, ordures à la sortie) est particulièrement pertinent ici. L’analyse et les prédictions émises par les algorithmes de l’intelligence artificielle dépendent des données qui l’informent : si ces dernières sont biaisées d’une manière ou d’une autre, alors les résultats reflèteront ce biais. Les biais peuvent se produire lorsque les données disponibles ne sont pas un reflet exact du groupe de personnes qu’elles sont censées représenter, ce qui peut être dû à des évaluations incorrectes, une collecte de données incomplète ou d’autres failles dans la collecte de données. Le processus modélisé peut lui-même être discriminatoire. Dans un exemple d’algorithme biaisé, les annonces Google pour les emplois rémunérés plus de 200 000 dollars étaient diffusées aux hommes et beaucoup moins aux femmes, reflétant les disparités de salaires entre les deux sexes. Kate Crawford, professeur-chercheur et co-fondatrice de AI Now Institute à NYU, a écrit un excellent article (« Artificial intelligence’s white guy problem ») montrant que certains biais peuvent soit ne pas être identifiés soit être minorés car le débat sur le problème de l’intelligence artificielle est largement dominé par une population blanche et masculine. Le manque de diversité dans le domaine de l’intelligence artificielle amplifie clairement cet état de fait.

Les entreprises doivent travailler avec les autorités publiques et la société civile pour éviter que les utilisations biaisées et discriminatoires de l’intelligence artificielle deviennent monnaie courante. Même si la réglementation sur l’application des algorithmes au sein des entreprises est en développement, l’obligation de protéger les droits humains reste d’actualité. Privacy International et Article 19, deux organisations qui font campagne en faveur du droit à la vie privée et du droit à la liberté d’expression, ont récemment déclaré que les entreprises doivent garantir que l’utilisation de l’intelligence artificielle, au minimum, respecte, défende et protège les normes internationales relatives aux droits humains. 

Qu’en est-il de la réglementation ? Le chapitre trois du Règlement général sur la protection des données (RGPD), qui entrera en vigueur au sein de tous les pays membres de l’UE en mai 2018, traite de la transparence dans les cas de prise de décision automatisée et prévoit d’apporter des « informations utiles sur la logique impliquée », ce qui peut se traduire par « le droit à l’explication ». Les consommateurs résidant au sein de l’UE gagneront le droit de demander aux entreprises des informations sur les décisions prises à leur égard à l’aide d’algorithmes. Bien qu’un grand nombre des aspects les plus sensibles du RGPD soient laissés à la discrétion des États membres pour ce qui est de la transposition dans le droit national, les entreprises peuvent vouloir saisir cette opportunité pour montrer qu’elles prennent le problème de la transparence algorithmique au sérieux en donnant à leurs clients autant d’informations que possible sur leur processus décisionnel fondé sur les algorithmes. Une étude de marché a suggéré que les clients attachent aujourd’hui une plus grande importance à la transparence lors de la décision d’achat.

S’efforcer d’éviter les conséquences discriminatoires liées à l’application de l’intelligence artificielle présente également un réel avantage commercial. Les consommateurs sont plus susceptibles de partager leurs données et d’interagir avec les institutions en qui elles ont confiance. Qu’est-ce qui pourrait renforcer la confiance dans les entreprises à l’ère de l’intelligence artificielle?

Dans le livre blanc publié par le Forum économique mondial en mars, les auteurs affirment qu’en se livrant à une diligence raisonnable des droits humains, les entreprises doivent prendre en compte de manière proactive, et intégrer, les principes de non-discrimination, d’empathie, et la primauté de la dignité humaine dans leurs activités. Plus précisément, ils prônent les éléments suivants :

  1. L’inclusion active : en concevant les outils au service de l’intelligence artificielle, les développeurs doivent garantir qu’ils prennent en compte les opinions et les valeurs d’une population au profil varié, en particulier les personnes qui sont les plus susceptibles d’être affectées.
  2. L’équité : les développeurs et les utilisateurs de l’intelligence artificielle devraient réfléchir au sens du terme « équitable » lors de la conception et de l’application d’un algorithme. Ils devraient alors donner la priorité à cette définition de l’équité en décidant des indicateurs de performance et d’optimisation.
  3. Le droit de comprendre : les entreprises devraient indiquer clairement les instances où des algorithmes de l’intelligence artificielle sont utilisés pour prendre des décisions affectant les droits individuels. Des explications facilement compréhensibles sur la manière dont les décisions sont prises par les algorithmes devraient également être données. Si ces conditions ne peuvent pas être remplies, alors les entreprises devraient réfléchir sur la pertinence de l’utilisation de l’algorithme.
  4. L’accès à des recours : les entreprises devraient, de manière proactive et transparente, fournir une voie de recours à quiconque susceptible d’être affecté négativement, et devraient apporter rapidement des modifications aux algorithmes pour éviter que  des situations semblables puissent se répéter.

Ce domaine est peut-être nouveau mais les entreprises peuvent tirer des enseignements des campagnes en faveur de l’environnement et du mouvement mondial visant à s’attaquer au changement climatique. Tout comme les consommateurs attendent des entreprises que celles-ci soient soucieuses de l’environnement (par exemple en minimisant leur empreinte carbone et en réduisant l’utilisation des emballages en plastique), utiliser les algorithmes de manière appropriée et responsable pourrait présenter des avantages significatifs sur le plan commercial. Adopter la bonne approche à la prise de décision algorithmique pourrait devenir une « nouvelle forme d’économie verte ». Ce n’est qu’alors que les entreprises, les gouvernements et les citoyens pourront travailler ensemble afin d’optimiser les opportunités et de minimiser les risques liés à ces technologies.

*** This article is part of a series on technology and human rights co-sponsored with Business & Human Rights Resource Centre and University of Washington Rule of Law Initiative.


Matthew Fenech est consultant en recherches et conseils sur l’intelligence artificielle (IA). Suivez-le sur Twitter : @MattFenech83 @FutureAdvocacy


 

COMMENTS