Alors que l’intelligence artificielle progresse, à quoi ressemble la responsabilité réelle ?

L’intelligence artificielle change notre manière de vivre, de travailler, de faire des affaires et de diriger mais quels mécanismes peuvent guider un comportement responsable sans brider l’innovation ?


By: Dunstan Allison-Hope & Mark Hodge
May 16, 2018

Available in:
English | Español | Français | 日本語


 EFE/ Michael Reynolds

While Mark Zuckerberg prepares to testify before the Senate, 100 cardboard cutouts of the Facebook founder and CEO stand outside the U.S. Capitol in Washington on Tuesday, April 10, 2018.


Les technologies de l’intelligence artificielle (IA) et les modèles économiques basés sur les données qui les sous-tendent changent de manière radicale notre façon de vivre, de communiquer, de travailler, de faire des affaires et de diriger. Les avantages économiques, sociaux et environnementaux pourraient être significatifs, par exemple dans le domaine de la recherche médicale, de l’aménagement urbain, de la politique de l’emploi équitable, de la participation politique et de la gestion des services publiques. Mais les faits montrant les conséquences potentiellement négatives pour la société et les individus, notamment dans le domaine de l’érosion de la vie privée, des discours à caractère haineux sur internet et de la distorsion de l’engagement politique, sont de plus en plus nombreux. Ils montrent également une intensification de la discrimination sociale avec des algorithmes fondés sur des données biaisées utilisés dans la détermination de peines pénales ou dans les annonces d’emploi et le recrutement. De plus, certains groupes vulnérables nécessitent qu’une attention particulière leur soit portée. Par exemple, l’UNICEF a récemment publié une série de documents sur les droits des enfants et l’entreprise dans le monde numérique en présentant les risques et opportunités auxquels les enfants font face dans le domaine de l’accès à l’éducation et à l’information, de la liberté d’expression, de la vie privée, du marketing en ligne, et de la sécurité numérique.

Tout ceci signifie que nous avons de toute urgence besoin d’avoir une vision solide de ce à quoi ressemble une conduite responsable ainsi qu’une perception de la manière dont les marchés et les mécanismes de marché et de gouvernance peuvent orienter les comportements appropriés tout en encourageant également l’innovation. Nous croyons que le domaine de l’entreprise et des droits humains, en particulier les Principes directeurs de l'ONU relatifs aux entreprises et aux droits de l'homme (UNGP), offrent un moyen efficace d’aller de l’avant permettant de faire face aux défis qui nous attendent.

Lors d’une audition récente au sénat américain, Mark Zuckerberg, PDG de Facebook, n’a cessé de revenir sur le fait que l’entreprise n’avait pas adopté une « vue assez large » de sa responsabilité. Cela résume parfaitement la situation, non pas uniquement au sein de la Silicon Valley, mais pour l’intégralité des acteurs économiques qui sont en train de développer leur stratégie digitale pour la soi-disant quatrième révolution industrielle. Zuckerberg a parlé d’un « changement plus large de philosophie dans la façon dont nous abordons notre responsabilité en tant qu’entreprise » et que « nous devons revoir l’ensemble de nos relations avec les gens et nous assurer que nous adoptons une approche suffisamment large de notre responsabilité ». Il a dit que c’était une erreur de « voir notre responsabilité uniquement comme un moyen d’action » et lorsque interrogé sur le slogan initial de Facebook « aller vite et faire voler en éclats », il a admis : « Je pense que nous avons commis des erreurs pour cette raison ».

Cependant, hormis plusieurs propositions de lois différentes (par exemple sur les données personnelles, la protection des enfants, le consentement, et les campagnes publicitaires) aucun des 50 sénateurs n’a demandé de formuler clairement ce qu’une « responsabilité plus large » signifie concrètement. Nous nous retrouvons avec un sentiment d’espoir mais sans idée claire de ce à quoi la société devrait s’attendre (ou exiger) des organisations et des entreprises qui développent, vendent, achètent, et utilisent les bases de données et l’intelligence artificielle. Ne disposer ni de cadre régissant la responsabilité ni d’une compréhension de la manière dont les parties prenantes peuvent contrôler cette responsabilité n’est un résultat positif pour personne. Les législateurs et les entreprises vont être tiraillés entre le faux choix du libertarianisme et de l’intervention étatique. La société civile et les personnes affectées vont chercher à ce que des comptes soient rendus en cas de préjudice mais ne vont probablement pas disposer du savoir-faire technique ou des ressources pour arriver à leurs fins. Et les entrepreneurs, les ingénieurs, les techniciens, les spécialistes des données, les équipes de vente, et les dirigeants du monde des affaires n’auront aucune boussole pour orienter leurs pratiques. Pendant ce temps, l’innovation va continuer et les personnes, en particulier les groupes vulnérables, feront face à un plus grand nombre de préjudices. Beaucoup de bruit pour peu de changement.

Pour ces raisons, les Principes de l’ONU relatifs aux entreprises et aux droits de l’homme (UNGP) pourraient relever le défi en allant résolument de l’avant pour réparer ce qui ne fonctionne pas pour les détenteurs de droits. Plusieurs développements récents vont en ce sens. Des initiatives sont prises, comme l’organisation Partnership on AI, le Ethics and Governance of AI Fund, AI Now, et le travail de l’institut de recherche Data & Society, afin d’étudier les implications de l’IA dans le domaine social, de l’éthique, et des droits humains. Les autorités publiques vont également de l’avant. Par exemple, la Commission australienne pour les droits humains a lancé un projet qui cherche à garantir que les droits humains soient prioritaires dans la conception et la réglementation des nouvelles technologies. De plus, de nombreuses organisations, comme le Information Technology Industry Council, la Software and Information Industry Association, et l’Institute of Electrical and Electronics Engineers, ont publié des principes en matière d’éthique et d’intelligence artificielle, certains se référant explicitement aux Principes directeurs de l’ONU.

Nous voyons trois questions clefs comme étant essentielles à ce débat et nous écrirons des articles qui y répondent dans les mois à venir :

 

  • De quelle manière les acteurs du monde des affaires et des droits humains peuvent-ils s’attaquer aux conséquences potentiellement négatives des technologies disruptives ? Par exemple, comment la gestion par la société des effets négatifs sur les plus vulnérables (comme les enfants, ceux qui vivent dans la pauvreté, et les minorités ethniques) peut-elle suivre le rythme des évolutions ? Les entreprises devraient savoir et montrer qu’elles respectent tous les droits humains en faisant des affaires, et il y a un besoin, au niveau mondial, d’apporter des réparations rapides et significatives en cas de préjudice. Ceux qui travaillent dans ce domaine doivent réfléchir sur les limites des cadres, des outils et des pratiques en vigueur aujourd’hui, et identifier les domaines où il faut innover, comme les méthodes permettant de saisir les opportunités ou de faire face aux risques qui se présentent en matière de droits humains.
     
  • Qui doit être impliqué pour arriver à un sens de la responsabilité plus large ? Les grandes firmes technologiques ont un rôle de leader essentiel à jouer. Mais nous croyons que les problèmes de droits humains en lien avec le big data et l’intelligence artificielle sont aujourd’hui un souci pour toutes les entreprises et non pas uniquement pour les firmes technologiques. Les effets potentiels sur les droits humains liés au déploiement des solutions d’intelligence artificielle dans certaines activités fondamentales des entreprises (concernant par exemple, les ventes, le marketing, et le lieu de travail) et dans des secteurs d’activité divers (comme dans les services financiers, la distribution, la santé, le transport et la logistique) sont significatifs. Toutefois, la question du « qui » comporte d’autres dimensions importantes. Qui, au sein des grandes entreprises, devrait être impliqué afin de garantir le respect des droits humains (comme les chargés de technologie, les ingénieurs, les spécialistes des données et les juristes) ? Quel est le rôle des centres de recherche universitaire, des développeurs d’applications, des entrepreneurs, des organismes professionnels et des sociétés de capital-risque ? Comment la société civile et les détenteurs de droits devraient-ils être impliqués dans la définition des bonnes pratiques des entreprises ?
     
  • Quels sont les outils, les méthodologies ou les lignes directrices permettant, dans un contexte de technologies disruptives, de faire en sorte que le respect des entreprises pour les droits humains soit effectif ? Comment les analystes et les militants peuvent-ils définir les besoins des dirigeants du monde des affaires tout en intégrant le respect des droits humains dans le processus de prise de décision de l’entreprise ? Dans cet aspect du débat, il est essentiel de souligner les bonnes pratiques actuelles ou émergentes, que ce soit en lien avec le fait d’intégrer le respect des droits humains dans les politiques et processus ou en lien avec les conséquences ou les dilemmes spécifiques. Les politiques, les orientations, et les outils qui pourraient aider à intégrer le respect des droits humains dans la prise de décision quant aux technologies disruptives sont également de la plus grande importance. Ce qui peut inclure les éléments suivants : les outils conçus pour évaluer l’impact en matière de droits humains des produits, des services, et des technologies ; les questions essentielles en lien avec les droits humains à aborder en élaborant ou en fournissant des solutions technologiques ; les orientations sur la manière de garantir que les détenteurs des droits soient pris en compte lors de la conception des technologies ; ou les principes pour aborder le consentement éclairé et les réparations dans le contexte de la complexité numérique.

Il est temps de définir la responsabilité de manière concrète et actuelle pour déterminer comment faire en sorte que la quatrième révolution industrielle intègre la dignité pour tous et le respect des droits humains. Au fil du débat au sein d’OGR, vos réponses à ces questions sont les bienvenues, et nous serons heureux de tester et affiner nos idées avec les dirigeants du monde des affaires, de la société civile et du monde politique.


Dunstan Allison-Hope est directeur général de BSR (Business for Social Responsibility).

Mark Hodge est conseiller indépendant et chercheur au sein de l’ Institute for Human Rights and Business.

 


 

Les outils d’évaluation peuvent renforcer les mouvements sociaux en rassemblant les militants

BY: PeiYao Chen & Natalia Karbowska
English | Español | العربية | Русский | Українська

Le lien entre droits humains et développement s’est-il étiolé ?

BY: Paul Nelson & Ellen Dorsey
English | Español

Les Dirigeants, l’exil, et le dilemme de la justice internationale

BY: Daniel Krcmaric
English | Español

Les Objectifs de développement durable et l’égalité des sexes : une promesse sans lendemain ou une lueur d’espoir?

BY: Kate Donald  & Silke Staab
English | Español

 

COMMENTS