Sin medidas concretas, la información que aporta la IA sobre los derechos humanos no tiene sentido

Tenemos que actuar con base en la información que obtenemos de la IA: la tecnología no sustituye a la voluntad política necesaria para impulsar el cambio.


By: Samir Goswami
June 20, 2018

Available in:
English


 ILO in Asia and the Pacific - Flickr(CC BY-NC-ND 3.0 IGO)

La IA se puede utilizar para procesar la multitud de datos disponibles y detectar las violaciones de derechos humanos que enfrentan muchos trabajadores en fábricas, granjas y minas en todo el mundo.


Últimamente se ha hablado mucho sobre la inteligencia artificial (IA) y sus posibles consecuencias, positivas o negativas, para los derechos humanos. Si bien la IA ha mejorado tremendamente nuestra capacidad de procesar el mundo que nos rodea, y se puede utilizar para promover los derechos humanos, los gobiernos, las empresas multinacionales y otros actores capaces de impulsar el cambio no suelen materializar este potencial. Es decir, la tecnología bien puede ayudar a revelar problemas de derechos humanos y mejorar su comprensión; sin embargo, nosotros, los seres humanos, tenemos que desarrollar la voluntad política para intervenir. Lamentablemente, esto no se hace con suficiente frecuencia en el ámbito de los derechos humanos.

Por ejemplo, el Departamento de Trabajo de los EE. UU. calcula que 139 productos de 75 países podrían estar hechos con trabajo infantil o forzado. La IA se puede utilizar para procesar la multitud de datos disponibles y detectar las violaciones de derechos humanos que enfrentan muchos trabajadores en fábricas, granjas y minas en todo el mundo. La mayoría de las empresas multinacionales tienen códigos de conducta que esperan que cumplan los proveedores, y utilizan auditorías para monitorear las condiciones de trabajo. A menudo, se requiere tecnología informática para procesar esta gran cantidad de datos de auditoría a fin de detectar problemas.

Sin embargo, es posible que auditores corruptos falsifiquen los datos de auditoría o que auditores con poca experiencia no se comuniquen directamente con los trabajadores en sus lenguas maternas y, por lo tanto, no registren posibles violaciones. Estas limitaciones pueden generar una imagen sesgada de si el proveedor actúa éticamente o no. Los sistemas con inteligencia artificial pueden validar las auditorías con otras fuentes de información, como artículos noticiosos, archivos judiciales, registros públicos y otros materiales. Además, también se puede utilizar la IA para examinar las redes sociales, los foros de chat, los tableros de mensajes o los sitios web de comentarios públicos en búsqueda de cualquier referencia a esos proveedores por parte de los trabajadores. Los administradores de las cadenas de suministro pueden usar la IA para analizar todas estas corrientes de datos en conjunto y generar una evaluación independiente de las prácticas laborales de un proveedor desde el punto de vista de los derechos humanos.

Sin embargo, este procesamiento habilitado por la IA también se puede aprovechar para fines perversos. Los propietarios de fábricas ilícitas pueden usar la tecnología para revisar las publicaciones de los trabajadores en las redes sociales y atacar a los organizadores de sindicatos o “revoltosos”. Los Estados corruptos pueden utilizar tecnología de reconocimiento facial combinada con IA para atacar a los trabajadores migrantes o los defensores de derechos humanos que cuestionan a los regímenes represivos por las prácticas laborales de explotación. Además, con esta tecnología es posible identificar a trabajadores a los que los gobiernos pueden acosar o detener arbitrariamente a partir de sospechas, basadas en la IA, de que podrían cuestionar las prácticas de empleo y las malas condiciones de trabajo.

Sin embargo, este procesamiento habilitado por la IA también se puede aprovechar para fines perversos".

Por otra parte, una mayor automatización puede llevar a la disminución de ciertos tipos de trabajo, desplazar a los trabajadores de salarios bajos y reducir los salarios. Un informe de la Casa Blanca de los EE. UU. de 2016 encontró  que la IA y la automatización podrían afectar entre el 9 % y el 47 % de los trabajos en las próximas dos décadas. La International Corporate Accountability Roundtable calcula que dos tercios de todos los trabajos en los países en desarrollo podrían enfrentar una automatización considerable, principalmente en los sectores del vestido, la electrónica y la agricultura. Un informe de la Organización Internacional del Trabajo de 2016 identifica los riesgos que supondrán “la automatización, los robots y la inteligencia artificial” para millones de trabajadores en Asia. Estas repercusiones recaerán sobre los hombros de los migrantes y las mujeres de bajos ingresos, que ya están entre las personas más vulnerables del mundo. Los gobiernos necesitan crear marcos de políticas e invertir recursos para garantizar que la IA no solo genere riqueza para unos pocos a expensas de otros.

Si bien los gobiernos y las empresas deben seguir invirtiendo en la “IA para hacer el bien”, también tienen que actuar con base en la información que generan la IA y el aprendizaje automático. Los criterios de inversión no deberían ser simplemente que la tecnología se haya desarrollado o implementado, también es necesario medir los resultados humanos que se lograron. Es decir, ¿realmente se produjo el “bien” que se buscaba en una aplicación de “IA para hacer el bien”? Por ejemplo, la IA puede ayudar a identificar exactamente qué fábrica podría utilizar trabajo infantil, pero esa información se desperdicia si la empresa no responde, con el riesgo de ignorar deliberadamente sus obligaciones éticas con esos niños. Por desgracia, aunque se están logrando algunos avances, muchas empresas simplemente no están tomando medidas suficientes a partir de la información sobre abusos laborales a la que tienen acceso gracias a la tecnología.

De manera similar, los organismos gubernamentales reguladores y de supervisión también pueden utilizar la IA y el aprendizaje automático para verificar cómo se trata a los trabajadores en las cadenas de suministro públicas y privadas. Esta información se puede utilizar para aplicar las leyes ya existentes que prohíben que los productos hechos con trabajo forzado y trabajo infantil entren a los mercados de consumo, o para hacer cumplir los acuerdos comerciales que tienen protecciones laborales vigentes, pero frecuentemente ignoradas. Los gobiernos tienen que tomar medidas con base en esa información adquirida a través de la tecnología, obligando a las empresas a que impulsen mejoras en las cadenas de suministro y presionando a sus socios comerciales para que respeten los derechos de los trabajadores.

Si bien la IA tiene, y puede tener, un enorme efecto positivo en los derechos humanos, los gobiernos tienen que garantizar que la riqueza que crea no agrave las disparidades económicas existentes. La aplicación de la IA también debe medirse en función de los resultados que produce y si estos violan los principios de derechos humanos. Sobre todo, quienes tienen el poder y la capacidad deben actuar con base en la información adquirida: la tecnología es tan solo una herramienta para ayudar a comprender mejor un problema; no sustituye a la voluntad política que se necesita para impulsar el cambio.

*** This article is part of a series on technology and human rights co-sponsored with Business & Human Rights Resource Centre and University of Washington Rule of Law Initiative.

 


Samir Goswami es consultor de temas de negocios y trabajo justo y da clases de RSE en la División de Asuntos Globales de la Universidad de Rutgers. Esta publicación de blog es un extracto de su testimonio reciente ante la Comisión de Derechos Humanos Tom Lantos en el Congreso de los EE. UU. en una audiencia llamada “Inteligencia artificial: las consecuencias para los derechos humanos”.


 

COMMENTS