A medida que avanza la inteligencia artificial, ¿cómo es la verdadera responsabilidad?

 EFE/ Michael Reynolds

Cien figuras de cartón con el fundador y presidente de Facebook, Marck Zuckerberg, con camisetas en las que se lee "arregla Facebook", colocadas por el grupo activista 'AVAAZ', frente al Capitolio de Washington DC (Estados Unidos) el 10 de abril de 2018.


Las tecnologías de inteligencia artificial (IA) —y los modelos comerciales impulsados por datos que las sustentan— están alterando nuestra forma de vivir, interactuar, trabajar, hacer negocios y gobernar. Si bien los beneficios económicos, sociales y ambientales pueden ser considerables, por ejemplo, en los ámbitos de la investigación médica, el diseño urbano, las prácticas de empleo equitativas, la participación política y la prestación de servicios públicos, cada vez hay más evidencia de las posibles consecuencias negativas para la sociedad y las personas. Estas incluyen el debilitamiento de la privacidad, la presencia de discursos de odio en línea y la distorsión de la participación política. También incluyen la amplificación de la discriminación arraigada en la sociedad, cuando se utilizan algoritmos basados en datos de aprendizaje sesgados para la determinación de sentencias penales o para la publicación de vacantes y las contrataciones. Además, ciertos grupos vulnerables requerirán atención especial. Por ejemplo, UNICEF publicó recientemente una serie de artículos sobre los derechos infantiles y las empresas en el mundo digital, que tratan sobre las oportunidades y los riesgos que enfrentan los niños en cuanto al acceso a la educación y la información, la libertad de expresión, la privacidad, la publicidad digital y la seguridad en línea.

Todo esto significa que necesitamos urgentemente una perspectiva sólida de lo que es una conducta responsable, y una visión de cómo los mercados y los mecanismos de gobernanza pueden guiar los comportamientos correctos a la vez que fomentan la innovación. Creemos que el campo de las empresas y los derechos humanos, en particular los Principios Rectores sobre las Empresas y los Derechos Humanos de las Naciones Unidas (UNGP, por sus siglas en inglés), ofrece una forma convincente de avanzar que se adapta a la perfección al desafío que tenemos por delante.

En una audiencia reciente ante el Senado de los Estados Unidos, Mark Zuckerberg, director ejecutivo de Facebook, mencionó una y otra vez la idea de que la empresa no adoptó una “visión lo suficientemente amplia” de su responsabilidad. Esto refleja perfectamente la situación actual, no solo de Silicon Valley, sino de toda la comunidad empresarial global que está inmersa en el desarrollo de una estrategia digital para la llamada cuarta revolución industrial. Zuckerberg habló de un “cambio filosófico más amplio en la forma en que abordamos nuestra responsabilidad como empresa” y de que “tenemos que revisar todas nuestras relaciones con las personas y asegurarnos de que tenemos una visión lo suficientemente amplia de nuestra responsabilidad”. Dijo que era un error “ver nuestra responsabilidad tan solo como una herramienta de construcción”, y cuando se le preguntó sobre el lema inicial de la empresa, moverse rápido y romper cosas, admitió: “Sí creo que cometimos errores por ello”.

Sin embargo, más allá de señalar varias propuestas legislativas (por ejemplo, sobre privacidad de datos, protección de menores en línea, consentimiento y publicidad de campañas), ninguno de los 50 senadores trató de obtener una formulación precisa de lo que podría significar una “responsabilidad más amplia” en la práctica. Nos quedamos con un sentimiento de esperanza y sin un sentido claro de lo que la sociedad debería esperar (o exigir) de las organizaciones y empresas que desarrollan, venden, compran y utilizan soluciones de tecnología de IA e impulsada por datos. El hecho de no contar con un marco de responsabilidad —ni con una comprensión de cómo pueden verificar esa responsabilidad las partes interesadas— no es un buen resultado para nadie. Los legisladores y las empresas se verán envueltos en una especie de tira y afloja entre la falsa disyuntiva del libertarismo y la intervención estatal. La sociedad civil y las personas afectadas buscarán rendición de cuentas cuando ocurran daños, pero es probable que carezcan de los conocimientos técnicos o los recursos necesarios para lograr los resultados deseados. Y los empresarios, ingenieros, tecnólogos, científicos de datos, equipos de ventas y líderes empresariales no tendrán una brújula que oriente sus prácticas. Mientras tanto, la innovación continuará y es probable que las personas sufran más daños (especialmente los grupos vulnerables). Mucho ruido, pero nada de cambios.

Por estas razones, los Principios Rectores sobre las Empresas y los Derechos Humanos de las Naciones Unidas (UNGP) podrían hacer frente al desafío que se avecina avanzando de forma continua para arreglar lo que no está funcionando para los titulares de derechos. Varios acontecimientos recientes apuntan en esa dirección. Iniciativas como Partnership on AI, Ethics and Governance of AI Fund, AI Now y el trabajo de Data & Society exploran las repercusiones sociales, éticas y de derechos humanos de la IA. Los gobiernos también están avanzando. Por ejemplo, la Comisión Australiana de Derechos Humanos emprendió un proyecto que intenta garantizar que se dé prioridad a los derechos humanos en el diseño y la regulación de las nuevas tecnologías. Y muchas organizaciones, como el Information Technology Industry Council, la Software and Information Industry Association y el Institute of Electrical and Electronics Engineers, han publicado principios sobre la ética y la IA, algunos de los cuales se refieren expresamente a los Principios Rectores de las Naciones Unidas.

"Por estas razones, los Principios Rectores sobre las Empresas y los Derechos Humanos de las Naciones Unidas (UNGP) podrían hacer frente al desafío que se avecina avanzando de forma continua para arreglar lo que no está funcionando para los titulares de derechos".

Identificamos tres preguntas clave que son fundamentales para este debate y escribiremos artículos al respecto en los próximos meses:

  • ¿Cómo puede el campo de las empresas y los derechos humanos afrontar las posibles consecuencias negativas de las tecnologías disruptivas? Por ejemplo, ¿qué se puede hacer para que las medidas de la sociedad para controlar los efectos perjudiciales sobre los más vulnerables (como los niños, las personas que viven en situación de pobreza y las minorías étnicas) se adapten a los cambios? Las empresas deben conocer todos los derechos humanos y mostrar que los respetan mientras hacen negocios; además, existe una necesidad global de proporcionar reparaciones rápidas y significativas cuando se producen daños. Las personas que trabajan en este campo tienen que reflexionar sobre los límites de los marcos, las herramientas y las prácticas actuales, e identificar cuándo es necesario innovar; por ejemplo, al usar métodos que aborden tanto las oportunidades como los riesgos en materia de derechos humanos.
  • ¿Quién debe participar en la implementación de una práctica de responsabilidad más amplia? Las grandes empresas de tecnología deben desempeñar un papel de liderazgo fundamental. Sin embargo, creemos que las cuestiones de derechos humanos relacionadas con los macrodatos y la IA ahora conciernen a todas las industrias, y no solo al sector de la tecnología. Implementar soluciones de IA en ciertas actividades empresariales básicas (como las ventas, la mercadotecnia y el lugar de trabajo) y en industrias diversas (como los servicios financieros, el comercio minorista, la atención médica, el transporte y la logística) puede tener repercusiones considerables en materia de derechos humanos. Sin embargo, la pregunta de “quién” tiene otras dimensiones importantes. Dentro de las grandes empresas, ¿quién debería estar involucrado en garantizar el respeto de los derechos humanos (por ejemplo, los funcionarios de tecnología, ingenieros, científicos de datos o abogados)? ¿Cuál es el papel de los centros de investigación universitarios, desarrolladores de aplicaciones, empresarios, organismos profesionales y capitalistas de riesgo? ¿Cómo deberían participar la sociedad civil y los titulares de los derechos en la definición de buenas prácticas empresariales?
  • ¿Qué herramientas, metodologías o pautas pondrán en práctica el respeto de los derechos humanos por parte de las empresas en el contexto de las tecnologías disruptivas? ¿Cómo pueden los analistas y activistas identificar las necesidades de los líderes empresariales a la vez que integran el respeto de los derechos humanos en la toma de decisiones de las empresas? En este aspecto del debate, es fundamental destacar casos de buenas prácticas o prácticas emergentes, ya sea relacionadas con la incorporación del respeto de los derechos humanos en las políticas y los procesos o relacionadas con consecuencias y dilemas específicos. Las políticas, pautas y herramientas que puedan contribuir a integrar el respeto de los derechos humanos en el proceso de toma de decisiones sobre tecnologías disruptivas también son de suma importancia. Esto podría incluir: herramientas diseñadas para evaluar los efectos en materia de derechos humanos de los productos, servicios y tecnologías; cuestiones fundamentales de derechos humanos que se deberán abordar como parte de la debida diligencia para desarrollar o adquirir soluciones tecnológicas; pautas sobre cómo garantizar que las perspectivas de los titulares de los derechos informen el diseño de la tecnología; o principios sobre cómo abordar el consentimiento informado y las reparaciones en el contexto de la complejidad digital.

Es hora de definir la responsabilidad en términos reales y hora de averiguar cómo incorporar la dignidad universal y el respeto de los derechos humanos en la cuarta revolución industrial. En el transcurso de este debate en OGR, recibiremos con agrado sus respuestas a estas preguntas, y nos complacerá poner a prueba y perfeccionar nuestras ideas con líderes del sector empresarial, la sociedad civil y el gobierno.

*** This article is part of a series on technology and human rights co-sponsored with Business & Human Rights Resource Centre and University of Washington Rule of Law Initiative.