Cómo mitigar los sesgos injustos en la inteligencia artificial

En lugar de elegir entre sistemas operados exclusivamente por humanos o por inteligencia artificial, aprovechar lo mejor de los valores y las capacidades humanas junto con la inteligencia artificial promete mayores avances en cuestión de equidad, transparencia y rendición de cuentas.


By: Bernard Shen
September 4, 2018

Available in:
English


Photo: Pixaby/Geralt (CC0 - free for commercial use)


Las empresas, los gobiernos y otras instituciones cada vez utilizan más las tecnologías de inteligencia artificial (IA) para mejorar muchos campos de la actividad humana. Aprovechar lo mejor de la capacidad y los valores humanos junto con la inteligencia artificial genera enormes beneficios para la sociedad (p. ej., Seeing AI, Translator, SwiftKey, control de enfermedades, biodiversidad, cultivo sostenible, seguridad del agua, cuidado de la salud, etc.).  Sin embargo, los grupos de la sociedad civil, los gobiernos y otros actores están planteando preguntas legítimas sobre los riesgos a los derechos humanos (p. ej., sesgos injustos, consecuencias para la privacidad y la libertad de asociación, etc.). La gente no va a utilizar una tecnología en la que no confíe. De forma conjunta, la sociedad necesita considerar estas cuestiones, explorar posibles soluciones e implementar IA que priorice a las personas, proteja los derechos humanos y merezca la confianza del público.

La IA moderna suele utilizar el aprendizaje automático con un propósito definido. Los datos de entrenamiento pertinentes para ese propósito se procesan con métodos matemáticos para detectar patrones en la información y desarrollar un modelo que permita hacer predicciones o recomendaciones sobre datos nuevos. Por ejemplo, un empleador podría utilizar los datos existentes sobre los trabajadores para entrenar y desarrollar un modelo de IA que haga recomendaciones sobre decisiones de contratación de futuros candidatos.

Satya Nadella, director ejecutivo de Microsoft, escribió un artículo sobre la alianza entre los seres humanos y la inteligencia artificial, en el que señala que el debate más productivo no se trata de si la IA es buena o mala, sino de “los valores inculcados en las personas y las instituciones que crean esta tecnología”. En el artículo, reflexiona sobre seis principios y objetivos que la industria y la sociedad deberían analizar y debatir, y que se exploran más a fondo en The Future Computed: Artificial Intelligence and Its Role in Society (El futuro calculado: La inteligencia artificial y su función en la sociedad): 1) equidad; (2) fiabilidad y seguridad; (3) privacidad y seguridad; (4) inclusividad; (5) transparencia; y (6) responsabilidad.  Todos ellos son pertinentes a la protección y el avance de los derechos humanos; la equidad y la inclusividad se relacionan específicamente con el riesgo de sesgo injusto.

Después de todo, la IA no decide el propósito para el que se implementa. Las instituciones humanas deciden qué debe lograr, optimizar o maximizar un modelo de IA. ¿El propósito definido toma en cuenta el contexto y las consideraciones relevantes? Por ejemplo, si los humanos definen que el objetivo de un modelo de IA para hacer recomendaciones de contratación es centrarse exclusivamente en maximizar las ventas, ¿sus recomendaciones se inclinarían a favor de los candidatos que buscan vender a toda costa (incluido el uso de tácticas de ventas cuestionables o poco éticas) y en contra de los candidatos con aptitudes más holísticas y enfoques que fomentan la satisfacción y lealtad de los clientes? ¿El propósito es ilegal o injusto? La IA no se debe utilizar para discriminar por raza, religión, género u otras categorías protegidas (p.ej., en las decisiones de empleo, vivienda y préstamos). Incluso cuando el sesgo ilegal o injusto no es el propósito previsto, los seres humanos deben evaluar el riesgo de uso indebido o de consecuencias involuntarias. Por ejemplo, un modelo de IA que predice si alguien pertenece a una categoría protegida podría utilizarse para identificar y ofrecer servicios pertinentes a los integrantes de dicha categoría, o utilizarse de forma indebida para excluir a esos individuos del acceso a prestaciones importantes (como vivienda, empleo, etc.).

Además, la calidad de los datos de entrenamiento para el aprendizaje automático es un factor fundamental para la precisión y equidad del modelo resultante. ¿Los datos son apropiados, pertinentes, precisos, bien etiquetados, diversos y representativos? ¿Reflejan el sesgo humano existente? ¿Faltan datos pertinentes y se está entrenando a un modelo que hace predicciones sesgadas? Por ejemplo, si un modelo de IA para hacer recomendaciones de contratación se entrena exclusivamente con los datos de empleados actuales o anteriores, y no hay diversidad entre dichos empleados (p. ej., se trata principalmente de hombres blancos y jóvenes), es probable que el modelo resultante tenga un sesgo injusto en contra de candidatos de más edad, minorías raciales y mujeres.

Podríamos suponer que la forma de evitar el sesgo injusto es excluir datos delicados como la raza, el género u otras condiciones. Pero eso no es cierto. En un proyecto de investigación que utilizó IA para predecir el riesgo de muerte por neumonía, la IA aprendió que tener asma reduce ese riesgo. Sin embargo, este resultado favorable solo ocurre porque los pacientes con asma reciben atención médica más rápida e intensiva que los pacientes sin asma. Si este modelo se utilizara para predecir quién necesita hospitalización, generaría resultados negativos para los asmáticos, ya que predeciría tasas altas de supervivencia y deduciría, incorrectamente, que los asmáticos no necesitan ser hospitalizados. Sin embargo, eliminar los datos sobre asma solo empeoraría el problema.

Es posible que haya una correlación significativa entre las variables en cualquier conjunto de datos. Si se elimina una variable, las variables restantes correlacionadas con ella pueden afectar el aprendizaje de la IA de todas maneras y dificultar más la detección del problema. Es importante entrenar a la IA con todas las variables, incluidas las que pueden causar problemas, para que sea posible identificar esos problemas y abordarlos después del entrenamiento. Además, durante las pruebas del modelo de IA, utilizar datos de prueba diversos, incluidos parámetros delicados como la raza, el género, la edad, etc., podría ayudar a evaluar si el modelo hace predicciones justas y sin sesgos.

Incluso después de la implementación de un modelo de IA, se necesitan supervisores humanos para evaluar la calidad y el riesgo de que se presenten sesgos injustos en los nuevos datos de entrenamiento. Dado que los datos de entrenamiento son de crucial importancia en cuanto al riesgo de sesgo, explicar la naturaleza de dichos datos puede ayudar a abordar las inquietudes sobre la transparencia y la equidad de un modelo de IA.

Sin embargo, a medida que la sociedad busca mejorar la equidad de la IA con datos de entrenamiento diversos, debemos considerar cuidadosamente cómo conciliar el hecho de que la IA necesita enormes cantidades de datos con los principios fundamentales de privacidad que requieren minimizar la información personal utilizada y almacenada y limitar las maneras en las que dicha información personal se utilizará en el futuro. Esta tensión entre la IA y las leyes de protección de datos requiere que la sociedad lidie con varias preguntas difíciles. Por ejemplo, ¿cuál sería el fundamento jurídico válido para procesar los datos utilizados en el entrenamiento de los modelos de IA? ¿De qué manera pueden los avances en el uso de técnicas de desidentificación como la privacidad diferencial (una solución tecnológica que agrega ruido para ocultar datos que de otra manera se considerarían identificables) mitigar los riesgos a la privacidad de las personas a la vez que permite un desarrollo más amplio de la IA?

La toma de decisiones por humanos, sin ayuda de la IA, no es necesariamente más justa o transparente. La mente humana es quizás la “caja negra” por excelencia. Cuando se les pide que expliquen sus decisiones, es posible que las personas no digan la verdad debido a sesgos deliberados o involuntarios. Por otra parte, entrenar un modelo de IA utilizando datos existentes infundidos con sesgo humano generará un modelo de IA que continúe con el sesgo humano. En otras palabras, el sesgo en la IA a menudo es el sesgo de los humanos. Sin embargo, entender la naturaleza de los datos de entrenamiento, probar los modelos de IA con datos de prueba diversos, revisar las predicciones del modelo para detectar sesgos, y utilizar otras herramientas podría ayudar a mejorar la equidad de maneras que no están al alcance de los sistemas de decisión operados exclusivamente por seres humanos. En lugar de elegir entre sistemas operados exclusivamente por humanos o por IA, aprovechar lo mejor de la capacidad y los valores humanos junto con la inteligencia artificial promete mayores avances en cuestión de equidad, transparencia y rendición de cuentas, y será esencial para desarrollar una sólida confianza pública.

 

Este documento fue traducido del inglés al español por OpenGlobalRights, quien se responsabiliza de la traducción.

*** This article is part of a series on technology and human rights co-sponsored with Business & Human Rights Resource Centre and University of Washington Rule of Law Initiative.

 


Bernard Shen es el asesor jurídico adjunto de Asuntos Corporativos, Externos y Jurídicos en Microsoft Corporation.


 

COMMENTS