Lecciones y consecuencias de la falta de regulación de la IA para los derechos humanos de las mujeres

Remko Koopman / Flickr

Remko Koopman / Flickr


La comunidad global de derechos humanos se ha dado cuenta de los evidentes riesgos que la inteligencia artificial (IA) supone para los derechos humanos. Parece que todos los días se publica un nuevo informe sobre los peligros generalizados que plantea el mundo digital, en especial para los grupos minoritarios y excluidos, pero también en forma de nuevos daños, desde la vigilancia biométrica hasta la discriminación. Los expertos en derechos humanos coinciden ahora, en general, en la necesidad de que los Estados regulen esta tecnología, dados los riesgos que entraña.

En nuestra investigación, llevamos esto un paso más allá. Sostenemos que la ausencia de una regulación adecuada de la IA puede ser en sí misma una violación de las normas de derechos humanos. Este vacío refleja una situación en la que los gobiernos han renunciado a sus obligaciones de proteger, cumplir y remediar.

A pesar de las implicaciones de género en el funcionamiento y el impacto de la IA en nuestras vidas, sigue siendo poco analizada desde la perspectiva de los derechos de las mujeres, sobre todo cuando dicha perspectiva proporciona un lente de análisis útil para extraer lecciones para otros grupos de titulares de derechos.

En primer lugar, veamos la cuestión de los estereotipos de género asociados a los dispositivos controlados por voz como Alexa o Siri. Este tipo de tecnologías basadas en la voz promueven un estereotipo limitante de la mujer: "asistir más que dirigir, pacificar más que incitar". Por ejemplo, en un proyecto ahora abandonado llamado Nadia se utilizó la voz de la actriz australiana Cate Blanchett para desarrollar un asistente basado en la IA para ofrecer servicios de apoyo virtual a personas con discapacidad.

Al respaldar estos estereotipos, la IA con rasgos de género corre el riesgo de violar el artículo 5 de la Convención sobre la Eliminación de Todas las Formas de Discriminación contra la Mujer (CEDAW), que exige a los Estados Partes que modifiquen las prácticas que promuevan "la idea de la inferioridad o la superioridad de cualquiera de los sexos o los papeles estereotipados de hombres y mujeres". ‘Nadia’ es un ejemplo especialmente interesante porque fue impulsada por el objetivo bienintencionado de facilitar "tecnologías de la información y la comunicación accesibles", tal y como establece la Convención sobre los Derechos de las Personas con Discapacidad. Sin embargo, se diseñó de tal manera que dejaba de lado los derechos de las mujeres en general, tal y como establece la CEDAW.

Al ampliar nuestra investigación, nos fijamos en el tema de la violencia basada en el género (VBG). Desde hace más de diez años, los equipos de violencia de género dirigidos por la policía en España cuentan con la ayuda de un sistema informático (VioGén), que evalúa los niveles de protección y asistencia que necesitan las víctimas de la violencia de género, teniendo en cuenta (entre otros) el riesgo de reincidencia del agresor. Sin embargo, han surgido muchos interrogantes sobre el uso de la IA por parte del sector público y sobre quién debe rendir cuentas cuando la IA sale mal.

El sistema actual no utiliza todavía un algoritmo basado en la IA, que aún se está probando. En su lugar, utiliza un antiguo sistema de evaluación de riesgos que depende de las estadísticas tradicionales. En 2020, el gobierno español indemnizó a la familia de una mujer que fue asesinada por su expareja cuando la policía española le denegó una orden de alejamiento con base en el sistema no basado en IA.

Es posible que el nuevo modelo basado en la IA haya podido identificar mejor los riesgos. Sin embargo, sin una regulación adecuada de la IA, ¿cuándo deciden los gobiernos que es el momento adecuado para pasar a tomar decisiones basadas en la IA? Si un sistema de IA protege mejor a las víctimas en general, ¿cómo se decide entre priorizar los derechos de las víctimas (necesariamente mujeres, por ley en España) y los derechos de los agresores (principalmente hombres) y, por ejemplo, una vida familiar? Si existe un modelo de IA y es automático, ¿cómo puede la víctima o el agresor impugnar su decisión con datos que no son considerados por el algoritmo? Por último, ¿quién es el responsable (y cómo se determina) si las cosas van mal?

Por último, y posiblemente uno de los ejemplos más conocidos del abuso de la tecnología de IA, es el uso de las tecnologías deepfake. Un determinado sitio web (que no se identifica aquí para evitar su promoción) genera fotos o vídeos pornográficos mediante la superposición de una foto cargada sobre videos y fotos filmadas con anterioridad de mujeres (y un pequeño número de hombres) en su base de datos. Los ataques relacionados con la pornografía contra figuras no relevantes para los medios de comunicación tienen más probabilidades de dirigirse a las mujeres que a los hombres. Esto se debe a que los deepfakes son una herramienta de IA desarrollada con mayor frecuencia pensando en los cuerpos de las mujeres, y en parte a que una mayor proporción de imágenes de pornografía involucra a mujeres en lugar de hombres.

La cuestión aquí no es si la sociedad considera aceptable la pornografía. Se trata más bien de la utilización no consentida de las imágenes de mujeres para obtener un beneficio económico y personal. El sitio web almacena principalmente imágenes de cuerpos de mujeres y, por lo tanto, se dirige principalmente a las mujeres. ¿Debería permitirse esta evidente discriminación por parte de una entidad privada, sólo posible gracias a la tecnología impulsada por la IA? ¿Sería diferente si afectara a la reputación de figuras políticas, donde los hombres están sobrerrepresentados en todo el mundo?

Estos tres ejemplos ilustran cómo un lente de género puede ayudarnos a identificar los riesgos inherentes que la IA supone para las mujeres, pero podemos imaginar que grupos de titulares de derechos como las minorías étnicas y lingüísticas y los niños se enfrentan a retos similares y quedan desprotegidos por la ley.

La actual ausencia de una regulación adecuada —es decir, el hecho de que un Estado no establezca normas jurídicamente vinculantes para proteger los derechos humanos del despliegue de sistemas de IA— es, en sí misma, una violación de los derechos humanos. Creemos que todos los procedimientos de revisión de la ONU deberían empezar a preguntar a los países si sus regímenes jurídicos están preparados para estos retos y qué están haciendo al respecto.

Es posible que algunas de las violaciones de los derechos humanos puedan resolverse dentro del régimen jurídico existente. Sin embargo, muchas otras no. Por ejemplo, es difícil atribuir la responsabilidad de los fallos de las máquinas que siguen aprendiendo. Si los Estados no disponen de un régimen jurídico adecuado para prevenir y resolver estos problemas, estarían renunciando a sus obligaciones en virtud del derecho internacional de los derechos humanos. Este no sería el primer caso reconocido en el derecho de los derechos humanos en el que la falta de regulación constituya una violación de los deberes positivos de los Estados de proteger.

Estos tres ejemplos ilustran cómo un lente de género puede ayudarnos a identificar los riesgos inherentes que la IA supone para las mujeres, pero podemos imaginar que grupos de titulares de derechos como las minorías étnicas y lingüísticas y los niños se enfrentan a retos similares.

En teoría, el cambio podría lograrse con un tratado internacional. Algunos organismos regionales ya están tratando de abordar la cuestión; por ejemplo, una propuesta de reglamento de la UE está actualmente en fase de tramitación legislativa. Pero tanto si el enfoque es internacional, regional, nacional o todo lo anterior, en última instancia, no hay ningún caso razonable o legítimo para "esperar y ver".