Afrontar el sesgo de género en la inteligencia artificial y la automatización

Geralt/Pixabay


Veinticinco años después de la adopción de la Declaración y Plataforma de Acción de Beijing, persiste un sesgo de género importante en las normas sociales existentes. Por ejemplo, apenas en febrero de 2020, el Tribunal Supremo de la India tuvo que recordarle al gobierno indio que sus argumentos para no permitir que las mujeres ocupen puestos de mando en el ejército se basaban en estereotipos. Y el sesgo de género no es un problema exclusivamente masculino: un informe reciente del PNUD titulado Tackling Social Norms (Abordar las normas sociales) encontró que alrededor del 90 % de las personas (hombres y mujeres) tienen algún sesgo contra las mujeres.

El sesgo de género y las diversas formas de discriminación contra las mujeres y las niñas impregnan todas las esferas de la vida. El acceso equitativo de las mujeres a la ciencia y la tecnología de la información no es una excepción. Mientras continúan los desafíos planteados por la brecha digital y la escasa representación de las mujeres en ciencia, tecnología, ingeniería y matemáticas (STEM, por sus siglas en inglés), la inteligencia artificial (IA) y la automatización generan nuevos desafíos para lograr una igualdad de género sustancial en la era de la Cuarta Revolución Industrial.

Si la IA y la automatización no se desarrollan y aplican con perspectiva de género, es probable que reproduzcan y refuercen los estereotipos de género y normas sociales discriminatorias existentes. De hecho, puede que esto ya esté sucediendo de manera (in)consciente. Consideremos algunos ejemplos:

  • Como destaca un informe de la UNESCO de 2019, no es coincidencia que los servicios de asistentes personales virtuales como Siri, Alexa y Cortana tengan nombres femeninos y una voz femenina predeterminada. Las empresas que diseñan estos servicios refuerzan una realidad social en la que la mayoría de las personas que prestan servicios secretariales o de asistencia personal en los sectores públicos y privados son mujeres.
  • El sesgo de género también impregna los algoritmos de IA. Dado que el 78 % de los profesionales de IA son hombres, las experiencias masculinas configuran y dominan la creación de algoritmos. Este sesgo de género puede tener consecuencias adversas importantes para las mujeres. Por ejemplo, los algoritmos podrían afectar el acceso de las mujeres a los trabajos y préstamos al investigar automáticamente sus solicitudes u otorgarles una calificación desfavorable. Del mismo modo, la evaluación de riesgos basada en algoritmos en el sistema de justicia penal podría perjudicar a las mujeres si el sistema no toma en cuenta que son menos propensas a reincidir que los hombres.
  • Aunque la robotización y la automatización de los trabajos afectarán tanto a hombres como a mujeres, es probable que el sesgo de género se propague y afecte a las mujeres de manera desproporcionada. Por ejemplo, las mujeres sobrerrepresentadas en ciertos sectores con alto riesgo de automatización pueden verse más perjudicadas: si más del 70 % de las personas que trabajan en la confección de ropa son mujeres, la automatización afectará más a las mujeres que a los hombres. También es muy probable que la relativa falta de movilidad y flexibilidad reduzca la capacidad de negociación de las mujeres en general, o sus alternativas de empleo.

A pesar de la posibilidad de que exista tal sesgo de género, las normas de IA que se están formulando no integran adecuadamente una perspectiva de género. Por ejemplo, la Declaración de Montreal para un Desarrollo Responsable de la Inteligencia Artificial no se refiere de forma explícita a la integración de una perspectiva de género, mientras que el Marco ético de AI4People para una buena sociedad de IA solo menciona la diversidad/género una vez. Tanto la Recomendación del Consejo de la OCDE sobre la IA como los Principios de IA del G20 enfatizan la importancia de que la IA contribuya a reducir la desigualdad de género, pero no ofrecen detalles sobre cómo se podría lograr esto.

Los Principios de aprendizaje automático responsable incluyen la “evaluación de sesgos” como uno de sus principios. Este enfoque aislado hacia el género es el mismo que adoptan empresas como Google y Microsoft, cuyos Principios de IA subrayan la necesidad de evitar “crear o reforzar un sesgo injusto” y de tratar a “todas las personas de manera imparcial”, respectivamente. Las empresas relacionadas con la IA y la automatización deben adoptar un enfoque con perspectiva de género en todos sus principios para superar el sesgo de género inherente. Por ejemplo, Google debería incorporar una perspectiva de género al evaluar cuáles tecnologías nuevas son “socialmente beneficiosas” o cómo es que los sistemas de IA se “construyen y prueban para ser seguros”.

¿Qué se debe hacer para afrontar el sesgo de género en la IA y la automatización? El marco de género para los Principios Rectores de la ONU sobre empresas y derechos humanos podría ofrecer orientación práctica a los Estados, empresas y otros actores. El marco implica un ciclo de tres etapas: evaluación con perspectiva de género, medidas transformadoras en cuestión de género y remedios transformadores en cuestión de género. La evaluación debe ser capaz de responder a las repercusiones negativas diferenciadas, interseccionales y desproporcionadas para los derechos humanos de las mujeres. Las medidas y remedios resultantes deben ser transformadores; es decir, poder producir un cambio en las normas patriarcales, las relaciones de poder desiguales y los estereotipos de género.

Los Estados, las empresas y otros actores pueden tomar varias medidas concretas. En primer lugar, las mujeres deben ser participantes activas en la creación de la IA y la automatización, en lugar de meras beneficiarias pasivas. Las mujeres y sus experiencias deben integrarse adecuadamente en todas las etapas del diseño, el desarrollo y la aplicación de la IA y la automatización. Además de la contratación proactiva de más mujeres en todos los niveles, las empresas de IA y automatización deben involucrar a especialistas en cuestiones de género y organizaciones de mujeres desde el principio para realizar la debida diligencia de derechos humanos.

Las mujeres deben ser participantes activas en la creación de la IA y la automatización, en lugar de meras beneficiarias pasivas.

En segundo lugar, los datos en los que se basan los algoritmos, la IA y la automatización deben estar desglosados por sexo; de lo contrario, las experiencias de las mujeres no se reflejarán en las herramientas tecnológicas y estas podrían seguir internalizando los sesgos de género existentes contra las mujeres. Además, incluso los datos relacionados con las mujeres deben protegerse contra cualquier riesgo de género inherente.

En tercer lugar, los Estados, las empresas y las universidades deben planificar e invertir en desarrollar la capacidad de las mujeres para lograr una transición sin problemas a la IA y la automatización. Esto requeriría formación profesional/técnica tanto a nivel educativo como laboral.

En cuarto lugar, la IA y la automatización deben diseñarse con el fin de superar la discriminación de género y las normas sociales patriarcales. En otras palabras, estas tecnologías deben utilizarse para responder a los retos que enfrentan las mujeres, como el trabajo de cuidado no remunerado, la brecha salarial de género, el acoso cibernético, la violencia de género y el acoso sexual, la trata, las violaciones de derechos sexuales y reproductivos, y la subrepresentación en puestos de liderazgo. Del mismo modo, el poder de la IA y la automatización se debe emplear para mejorar el acceso de las mujeres a las finanzas, educación superior y oportunidades de trabajo flexibles.

En quinto lugar, se deben adoptar medidas especiales para que las mujeres conozcan sus derechos humanos y las repercusiones de la IA y la automatización para sus derechos. Se necesitan medidas similares para garantizar que los mecanismos correctivos —tanto judiciales como no judiciales— respondan al sesgo de género, la discriminación, las estructuras patriarcales de poder y las asimetrías de información y recursos.

En sexto lugar, los Estados y las empresas deben tener en cuenta las dimensiones interseccionales de la discriminación de género; de lo contrario, sus respuestas, pese a las buenas intenciones, no lograrán usar la IA y la automatización a favor de la igualdad de género. Las mujeres de ingresos bajos, madres solteras, mujeres de color, mujeres inmigrantes, mujeres con discapacidades y mujeres no heterosexuales pueden verse afectadas de distintas maneras por la IA y la automatización y tendrían necesidades o expectativas diferenciadas.

Por último, todas las normas relativas a la IA y la automatización deben integrar una perspectiva de género de manera holística, en lugar de tratar el género como una simple cuestión de sesgo que hay que manejar.

En la práctica, las tecnologías rara vez son imparciales en materia de género. Si la IA y la automatización siguen excluyendo a las mujeres o ignorando sus experiencias, todos saldremos perdiendo.

 


This piece is part of a blog series focusing on the gender dimensions of business and human rights. The blog series is in partnership with the Business & Human Rights Resource Centre, the Danish Institute for Human Rights and OpenGlobalRights. The views expressed in the series are those of the authors. For more on the latest news and resources on gender, business and human rights, visit this portal.