Nuevos principios de derechos humanos sobre inteligencia artificial

Foto: Flickr - Public Domain

Uno de los riesgos más importantes que presenta el aprendizaje automático es el peligro de amplificar la discriminación y los sesgos existentes contra ciertos grupos.


En mayo de 2018, Amnistía Internacional, Access Now y otras organizaciones asociadas presentaron la Declaración de Toronto sobre la protección del derecho a la igualdad y la no discriminación en los sistemas de aprendizaje automático. La Declaración es un documento histórico que busca aplicar las normas internacionales de derechos humanos existentes al desarrollo y uso de sistemas de aprendizaje automático (o “inteligencia artificial”).

El aprendizaje automático (AA) es un subconjunto de la inteligencia artificial. Se puede definir como “proporcionar a los sistemas la capacidad de aprender y mejorar de forma automática a partir de las experiencias, sin necesidad de programación explícita”.

¿Cuál es la relevancia de esta tecnología para los derechos humanos? La inteligencia artificial (IA) es una tecnología poderosa que podría tener un efecto transformador en muchos aspectos de la vida, desde el transporte y la fabricación hasta la atención médica y la educación. Su uso está aumentando en todos estos sectores, así como en el sistema de justicia, la policía y el ejército. La IA puede aumentar la eficiencia, generar nuevos conocimientos sobre las enfermedades y acelerar el descubrimiento de medicamentos novedosos. Pero su uso indebido, intencional o no, también puede dañar los derechos de las personas.

Uno de los riesgos más importantes que presenta el aprendizaje automático es el peligro de amplificar la discriminación y los sesgos existentes contra ciertos grupos, a menudo comunidades marginadas y vulnerables, que ya batallan para que se les trate con dignidad y respeto. Cuando se utilizan datos históricos para entrenar a los sistemas de aprendizaje automático sin salvaguardias, estos sistemas pueden reafirmar o incluso aumentar el sesgo estructural existente. También se pueden causar daños discriminatorios cuando las decisiones tomadas al diseñar los sistemas de IA producen resultados sesgados, ya sea de forma deliberada o no.

Cuando en Amnistía comenzamos a examinar la intersección entre la inteligencia artificial y los derechos humanos, nos llamaron la atención dos cosas: la primera fue que parecía existir un interés amplio y genuino en las cuestiones éticas en torno a la IA, no solo entre los académicos, sino también en muchas empresas. Esto fue alentador: parecía que los escándalos sucesivos que afectaron a las empresas de redes sociales nos habían enseñado algo y había un movimiento que buscaba responder de forma proactiva a los riesgos asociados con la IA.

La segunda observación fue que, en gran medida, las normas de derechos humanos no estaban presentes en el debate sobre la ética de la IA; en varias ocasiones se mencionaba la importancia de los derechos humanos, pero por lo general no era más que una referencia pasajera. Y en algunos lugares, la discusión sobre la ética de la IA estaba comenzando a tomar un giro ya conocido: se argumentaba que la ética de la IA debería depender de la cultura. Esto abre la puerta a diferentes estándares y diferentes niveles de protección para los derechos de las personas; y en el contexto de una tecnología digital como la IA, a la que no le interesan las fronteras, no tiene mucho sentido.

Era evidente que afirmar el papel central del marco de derechos humanos en la ética de la IA era una prioridad. Decidimos centrarnos en la igualdad y la no discriminación en el aprendizaje automático porque se trata de un tema ya urgente que causa cada vez más problemas en la vida real.

La Declaración de Toronto fue redactada después de discusiones y entrevistas con docenas de expertos en IA, empresas y derechos humanos, y otros temas. Se realizaron amplias consultas sobre el borrador, y el documento se adoptó el 16 de mayo, al inicio de RightsCon 2018. La Declaración tiene tres secciones principales.

Redactar y publicar la Declaración es solo el primer paso para que el marco de derechos humanos se convierta en un componente fundamental del ámbito de la ética de la IA y los datos, el cual está experimentando un rápido desarrollo".

Primero, establece el deber de los Estados de prevenir la discriminación en el diseño o la implementación de los sistemas de aprendizaje automático en contextos públicos o mediante asociaciones público-privadas. Esta sección incluye principios para identificar riesgos en el uso de sistemas de aprendizaje automático, para garantizar la transparencia y la rendición de cuentas (incluida la divulgación al público de dónde se usan los sistemas de aprendizaje automático), para hacer cumplir la supervisión (incluidos los mecanismos para la supervisión independiente) y para promover la igualdad.

En segundo lugar, la Declaración describe las responsabilidades de los actores privados en el contexto del desarrollo y la implementación de sistemas de AA. Se basa en el marco de diligencia debida en materia de derechos humanos (que se definió originalmente en los Principios Rectores de la ONU sobre las Empresas y los Derechos Humanos). Estas responsabilidades incluyen detectar posibles resultados discriminatorios a través de la identificación y evaluación de riesgos, tomar medidas efectivas para prevenir y mitigar la discriminación (entre ellas, someter a los sistemas a auditorías externas independientes cuando haya un riesgo considerable de que se violen los derechos humanos), y ser transparentes, lo que incluye la publicación de especificaciones técnicas, muestras de los datos de entrenamiento utilizados y fuentes de datos.

En tercer lugar, la Declaración afirma el derecho a un recurso efectivo y a llamar a cuentas a los responsables de las violaciones. Exhorta a los gobiernos a que garanticen estándares de debido proceso para el uso del aprendizaje automático en el sector público, que actúen con cautela al utilizar sistemas de AA en el sistema penal, que definan líneas claras de rendición de cuentas para el desarrollo y la implementación de aplicaciones de AA y que aclaren cuáles son los organismos o personas jurídicamente responsables de las decisiones tomadas mediante el uso de dichos sistemas.

Redactar y publicar la Declaración es solo el primer paso para que el marco de derechos humanos se convierta en un componente fundamental del ámbito de la ética de la IA y los datos, el cual está experimentando un rápido desarrollo. La Declaración establece principios para la política y la práctica, pero para hacerlos efectivos necesitamos guías prácticas de implementación que ayuden a los ingenieros y gerentes de productos a aplicar los principios en su trabajo. Amnistía está empezando a trabajar con ingenieros e investigadores para lograrlo.

Además, es importante que la sociedad civil dé su más amplio respaldo a la Declaración de Toronto para afirmar la centralidad de los derechos humanos en el debate sobre la ética de la IA. Esta sería una señal importante de que se espera que las empresas de tecnología también apoyen la Declaración y se comprometan a velar por que las nuevas tecnologías no diluyan los derechos humanos existentes. Acercarse más a la comunidad tecnológica para entablar un diálogo entre los defensores de derechos humanos y los ingenieros ayudará a incorporar los derechos humanos en el uso y desarrollo de la IA.

Finalmente, debemos impulsar la información equilibrada sobre las tecnologías de IA: al hablar de ellas como tecnologías que se pueden usar para el bien, pero de las que también se puede abusar. Describir la IA mediante visiones distópicas o utópicas no conduce a un debate sensato, y nos distrae de abordar los riesgos reales y de aprovechar las oportunidades de utilizar la IA en nuestro beneficio.

*** This article is part of a series on technology and human rights co-sponsored with Business & Human Rights Resource Centre and University of Washington Rule of Law Initiative.