¿El “nuevo verde”? Las empresas y el uso responsable de los algoritmos

Los algoritmos llevan mucho tiempo contribuyendo a la toma de decisiones, pero a medida que la inteligencia artificial gana mayor autonomía, las empresas necesitan directrices y reglamentos para garantizar que esta nueva tecnología no viole los derechos humanos.


By: Matthew Fenech
May 17, 2018

Available in:
English | Français


EFE/John G Mabanglo

El proceso a través del cual se recolectan, almacenan y analizan los datos que alimentan la IA suele ser poco claro.


El término inteligencia artificial (IA) se refiere al conjunto de técnicas de informática, ingeniería y otros campos relacionados que se utilizan para construir máquinas capaces de comportamiento “inteligente”, como la resolución de problemas. Los patrones y la información que se pueden extraer al analizar enormes bases de datos con técnicas de IA han demostrado tener un valor comercial asombroso: Accenture calculó que, tan solo en EE. UU., el sector de IA valdrá $8.3 billones de dólares para 2035.

Los algoritmos —los procedimientos por pasos que utilizan las máquinas para sus cálculos, procesamiento de datos y razonamiento automatizado— se han utilizado desde hace mucho tiempo para asistir en la toma de decisiones. Pero en los últimos años, la creciente capacidad de la IA para interrogar grandes conjuntos de datos y hacer predicciones ha impulsado un aumento en la toma de decisiones por algoritmos. Actualmente, estos procedimientos toman decisiones con diversos niveles de autonomía en una variedad de contextos, que incluyen el sistema de justicia penal, los servicios financieros, los recursos humanos, la publicidad (especialmente en las redes sociales) y la atención médica. A medida que confiamos a los algoritmos decisiones cada vez más delicadas, esta creciente dependencia de la IA suscita graves inquietudes en materia de derechos humanos y privacidad.

Por ejemplo, el proceso a través del cual se recolectan, almacenan y analizan los datos que alimentan la IA suele ser poco claro. Esto nunca había sido tan evidente como en el reciente escándalo con respecto a la divulgación de los datos de más de 87 millones de usuarios de Facebook a la empresa de asesoría política Cambridge Analytica. En términos generales, muchos usuarios de Internet no saben que se están recolectando sus datos, o dan su “consentimiento” para ello cuando les presentan formularios impenetrables de “términos y condiciones”.

Otra fuente de inquietud es que no siempre está claro cuándo se utiliza un algoritmo para tomar una decisión, o cómo dicho algoritmo llegó a una decisión específica. Con frecuencia, se dice que los algoritmos modernos de aprendizaje automático, en particular las redes neuronales, son “cajas negras”. El uso de algoritmos que no son transparentes ni explicables suscita inquietudes legítimas, especialmente cuando las decisiones que se toman podrían tener consecuencias importantes para la vida de una persona. Un ejemplo notable es el algoritmo COMPAS, que utilizaron los tribunales estadounidenses para evaluar las probabilidades de que una persona volviera a cometer un delito. Este algoritmo tenía dos veces menos probabilidades de clasificar falsamente a las personas blancas, y dos veces más probabilidades de clasificar falsamente a las personas negras, como propensas a reincidir (la empresa que produce el algoritmo, Equivant [antes Northpointe Inc.], ha cuestionado este análisis). Lo que es peor, los creadores del algoritmo se niegan a revelar el funcionamiento interno del mismo, con base en justificaciones de propiedad intelectual, y los recursos jurídicos contra esta postura han fracasado.

El viejo dicho informático de que “si entra basura, sale basura” adquiere particular relevancia en este caso. El análisis y las predicciones que generan los algoritmos de IA dependen de los datos que se introducen: si estos datos están sesgados de alguna manera, los resultados generados reflejarán dicho sesgo. Estas distorsiones se pueden producir cuando los datos disponibles no reflejan correctamente al grupo de personas que pretenden representar; esto puede deberse a una medición imprecisa, una recolección de datos incompleta o alguna otra deficiencia en la recolección de datos. Es posible que el mismo proceso que se está modelando sea injusto. Por ejemplo, debido a un algoritmo sesgado, los anuncios de Google sobre trabajos con salarios superiores a $200,000 dólares se mostraban a muchas menos mujeres que hombres, lo cual reflejaba las diferencias salariales existentes entre hombres y mujeres. Kate Crawford, distinguida profesora de investigación y cofundadora del Instituto AI Now en NYU, ha escrito de manera muy convincente sobre el “problema del hombre blanco en la inteligencia artificial”, el cual puede ocasionar que el sesgo se considere un problema menos grave o que no se identifique cuando sucede. Es evidente que la falta de diversidad en el sector de la IA es importante.

Las empresas deben trabajar con los gobiernos y la sociedad civil para evitar que se consoliden los usos sesgados y discriminatorios de la IA. Incluso mientras se está desarrollando la reglamentación en torno a la aplicación de algoritmos en las empresas, las obligaciones de proteger los derechos humanos siguen vigentes. Privacy International y Article 19, dos organizaciones que luchan por los derechos de privacidad y el derecho a la libertad de expresión, sostuvieron recientemente que las empresas deben garantizar que el uso de la IA, como mínimo, respete, promueva y proteja las normas internacionales de derechos humanos. 

¿Y qué hay de la reglamentación? El capítulo tres del Reglamento general de protección de datos (RGPD), que entrará en vigor en todos los Estados miembros de la UE en mayo de 2018, aborda la transparencia en los procesos automatizados de toma de decisiones y estipula la provisión de “información significativa sobre la lógica aplicada”, algo que se puede traducir como “el derecho a una explicación”. Los consumidores que viven en los países de la UE obtendrán el derecho de pedir a las empresas información acerca de las decisiones que tomaron sobre ellos mediante algoritmos. Si bien la implementación en la legislación local de muchos de los aspectos más delicados del RGPD se confía a la discreción de los Estados miembros, a las empresas les convendría aprovechar esta oportunidad para demostrar que toman en serio las cuestiones de transparencia en los algoritmos, al ofrecer a sus clientes tanta información como sea posible sobre sus procesos de toma de decisiones mediante algoritmos. Los estudios de mercado sugieren que los clientes están valorando más la transparencia en sus decisiones de compra.

También hay razones comerciales sólidas para esforzarse por evitar que la aplicación de la IA genere resultados discriminatorios. Es más probable que los consumidores compartan sus datos e interactúen con instituciones en las que confían. ¿Qué puede hacer que las empresas sean más dignas de confianza en la era de la IA?

En el libro blanco publicado por el Foro Económico Mundial en marzo, los autores sostienen que al realizar la debida diligencia sobre derechos humanos, las empresas deben ser proactivas al considerar e integrar los principios de no discriminación, empatía y preeminencia de la dignidad humana en su trabajo. En particular, piden:

  1. Inclusión activa: al diseñar herramientas de IA, los desarrolladores deben asegurarse de integrar las opiniones y valores de una gran variedad de partes interesadas, especialmente las que tienen más probabilidades de resultar afectadas.
  2. Equidad: los desarrolladores, y quienes encargan el desarrollo de soluciones de IA, deben pensar en qué significa ser “equitativos” en la implementación de un algoritmo. Después, deben dar prioridad a esta definición de equidad al decidir sobre las métricas de optimización y desempeño.
  3. Derecho a entender: las empresas deben dejar claro cuándo se están utilizando algoritmos para tomar decisiones que afectan derechos individuales. Además, los algoritmos deben ofrecer una explicación comprensible de su toma de decisiones. Si no es posible cumplir estas condiciones, las empresas deben considerar si el algoritmo realmente se debería utilizar.
  4. Acceso a reparaciones: las empresas deben proporcionar acceso a reparaciones, de forma proactiva y transparente, a cualquier persona que pueda verse afectada negativamente, y deben modificar sin demora los algoritmos para evitar que se repitan casos similares.

Aunque este es un campo nuevo, las empresas pueden aprender de las campañas medioambientales y el movimiento mundial contra el cambio climático. Así como los consumidores esperan que las empresas estén conscientes del medio ambiente (al minimizar su huella de carbono y reducir el uso de empaques de plástico, por ejemplo), utilizar los algoritmos de manera correcta y responsable podría implicar una ventaja comercial considerable para las empresas. La adopción del enfoque correcto sobre la toma de decisiones mediante algoritmos podría convertirse en el “nuevo verde”. Solo así, las empresas, los gobiernos y los ciudadanos podrán trabajar juntos para maximizar las oportunidades y minimizar los riesgos de estas tecnologías.

*** This article is part of a series on technology and human rights co-sponsored with Business & Human Rights Resource Centre and University of Washington Rule of Law Initiative.

 


Matthew Fenech es asesor de investigación y promoción sobre inteligencia artificial (IA). Síguelo en Twitter: @MattFenech83 @FutureAdvocacy.


 

COMMENTS