Las organizaciones sin ánimo de lucro y la espada de doble filo de la IA

Crédito: Alejandro Ospina

Una encrucijada crítica para la sociedad civil en un contexto complejo

La expansión masiva del acceso a los grandes modelos de lenguaje (LLM) desde finales de 2022 no es solo otra moda pasajera. Aunque la inteligencia artificial (IA) ya existía desde hacía décadas, el lanzamiento público de Chat GPT por parte de OpenAI desencadenó una carrera armamentística en materia de IA entre un pequeño número de Estados y empresas estratégicamente posicionados. Los abogados de derechos humanos y los académicos tardaron casi una década en reaccionar ante los daños que las plataformas de redes sociales infligen al público, entre ellos la modificación del comportamiento, la difusión de noticias falsas y la interferencia en las elecciones. A pesar de la creciente preocupación, los LLM no han frenado su avance en la configuración del futuro. Mientras que las plataformas de redes sociales tardaron años en alcanzar el millón de usuarios, las nuevas herramientas de IA han batido un nuevo récord en solo unos días, y ahora en solo unas horas. Existen numerosas pruebas de que la IA tiene el potencial de exacerbar las desigualdades, pero en lugar de ignorar esta revolución, las organizaciones sin ánimo de lucro deben adoptar de forma responsable las nuevas tecnologías, incluidos los LLM, al tiempo que evalúan y combaten los riesgos. Se enfrentan a una encrucijada crítica: ignorar la IA o encontrar formas de utilizarla.

En su informe de 2020, Jared Sheehan y Nathan Chappell descubrieron que el 52 % de los profesionales de organizaciones sin ánimo de lucro de EE. UU. expresaban su temor a la IA. Cinco años después, está en todas partes. Nuestros teléfonos, coches y ordenadores tienen capacidades que hasta hace poco eran desconocidas. El sector sin ánimo de lucro no es una excepción, ya que cada vez son más las organizaciones de derechos humanos que están incorporando la IA en su trabajo para predecir los desplazamientos, hacer un seguimiento de la deforestación, vigilar la violencia contra las mujeres en Internet y llevar a cabo muchas otras iniciativas. Sin embargo, las organizaciones sin ánimo de lucro deben evitar crear una brecha digital entre las organizaciones bien financiadas que pueden permitirse utilizar las últimas tecnologías y el resto del movimiento de derechos humanos. Una posible solución es establecer un marco jurídico sólido que regule el uso de estas herramientas.

Argumentos a favor de la creación de confianza

Una parte importante de la sociedad civil, especialmente en el Sur Global, opera con recursos limitados. Históricamente, las organizaciones sin ánimo de lucro han ido a la zaga de los avances del sector privado, y las nuevas tecnologías, así como el cambiante panorama político, no hacen sino ampliar esta brecha. La integración acelerada de las nuevas tecnologías en los sectores público y privado plantea importantes retos para los derechos humanos, la justicia y la igualdad. Entre los peligros potenciales se encuentran los riesgos de sesgo algorítmico, la erosión de la privacidad y la amplificación de la desigualdad a través de sistemas tecnológicos sin control. Si el sector sin ánimo de lucro no se adapta a estos cambios, corre el riesgo de perder su capacidad de acción, dejando a las poblaciones vulnerables en riesgo de exclusión o daño.

La comunidad internacional debe facilitar esta transformación, y las organizaciones sin ánimo de lucro deben poder confiar en estos nuevos sistemas. Si bien los marcos jurídicos para el uso ético de la IA tienen la capacidad de acelerar este cambio, la regulación mundial de la IA sigue siendo un reto, ya que muchos países luchan por encontrar el equilibrio entre la innovación y los derechos humanos. En 2024, la Unión Europea avanzó hacia un sistema regulador integral con su Ley de IA de la UE. Sin embargo, los países europeos no han hecho lo suficiente para garantizar la accesibilidad y el acceso a las plataformas de IA, y también han hecho excepciones para el uso de herramientas como el reconocimiento facial y de emociones en los ámbitos de la aplicación de la ley, la inmigración y la seguridad nacional, todo lo cual amenaza la protección de los derechos humanos. La actual administración estadounidense ha revertido recientemente años de avances normativos con una única medida ejecutiva, mientras que, a nivel mundial, el vicepresidente estadounidense J. D. Vance advirtió a los europeos contra la continuación de una regulación estricta. Mientras tanto, Australia se enfrenta a críticas del sector privado por ampliar excesivamente su normativa sobre IA en relación con el uso de las redes sociales por parte de los niños. La sociedad civil parece quedar al margen de todas estas decisiones.

(Ausencia de) gobernanza regional en América Latina

Las ONG de América Latina se enfrentan a una incertidumbre aún mayor, ya que los Estados de la región están lejos de alcanzar un consenso sobre la gobernanza de la IA. La Organización de los Estados Americanos (OEA) ha adoptado importantes principios sobre neurociencia y derechos humanos y ha celebrado reuniones de alto nivel para avanzar «hacia el desarrollo y la implementación seguros, protegidos y fiables de la IA en las Américas». Sin embargo, no está claro si Estados Unidos seguirá adelante con el apoyo financiero que prometió para ayudar a estas iniciativas. A principios de 2025, la Comisión Económica para América Latina y el Caribe (CEPAL) continuó los debates sobre la gobernanza de la IA basada en las normas de derechos humanos en una cumbre celebrada en Chile. Los panelistas destacaron los retos éticos, políticos y económicos que plantea la IA para la región, con la falta de una gobernanza de la IA adaptada a América Latina y el Caribe en primer plano del debate. A finales de 2024, solo seis países habían adoptado una estrategia nacional sobre IA (Argentina, Brasil, Chile, Colombia, Perú y República Dominicana). Diez países están debatiendo actualmente nueva legislación que incorpora el análisis de riesgos de la Ley de la UE, y algunos de ellos incluyen marcos de responsabilidad ética y social.

Si bien estas actividades representan un paso adelante, los grupos vulnerables y las poblaciones afectadas deben hacer oír su voz, y las organizaciones de la sociedad civil deben sensibilizar al sector público y al privado sobre esta importante cuestión. Existe un amplio consenso en que la sociedad civil, las comunidades vulnerables y las organizaciones sin ánimo de lucro deben intensificar su participación tanto en la formación como en la regulación y el uso de la IA. Necesitamos generar confianza y encontrar los canales adecuados de comunicación entre todas las partes interesadas para poder avanzar.

La adopción de la IA en el sector sin ánimo de lucro

La rápida integración de la IA en todas las facetas del mundo sin ánimo de lucro y de los derechos humanos en general presenta oportunidades sin precedentes y profundos retos para la protección de los derechos humanos, y las ONG no pueden evitar navegar por este panorama. La IA ya ha repercutido en varios Objetivos de Desarrollo Sostenible (ODS) de las Naciones Unidas, como los derechos a la salud, la educación y un medio ambiente saludable. Los médicos pueden predecir el cáncer de piel con mayor precisión, los estudiantes pueden tener un tutor personal en casi cualquier materia y los científicos pueden cartografiar mejor el deshielo de los lagos glaciales. Mientras tanto, la Corte Interamericana de Derechos Humanos ha incluido un resumen sobre IA para el público. La IA puede ayudar a prosperar a un ecosistema de la sociedad civil debilitado sin abandonar la lucha por una mejor regulación y aplicación, pero para ello, las partes interesadas deben encontrar una forma de equilibrar el riesgo y la recompensa. El reto consiste en garantizar que las organizaciones sin ánimo de lucro no se queden atrás cuando los gobiernos, las empresas privadas e incluso los grupos del crimen organizado ya están aprovechando las posibilidades que ofrece la IA.

Las organizaciones sin ánimo de lucro deben aprovechar los aspectos positivos de la IA, como la estructuración de datos, la traducción y la transcripción, para aumentar su alcance, reducir los costes y amplificar su impacto. Las herramientas de IA podrían permitir a los activistas evitar tareas repetitivas, como revisar el correo basura o archivar documentos, y centrar su tiempo en el trabajo más impactante que tienen ante sí, por ejemplo, dedicando más tiempo a las comunidades a las que sirven. Del mismo modo, los equipos de comunicación pueden utilizar la automatización para reducir drásticamente el tiempo que se tarda en producir y difundir material informativo al público, programando publicaciones en los medios de comunicación o enviando un boletín semanal, y se pueden acelerar tareas laboriosas como la transcripción y la traducción para ahorrar recursos en general. Los líderes del sector sin ánimo de lucro deben equilibrar la necesidad de eficiencia con la salud mental y el bienestar de sus equipos. Por otro lado, los financiadores y las agencias de cooperación internacional también deben tomarse en serio este reto. Pueden promover un uso seguro y responsable de estos sistemas por parte de sus beneficiarios, lo que a su vez aumentará el rendimiento de su inversión. Como señala Heather Ashby, la IA «buena» y la IA «mala» son dos caras de la misma moneda.