Small Data para la sostenibilidad: La ética de la IA y ambiente

Source: iStock/gorodenkoff

Las nuevas tecnologías tienen el potencial de afectar al ambiente de forma perturbadora. Sin embargo, en la fase de emergencia de las nuevas tecnologías, estos impactos no suelen estar claros o se subestiman.

Una de las principales tareas de la ética de la tecnología es identificar de forma proactiva los daños potenciales de las tecnologías emergentes y las posibles formas de minimizarlos. La ética de la tecnología suele tener en cuenta valores como el respeto a la dignidad humana y la autonomía, la beneficencia, la evitación del daño, la equidad, la justicia y la privacidad.

La sostenibilidad ambiental se debate sobre todo en relación con tecnologías específicas (como la energía nuclear y la biología molecular) y ámbitos de aplicación (transporte, producción de energía, agricultura, etc.), pero la relevancia que le otorgan las evaluaciones éticas varía mucho según los distintos campos tecnológicos.

En el campo de la ética de la IA, la sensibilidad a la sostenibilidad ambiental es aún incipiente. La sostenibilidad ambiental sólo se menciona de forma superficial en el proyecto de Ley de IA de la UE, y una encuesta cuantitativa global de las directrices de IA existentes publicadas en 2019 encontró que la sostenibilidad sólo se menciona en 14 de las 84 directrices examinadas. Las recientes Directrices europeas para una IA digna de confianza y la Recomendación de la UNESCO sobre la ética de la IA reconocen la sostenibilidad, junto con el bienestar de la sociedad, como uno de los requisitos clave que deben guiar la producción y el uso de artefactos de IA.

Pero incluso cuando se tiene en cuenta la sostenibilidad, la ética de la IA sigue caracterizándose en parte por un enfoque a corto plazo en la fiabilidad de los productos de IA, frente a un enfoque a largo plazo en el impacto de la innovación tecnológica, especialmente si se compara con campos tecnológicos en los que la sostenibilidad es un principio establecido.

Además, la ética de la IA se centra principalmente en el impacto inmediato de las aplicaciones de IA sobre sus usuarios, en lugar de adoptar una perspectiva más amplia sobre las partes interesadas que incluya también a la sociedad en general y a las generaciones futuras. Así pues, la ética de la IA podría beneficiarse de un planteamiento a largo plazo, de base amplia y más abierto a estimular la reflexión sobre las cuestiones de sostenibilidad.

Al reforzar su enfoque en la sostenibilidad, la ética de la IA sería capaz de reconocer el enorme impacto ambiental de la IA. Se necesitan enormes cantidades de minerales raros, tierra y agua para construir los chips especiales y otros componentes de hardware esenciales para los sistemas de IA y para alojar y refrigerar los servidores que almacenan y procesan los datos utilizados para entrenar los sistemas de IA. Además, el desarrollo y el mantenimiento de los sistemas de IA generan grandes cantidades de emisiones de carbono y, al final de su ciclo de vida, los componentes de hardware dejan residuos que, a su vez, requieren tierra para su almacenamiento.

Centrándonos en la huella de carbono de los sistemas de IA, un reciente estudio del MIT calculó que una sesión de entrenamiento de un gran modelo lingüístico (que es sólo uno de los muchos pasos en el desarrollo de un sistema de IA) genera unas 284 toneladas de CO2 . Esto equivale a cinco veces la huella de carbono de todo el ciclo de vida de un automóvil, incluido el consumo de combustible, y a unas 57 veces la cantidad de CO2 promedio emitida por una persona en un año.

Un centro de investigación de reciente creación se propone recopilar y evaluar datos empíricos más detallados y a gran escala sobre el impacto ambiental de la IA, más allá de las emisiones de carbono, para sugerir cómo hacer que la IA sea más sostenible. Entre los muchos elementos que contribuirían a una IA más sostenible, hay uno que parece de crucial importancia y especialmente prometedor desde una perspectiva ética. En el fondo, se trata de abandonar el enfoque dominante de Big Data y adoptar un enfoque de "Small Data".

El cambio a conjuntos de datos de entrenamiento más pequeños reduciría las capacidades de procesamiento y almacenamiento necesarias, que actualmente hacen que los sistemas de IA consuman tanta energía y recursos. Pero también tendría una cascada de efectos positivos en otros valores éticos.

En primer lugar, preferir datos de entrenamiento más pequeños permitiría a los desarrolladores de IA seleccionar y comprobar los sesgos y errores con mayor precisión. Esto, a su vez, mitigaría la tendencia de los sistemas automatizados a reforzar sesgos o discriminaciones preexistentes. También permitiría prestar más atención a la calidad y diversidad de los datos de entrenamiento, lo que tendría un impacto positivo en la equidad, la justicia y la no discriminación.

Además, los impactos ambientales de la IA están exacerbando actualmente las desigualdades globales y la división Norte-Sur. Mientras que las poblaciones de los países ricos disfrutan de los beneficios de los sistemas de IA, las poblaciones del Sur Global son las más afectadas por los impactos ambientales negativos de la IA y las violaciones de derechos humanos relacionadas. Entre ellos se encuentran el calentamiento global, la deforestación y la contaminación procedente de las minas y vertederos utilizados para extraer las materias primas necesarias para los sistemas de IA y eliminar los residuos.

Un enfoque de Small Data también podría permitir el desarrollo de sistemas de IA para aplicaciones que no dependen de la abundancia de datos disponibles en las sociedades ricas y altamente digitalizadas. Por ejemplo, permitiría desarrollar modelos lingüísticos para lenguas para las que no se dispone de terabytes de datos de entrenamiento, lo que pondría los beneficios de la IA al alcance de más personas. En términos de equidad, la IA basada en Small Data permitiría así una distribución global más justa de las ventajas y desventajas de la IA.

Además, cabe esperar que un enfoque de Small Data para la IA también tenga efectos secundarios positivos en términos de privacidad, responsabilidad y transparencia, ya que se necesitarían menos datos personales y el funcionamiento y el proceso de toma de decisiones detrás de los sistemas de IA podrían hacerse más inteligibles.

Una fuerte apuesta por la sostenibilidad en el campo de la IA también puede desempeñar un papel impulsor en el desarrollo de enfoques de IA técnicamente prometedores, como la minería de datos y los métodos de formación que trabajan con Small Data, que hasta ahora han sido relativamente marginales, pero que son potencialmente capaces de hacer que la IA sea más precisa técnicamente y más ética en varios aspectos.

Las iniciativas existentes que utilizan un enfoque de Small Data demuestran además que puede tener importantes sinergias con los movimientos de derechos humanos. Un estudio pionero destinado a desarrollar modelos lingüísticos para lenguas africanas "con pocos recursos" demuestra la afinidad de estos proyectos con métodos participativos atentos a las necesidades y especificidades de las comunidades marginadas. Como muestra el debate anterior, un enfoque de Small Data puede, además, sustentar los intentos de contrarrestar los desequilibrios globales de poder que perpetúan las injusticias históricas y están en la raíz de las violaciones contemporáneas de los derechos humanos.