La IA y las transferencias de armas autónomas

Emmanuel Granatello / Flickr.

 Source: Emmanuel Granatello / Flickr.


La Convención sobre Ciertas Armas Convencionales y el Grupo de Expertos Gubernamentales (CCW y GGE, por sus siglas en inglés) sobre Sistemas de Armas Autónomas Letales celebró su esperada segunda sesión del 25 al 29 de julio de 2022.

Antes de que comenzaran las conversaciones, se preveía que fracasarían debido a la falta de consenso entre los Estados en cuanto a la regulación de las armas de IA. Aunque se han producido algunos avances, las organizaciones de derechos humanos están agonizando por la lentitud del desarrollo de las reuniones, las numerosas objeciones de Rusia y la falta de voluntad de los Estados de imponer normas más estrictas que las ya existentes en los 11 Principios Rectores sobre las armas autónomas letales, que pretenden aplicar el derecho internacional humanitario (DIH) a todos los sistemas de armas.

En la sesión anterior, EE.UU. promovió su Propuesta Conjunta, con el apoyo del Departamento de Estado de EE.UU., y reafirmó que el uso de armas de IA debe seguir el DIH existente. Sin embargo, la postura del país sobre los "robots asesinos", a menudo llamados LAWS, los sistemas de armas autónomas (AWS, por sus siglas en inglés) y las armas con IA no aboga por una prohibición total de estas armas. La Propuesta Conjunta, que no es jurídicamente vinculante, hace hincapié en la evaluación y mitigación de riesgos.

Otro grupo de Estados pretende, en cambio, que se aplique su Comentario escrito en el que se pide un instrumento jurídicamente vinculante sobre los sistemas de armas autónomos. Este Comentario pide normas y principios jurídicamente vinculantes para la producción, el desarrollo, la posesión, la adquisición, el despliegue, la transferencia y el uso de los LAWS y los AWS.

La tecnología de IA, según algunos, está superando los esfuerzos de la comunidad internacional por controlar, regular y prohibir estas armas. En las zonas de conflicto no reguladas y prolongadas, preocupa que estas tecnologías en manos de regímenes represivos, operadores y redes terroristas provoquen más daños a los civiles y graves abusos de los derechos humanos.

Los datos son claros: en la región del sudoeste de Asia y el norte de África (SWANA, por sus siglas en inglés), los civiles son el objetivo de la guerra por delegación. En Yemen, 13 635 civiles han muerto desde 2018 como consecuencia del conflicto. En la región de SWANA, entre el 9 y el 11 de julio, se registraron 1187 víctimas mortales por todos los tipos de armas, y sólo el 11 de julio se registraron 100 ataques aéreos y con drones. La ONU informó en su Carta 2021 al Consejo de Seguridad por el Grupo de Expertos en Libia que un avión no tripulado "cazó" a las Fuerzas Armadas de Haftar en retirada, que fueron "atacadas a distancia por los vehículos aéreos de combate no tripulados de las armas autónomas letales."

Incluso antes de este informe, las organizaciones de derechos humanos llamaron la atención sobre los posibles estragos que podrían causar las armas de IA, incluidos los ataques indiscriminados, la falta de emoción humana en circunstancias de vida o muerte, la identificación errónea y el sesgo dentro de los algoritmos de IA.

Aunque se conocen estos casos, los datos sobre el número exacto de civiles que han sido asesinados o mutilados por LAWS, AWS y tecnología con poder de IA son turbios. Parte de esta incertidumbre se debe a la falta de una definición clara de las armas de IA. Esto dificulta el seguimiento de las violaciones provocadas por las armas de IA debido a la confusión sobre qué ataques se cuentan como realizados por armas de IA en lugar de por medios más convencionales.

Estados Unidos no es ajeno a los errores tecnológicos que chocan con los principios del DIH. Por ejemplo, en 2015 ese país identificó erróneamente un hospital civil como un objetivo talibán, debido a un "error humano evitable" y a fallos del sistema y del equipo, incluidas coordenadas defectuosas y el fracaso de los sistemas de imágenes de vídeo. El New York Times también ha informado que el Pentágono ha hecho públicos registros detallados que aportan pruebas de cómo el uso de drones por parte de Estados Unidos en los ataques aéreos en la región de SWANA ha provocado errores de identificación y muertes de civiles. El artículo señala que Estados Unidos aún no ha sido declarado responsable internacional de estos ataques.

La falta de una definición clara también puede generar vacíos en la rendición de cuentas, ya que no existen criterios para definir cuándo o cómo se utiliza un arma de IA en violación del derecho internacional o nacional. El último informe 3000.09 sobre armas autónomas del Departamento de Defensa de Estados Unidos ha sido criticado por no haber aprovechado la oportunidad de definir en su texto el término "habilitado por la IA".

No todos los Estados presentes en la CCW abogaron por una definición clara de las armas de IA. El Reino Unido expresó su preocupación por centrarse demasiado en las definiciones y abogó en cambio por un análisis del "efecto" de las armas para determinar la regulación internacional. Por el contrario, China abogó por distinguir entre varios términos clave como "automatización" y "autonomía".

Algunos grupos de derechos quieren ir más allá del DIH actual.  Algunos observadores, por ejemplo, abogan por las armas, al afirmar que la tecnología frena las muertes de civiles debido a la mayor identificación de objetivos y a la falta de emoción humana. Los grupos de derechos, sin embargo, se oponen a estas afirmaciones, pues argumentan que el riesgo de daño potencial supera cualquier beneficio de estos sistemas. Algunos incluso abogan por la prohibición total de las armas autónomas. La declaración de Stop Killer Robots en la CCW de 2021 destaca los efectos específicos de los sistemas de armas que pretende prohibir, como los sistemas que utilizan sensores para apuntar a los seres humanos de manera automática.

Existen varios vacíos en la legislación internacional y nacional de Estados Unidos. A nivel internacional, preocupa la falta de comprensión de la jurisdicción internacional, la responsabilidad del Estado y la responsabilidad penal.

En Estados Unidos, la Oficina de Política Científica y Tecnológica (OSTP, por sus siglas en inglés) de la Casa Blanca ha impulsado una Carta de Derechos de la IA. El objetivo de este proyecto de ley es proteger contra los aspectos y efectos potencialmente perjudiciales de la tecnología de IA, como la discriminación, en especial en la biometría. Aunque el proyecto de ley se centra en el ámbito nacional, sin codificación ni texto definidos, no está claro que aborde cuestiones que puedan afectar a las armas de IA transferidas fuera de Estados Unidos.

En cuanto a las cuestiones legales, Estados Unidos también debe lidiar con la actual falta de responsabilidad corporativa por parte de los exportadores de armas. Aunque las Leyes Leahy fueron diseñadas para prohibir las ventas a los violadores flagrantes de los derechos humanos, la Oficina de Rendición de Cuentas del Gobierno ha encontrado una aplicación inconsistente de esas leyes.

Sin leyes claras que definan las armas de IA; que mencionen el uso, la venta o la atribución de responsabilidad legal; y que hagan un seguimiento de las armas de IA, sigue existiendo el riesgo de que se produzcan más violaciones de los derechos humanos. Los mismos problemas que afectan a las transferencias de armas tradicionales de las empresas de defensa y los gobiernos estatales también se plantean en las transferencias de armas de IA. Los posibles desafíos legales a las transferencias de armas de IA no reguladas podrían incluir la responsabilidad por crímenes de guerra, crímenes contra la humanidad y genocidio en la CPI o en un tribunal ad hoc; sanciones; o el enjuiciamiento nacional.

Como ya han comprobado los defensores de los derechos humanos, la aplicación de una sólida diligencia debida en materia de derechos humanos podría ayudar a frenar las violaciones de los derechos humanos por parte de los fabricantes de defensa. La nueva era de las armas de IA requiere normas especializadas para contener las armas de IA y un lenguaje actualizado que refleje con precisión los tipos de armas que se utilizan.

Descargo de responsabilidad: Este comentario fue preparado por el personal del Centro de Derechos Humanos de la American Bar Association y refleja sus propias opiniones. No ha sido aprobado ni revisado por la Cámara de Delegados ni por el Consejo de Gobernadores de la American Bar Association y, por lo tanto, no debe interpretarse que representa la política de la American Bar Association en su conjunto. Además, nada de lo contenido en este artículo debe considerarse como asesoramiento jurídico en un caso concreto.