No me recuerdes: Resistiendo la memoria algorítmica

Crédito: Caleb Jack / Unsplash

El futuro de los derechos humanos es inseparable de nuestra relación en constante evolución con la tecnología y de la dependencia social de esta, dados los complejos y cambiantes dilemas morales, legales y filosóficos que plantean los algoritmos, que recuerdan casi todo lo que contienen sus conjuntos de datos. A medida que la inteligencia artificial (IA) y los sistemas algorítmicos influyen cada vez más en la reputación, las oportunidades e incluso las identidades, el derecho al «olvido algorítmico» se ha convertido en una nueva frontera crucial para lograr tanto la justicia como la privacidad. Este derecho empodera a las personas, en particular a los jóvenes y a las generaciones futuras, para que ejerzan su capacidad de acción y reclamen el control narrativo sobre su huella digital, evitando que la memoria algorítmica se utilice para perfilar o reprimir.

Innovación tecnológica, vigilancia y derechos humanos

La innovación tecnológica ha ampliado drásticamente tanto las perspectivas como los peligros del discurso sobre los derechos humanos. Amnistía Internacional hace hincapié en que la tecnología debe servir a los intereses de la humanidad en su conjunto y no limitarse a reforzar el poder de una pequeña élite privilegiada. La organización ha abogado por herramientas digitales diseñadas y utilizadas de manera respetuosa con los derechos, exigiendo marcos normativos concretos y responsables que garanticen la protección de los derechos humanos en la era de la proliferación digital.

Haciéndose eco de esta preocupación, las Naciones Unidas advierten de que el futuro de los derechos depende de nuestra capacidad para canalizar las innovaciones tecnológicas en una dirección centrada en el ser humano, de modo que la privacidad, la capacidad de acción y la democracia no se vean borradas u oprimidas por el deseo de eficiencia y la explotación descontrolada de los datos.

Los peligros de la vigilancia sin restricciones están bien documentados. Las filtraciones de Edward Snowden en 2013 de información clasificada sobre la Agencia de Seguridad Nacional de los Estados Unidos (NSA) pusieron de manifiesto el alcance de la extralimitación del Gobierno, no solo en lo que respecta a los datos y la privacidad de los ciudadanos de otros países, sino también de los propios ciudadanos estadounidenses. Las revelaciones de Snowden ponen de relieve cómo la NSA, con la cooperación de socios de inteligencia y gigantes tecnológicos, recopiló enormes cantidades de datos de personas de todo el mundo. Los correos electrónicos, las llamadas, las ubicaciones y los datos de navegación fueron objeto de recopilación y almacenamiento sin un consentimiento público significativo ni supervisión judicial. Programas como PRISM permitieron a las agencias de inteligencia recopilar datos directamente de los servidores de empresas tecnológicas, como Google, Facebook, Microsoft y Apple.

Snowden advirtió que «yo, sentado en mi escritorio, podía intervenir las comunicaciones de cualquiera, desde usted o su contable hasta un juez federal o incluso el presidente, si tenía su correo electrónico personal». Estas revelaciones ponen de manifiesto un aparato de vigilancia global que violaba los derechos de privacidad, creando un entorno digital en el que la información podía utilizarse como arma no solo contra políticos y funcionarios nacionales, sino también contra ciudadanos de a pie y líderes políticos de todo el mundo.

El papel de la memoria algorítmica

Los algoritmos modernos actúan como arquitectos de la memoria colectiva del mundo. Su capacidad para almacenar, organizar y transmitir información influye y repercute profundamente no solo en lo que es visible, sino también en quién es visto, aceptado o comprendido. En su libro Algorithms of Oppression, Safiya Umoja Noble advierte que la opresión algorítmica está profundamente arraigada en la web. Los motores de búsqueda suelen reforzar los perfiles raciales y lo que ella denomina «discriminación tecnológica», por la que las desigualdades se codifican en los propios sistemas de información. Al defender estas afirmaciones, Noble argumenta además que «tenemos que preguntarnos qué se pierde, quién se ve perjudicado y qué se debe olvidar con la adopción de la inteligencia artificial en la toma de decisiones».

Estas consecuencias van más allá de la mera tergiversación y dan lugar a violaciones de derechos. Las historias digitales, una vez codificadas en conjuntos de datos algorítmicos, pueden definir a las personas mucho después de que estas hayan cambiado de manera significativa.

La filósofa tecnológica Shannon Vallor profundiza en esta crítica en The AI Mirror: How to Reclaim Our Humanity in an Age of Machine Thinking (El espejo de la IA: cómo recuperar nuestra humanidad en la era del pensamiento mecánico), observando que los sistemas de IA «nos reflejan nuestra propia inteligencia», atrapándonos esencialmente en «permutaciones infinitas de un pasado reflejado».

Este efecto espejo, promovido por Vallor a lo largo de su obra, muestra cómo la IA dificulta la evolución más allá de las identidades mediadas algorítmicamente. Sin la capacidad de olvidar —o el derecho humano al olvido—, los individuos pierden el poder de dar forma a sus propias historias, atrapados por los errores del pasado y definidos perpetuamente por rastros algorítmicos perjudiciales de los que sus comunidades no pueden escapar.

Como subrayan Noble y Vallor, la batalla por el olvido algorítmico no es simplemente una cuestión de privacidad, sino una lucha por recuperar el control narrativo sobre la comunidad y la vida personal. Para los grupos marginados y las generaciones futuras, la memoria algorítmica amenaza la posibilidad de ser reconocidos como seres humanos dinámicos y en evolución. El olvido es, en última instancia, una cuestión de agencia: no se trata de borrar la historia, sino de restaurar la libertad de superar los daños pasados y presentes.

El impacto de la permanencia algorítmica recae con mayor fuerza sobre los jóvenes, que a menudo alcanzan la mayoría de edad rodeados y socializados por tecnologías digitales y algorítmicas que los someten a un escrutinio implacable, todo ello antes de que puedan comprender las posibles consecuencias de sus actos.

Enfoques de la capacidad de olvido

Los marcos legales y éticos están empezando a reconocer la necesidad de la capacidad de olvido algorítmica. El Reglamento General de Protección de Datos (RGPD) de la Unión Europea consagra el «derecho al olvido», lo que ha inspirado el desarrollo de algoritmos de aprendizaje automático que pueden «olvidar» datos cuando se les solicita. En Estados Unidos, las «leyes de borrado» de California han concedido a los menores la posibilidad de eliminar los contenidos que han publicado en Internet. Sin embargo, estas protecciones siguen siendo poco frecuentes. La prevalencia de los sistemas digitales y de IA basados en conjuntos de datos almacenados somete el pasado de todos a un análisis constante, con repercusiones reales en la privacidad y el futuro profesional.

Las cuestiones relacionadas con la IA y su potencial perjudicial no son solo preguntas y preocupaciones para los filósofos. Estas cuestiones deben ser cuestionadas y abordadas por los legisladores y teóricos políticos de nuestro tiempo. Los estudios actuales han hecho bien en señalar las posibles restricciones políticas, sociales y éticas de la IA, pero es necesario seguir trabajando para diseñar políticas y aplicar estrategias que corrijan estos errores y desarrollen sistemas mejores, más sostenibles y más justos para las generaciones futuras. Aunque las respuestas pueden no llegar pronto, la reivindicación del derecho humano al olvido debe seguir siendo fundamental en el enfoque de los responsables políticos y los órganos legislativos de todo el mundo.