Riesgos y responsabilidades de la moderación de contenidos en las plataformas en línea

Photo:ROBERT GHEMENT

Las plataformas tienen el deber tanto de respetar la libertad de expresión de sus usuarios como de garantizar el manejo adecuado del contenido nocivo e ilegal que pueda surgir en ellas.



Durante muchas décadas, el orden jurídico internacional ha reconocido el concepto de que los Estados tienen el deber de proteger, respetar y promover los derechos humanos. Desde que se desarrollaron y adoptaron los Principios Rectores de la ONU sobre las Empresas y los Derechos Humanos, los gobiernos, Estados y empresas han dedicado más atención a las responsabilidades de las empresas en este ámbito, sobre todo en industrias con problemas de derechos humanos tangibles y de larga data, como los sectores extractivo y de la confección. Sin embargo, en estos debates, existe un sector que ha recibido mucha menos atención: las plataformas en línea.

Esta omisión es sorprendente dada la importancia de las plataformas en línea para el ejercicio de la libertad de expresión en tiempos modernos. Todos los días, miles de millones de personas dependen de motores de búsqueda como Google para buscar y recibir información e ideas, y utilizan Facebook, Twitter y Snapchat para desarrollar relaciones, compartir historias y conectarse con otros. Estas plataformas también desempeñan un papel crucial en la organización de la disidencia y la movilización, desde la revolución de Túnez hasta el movimiento #MeToo. Las plataformas en línea pueden convertirse en un salvavidas cotidiano en países donde el discurso público es vigilado estrechamente o reprimido, y para grupos marginados o vulnerables como las personas LGBTI y los defensores de derechos humanos. Como afirmó el Relator Especial de las Naciones Unidas sobre la libertad de expresión en 2016: “La libertad de opinión y de expresión, tal como la ejercemos en la actualidad, debe buena parte de su pujanza al sector privado, que ostenta un enorme poder en el espacio digital, actuando como pasarela de la información y como intermediario de la expresión”.

Este poder implica grandes responsabilidades. Las plataformas tienen el deber tanto de respetar la libertad de expresión de sus usuarios como de garantizar el manejo adecuado del contenido nocivo e ilegal que pueda surgir en ellas, como el acoso, el discurso de odio y las imágenes de abuso sexual infantil. Por el momento, muchas no cumplen estas obligaciones de forma sistemática, lo cual se manifiesta más crudamente en su enfoque sobre la moderación de contenidos.

Todos los días, miles de millones de personas dependen de motores de búsqueda como Google para buscar y recibir información e ideas, y utilizan Facebook, Twitter y Snapchat para desarrollar relaciones, compartir historias y conectarse con otros". 

Por ejemplo, en 2017, después de que Facebook decidiera eliminar una publicación que contenía una famosa fotografía de una víctima de napalm en la guerra de Vietnam, YouTube retiró miles de videos que contenían pruebas de atrocidades y crímenes de guerra en Siria porque determinó que suponían una violación de sus condiciones de servicio. También se ha criticado a Facebook por sus políticas sobre la eliminación de contenidos y la suspensión de perfiles y grupos. Estas políticas han llevado a la censura de personas LGBTI por referirse a sí mismas con términos como “queer” o “lencha” y a la eliminación de publicaciones que ponen de relieve la violencia contra los musulmanes rohinyás en Myanmar. Al mismo tiempo, el problema se está agravando debido a la alarmante tendencia de promulgar leyes que responsabilizan legalmente a las empresas de tecnología por el material publicado en sus plataformas —como la ley NetzDG de Alemania y la Ley contra Noticias Falsas de Malasia—, ya que incentivan a las empresas a retirar cualquier contenido polémico para no arriesgarse a la imposición de multas u otras sanciones.

Ambas tendencias —la moderación excesiva del contenido por parte de las plataformas y las severas respuestas legislativas por parte de los gobiernos— reflejan la falta de consenso sobre las responsabilidades específicas de las plataformas en línea, y la forma adecuada de ejercerlas. Si bien los Principios Rectores de la ONU ofrecen un marco útil para las responsabilidades de las empresas en general, no hacen referencia a las actividades específicas de las plataformas en línea. Y los esfuerzos que ha emprendido el sector para adaptar los Principios a este contexto, como los Principios de Libertad de Expresión y Privacidad de la Global Network Initiative, a pesar de que son muy valiosos, tienen importantes limitaciones. Todavía se sitúan en un nivel muy abstracto, sin abordar temas fundamentales como, por ejemplo, la manera en que las plataformas deberían desarrollar e implementar sus condiciones de servicio.

A falta de una guía clara y factible, algunas empresas de tecnología están tomando medidas proactivas para mejorar sus procesos: desde definir con más detalle sus condiciones de servicio y la implementación de las mismas hasta aumentar la transparencia sobre la cantidad de eliminaciones de contenido. Por otra parte, David Kaye, el Relator Especial de la ONU sobre la libertad de expresión, presentó un informe histórico en junio de 2018 ante el Consejo de Derechos Humanos, el cual analiza específicamente la regulación del contenido en línea y, por primera vez, emite recomendaciones para las empresas de tecnología sobre cómo garantizar que se respete el derecho a la libertad de expresión.

Estas son señales esperanzadoras. Pero para responder a los retos descritos, hacen falta muchos más esfuerzos por parte de diversos actores de la comunidad empresarial y de derechos humanos. A nivel nacional, los Estados deben asegurarse de que los marcos jurídicos y reglamentarios nacionales ayuden a las plataformas en línea a respetar el derecho a la libertad de expresión, en lugar de socavar sus esfuerzos. Una manera de hacerlo podría ser incluir temas de libertad de expresión y el sector tecnológico en los planes de acción nacional que implementan los Principios Rectores de la ONU. Quienes exhortamos a las empresas a que respeten los derechos humanos también necesitamos reflexionar sobre cómo podríamos establecer procesos de moderación de contenidos que respeten los derechos humanos, y supervisarlos a nivel global. Esta última es una cuestión clave, dado el alcance global de las plataformas en línea. En un libro blanco de publicación reciente —redactado sobre la base de otras aportaciones valiosas de Article 19 y Public Knowledge—, Global Partners Digital propone una posible solución: la creación de un organismo global de múltiples interesados con el mandato de revisar y evaluar el cumplimiento de las normas internacionales de derechos humanos.

De acuerdo con este modelo, las plataformas interesadas designarían a un grupo de expertos independientes que desarrollarían un conjunto de normas para las plataformas en línea, después de consultar a las diversas partes interesadas. Entre otras cosas, las normas definirían la manera adecuada de responder a los contenidos nocivos, establecerían reglas para la rendición de cuentas y la transparencia y exigirían la creación de mecanismos de denuncia y reparación que permitan a los usuarios impugnar las decisiones. El cumplimiento de estas normas sería vigilado por un organismo mundial de supervisión de múltiples interesados, conformado por representantes de las plataformas en línea, las organizaciones de la sociedad civil, el sector académico y, posiblemente, organismos nacionales pertinentes, como las instituciones nacionales de derechos humanos. Se denunciaría públicamente a las plataformas que no cumplieran las normas y se les darían recomendaciones para mejorar.

Por supuesto, esta no es la única estrategia posible. Hace poco, Article 19 propuso un Consejo de Redes Sociales de múltiples interesados similar a nuestro modelo, pero con claras diferencias, el cual funcionaría como una especie de defensor del pueblo, que presidiría un código de ética para la eliminación de contenido y evaluaría las quejas sobre las plataformas en línea. Un elemento común que suelen compartir estas propuestas es que reconocen la necesidad de algún tipo de supervisión independiente. Sin embargo, todas enfrentarían preguntas similares sobre la inclusión y legitimidad de la supervisión, cómo evitar sofocar la innovación y competencia y cómo se tomaría en cuenta la diversidad de formas y tamaños de las plataformas bajo supervisión.

Los problemas recién mencionados no son abstractos ni teóricos; tampoco podemos permitirnos retrasar su discusión. En la actualidad, se está sometiendo a un escrutinio sin precedentes a las plataformas en línea y la compleja función que desempeñan en la sociedad. El entorno reglamentario de muchos países ya está empezando a cambiar, lo que tendrá graves consecuencias para la libertad de expresión. Todos los integrantes de la comunidad de las empresas y los derechos humanos —ya sean gobiernos, el sector privado o la sociedad civil— tenemos un papel fundamental que desempeñar en el desarrollo y la implementación de normas que aborden inquietudes legítimas, a la vez que garantizan la protección de los derechos humanos. Los costos de la inacción pueden ser elevados.

*** This article is part of a series on technology and human rights co-sponsored with Business & Human Rights Resource Centre and University of Washington Rule of Law Initiative.