En una carta enviada el jueves al director ejecutivo de Meta, Mark Zuckerberg, la senadora demócrata Elizabeth Warren pide al propietario de Facebook e Instagram que revele detalles inéditos sobre las prácticas de moderación de contenidos en tiempos de guerra que han «exacerbado la violencia y no han combatido la incitación al odio».
«En medio de los horribles ataques terroristas de Hamás en Israel, una catástrofe humanitaria que incluye la muerte de miles de civiles en Gaza, y el asesinato de decenas de periodistas, es más importante que nunca que las plataformas de medios sociales no censuren el contenido veraz y legítimo, sobre todo porque la gente de todo el mundo recurre a las comunidades en línea para compartir y encontrar información sobre los acontecimientos en la región», dice la carta, según una copia compartida con The Intercept.
Desde el atentado de Hamás del 7 de octubre, usuarios de las redes sociales de todo el mundo han denunciado la desaparición inexplicable de publicaciones, comentarios, hashtags y cuentas enteras, aunque no parecían infringir ninguna norma. La aplicación desigual de las normas en general, y la censura palestina en particular, han resultado ser problemas perennes para Meta, propietaria de Facebook e Instagram, y la empresa ha achacado sistemáticamente la aplicación errática de las normas a errores humanos y fallos técnicos, al tiempo que ha prometido mejorar.
Tras una serie de incursiones israelíes en 2021 en la mezquita de Al-Aqsa, en el Jerusalén oriental ocupado, Instagram censuró temporalmente las publicaciones sobre el lugar sagrado alegando que estaba asociado con el terrorismo. Una auditoría de terceros sobre las políticas de expresión de la empresa en Israel y Palestina realizada el año pasado concluyó que «las acciones de Meta en mayo de 2021 parecen haber tenido un impacto adverso sobre los derechos humanos […] en los derechos de los usuarios palestinos a la libertad de expresión, la libertad de reunión, la participación política y la no discriminación y, por tanto, en la capacidad de los palestinos para compartir información y puntos de vista sobre sus experiencias tal y como ocurrieron.»
Los usuarios afectados por estas decisiones de moderación, por su parte, apenas pueden recurrir, y a menudo no tienen ni idea de por qué se censuraron sus mensajes. La creciente dependencia de Meta de algoritmos de moderación de contenidos opacos y automatizados no ha hecho sino exacerbar la falta de transparencia de la empresa en torno a la política de expresión, y no ha hecho gran cosa para disipar las acusaciones de que los sistemas de la empresa están estructuralmente sesgados contra determinados grupos.
La carta hace referencia a artículos recientes de The Intercept, The Wall Street Journal y otros medios sobre la censura generalizada e inexplicable de los palestinos y el debate más amplio sobre el bombardeo israelí de Gaza. El mes pasado, por ejemplo, The Intercept informó de que los usuarios de Instagram que dejaban emojis de la bandera palestina en los comentarios de las publicaciones habían visto cómo esos comentarios se ocultaban rápidamente; Facebook dijo más tarde a The Intercept que ocultaba esos emojis en contextos que consideraba «potencialmente ofensivos».
Estos «informes sobre la supresión de voces palestinas por parte de Meta plantean serias dudas sobre las prácticas de moderación de contenidos y las protecciones antidiscriminatorias de Meta», escribe Warren. «Los usuarios de las redes sociales merecen saber cuándo y por qué se restringen sus cuentas y publicaciones, especialmente en las plataformas más grandes, donde se produce un intercambio de información vital. Los usuarios también merecen protección contra la discriminación basada en su origen nacional, religión y otras características protegidas.» Aparte de sus informes anuales generalizados, Meta suele compartir muy poca información sobre cómo aplica sus normas en casos concretos o cómo se determinan sus políticas a puerta cerrada. Este secretismo general en torno a las normas de expresión de la empresa significa que los usuarios a menudo no saben si una publicación determinada estará permitida -especialmente si menciona a una organización terrorista designada por Estados Unidos como Hamás- hasta que es demasiado tarde.
Para resolver este problema, y «con el fin de comprender mejor qué medidas legislativas podrían ser necesarias para abordar estas cuestiones», la carta de Warren incluye una letanía de preguntas concretas sobre cómo trata Meta los contenidos relacionados con la guerra y hasta qué punto ha aplicado sus normas de expresión en función de quién habla. «¿Cuántos mensajes en árabe procedentes de Palestina se han eliminado [desde el 7 de octubre]?», pregunta la carta. «¿Qué porcentaje del total de mensajes en árabe procedentes de Palestina representa la cifra anterior?». La carta pide además a Meta que divulgue las estadísticas de eliminación desde que comenzó la guerra («¿Con qué frecuencia limitó Meta la accesibilidad de los mensajes a nivel mundial sin notificárselo al usuario?») y detalles granulares de su sistema de aplicación («¿Cuál fue el tiempo medio de respuesta para una apelación de un usuario a una decisión de moderación de contenido para mensajes en árabe originarios de Palestina?»).
En la carta se pide a Meta que responda a las decenas de preguntas de Warren antes del 5 de enero de 2024.
*Sam Biddle es periodista especializado en tecnología y se centra en temas de vigilancia, privacidad y poder corporativo.
Este artículo fue publicado por The Intercept.
FOTO DE PORTADA: Reproducción.