Sórdida, comprometida y espeluznante, la máquina de vigilancia de Facebook, que ahora opera bajo el pliegue más amplio de su empresa matriz Meta Platforms, está emitiendo en la actualidad las mismas señales por las que fue condenada antes: fomentar los debates sobre el odio a un grupo y a ciertas figuras, al tiempo que difunde la mala palabra a todos los demás para que lo hagan.
La Federación Rusa, el presidente Vladimir Putin y los rusos en general surgen como los últimos contendientes, los villanos de las historietas con los que los que están en el ampliamente designado “Occidente” pueden ahora enfrentarse. Según un portavoz de Meta, el ataque ruso a Ucrania ha hecho que la empresa haga “concesiones temporales a formas de expresión política que normalmente violarían nuestras normas, como el discurso violento, como “muerte a los invasores rusos””. De forma críptica, el mismo portavoz continúa diciendo que “seguimos sin permitir llamamientos creíbles a la violencia contra los civiles rusos”. Meta no da ninguna directriz sobre lo que constituiría un “llamamiento creíble”.
Twitter también ha permitido publicaciones que abogan abiertamente por el homicidio y el asesinato. El senador estadounidense Lindsey Graham se dejó llevar por el ansia de sangre de la permisividad, utilizando la plataforma para preguntar si Rusia tenía su propio Bruto. “¿Existe un Coronel Stauffenberg más exitoso en el ejército ruso?” La única forma de concluir el conflicto era “que alguien en Rusia eliminara a este tipo”.
El enfoque de villanía de dibujos animados del grupo Meta también tiene precedentes. En julio de 2021, se suavizó la política de incitación y discurso de odio con una referencia específica al líder supremo de Irán, Ali Hosseini Khamenei. La empresa decidió permitir las publicaciones que incluyeran “muerte a Jamenei” o vídeos de personas coreando la frase durante un periodo de dos semanas. Lorenzo Franceschi-Bicchierai escribió entonces que este permiso era “una elección extraña que pone de manifiesto el poder de Facebook y sus a menudo confusas normas de moderación de contenidos”.
La política ruso-ucraniana sólo es sorprendente por ser una admisión abierta de una práctica que Facebook ha adoptado durante años. Con el crecimiento astronómico de la empresa, las acusaciones sobre cómo utiliza la incitación al odio y los contenidos engañosos han ido in crescendo sin mayor efecto. Se han hecho esfuerzos simulados para hacerles frente, sin desviarse nunca del propósito de mercado de la empresa.
Un ejemplo de esta moralidad en zig-zag se encuentra con el daño reputacional se dio en 2018. En agosto de ese año, la empresa contrató a 60 especialistas en lengua birmana para revisar los contenidos publicados y distribuidos, con la promesa de emplear a otros 40 para finales de año. La directora de producto, Sara Su, calificó la violencia contra los rohingya en Myanmar de “horrible y hemos sido demasiado lentos para evitar la desinformación en Facebook.”
Una evaluación más precisa de la conducta de la empresa fue revelada por un trozo de documentos internos que muestran cómo los daños fueron monitoreados de cerca pero exacerbados algorítmicamente. Los documentos, revelados a la Comisión del Mercado de Valores de EE.UU. por la denunciante Frances Haugen, revelaron una serie de cosas, incluyendo el abismo entre las declaraciones públicas del CEO Mark Zuckerberg sobre las mejoras y los propios hallazgos de la compañía.
En su testimonio ante el Congreso en 2020, Zuckerberg afirmó que el 94% de las expresiones de odio se eliminaban antes de que un agente humano las denunciara. La imagen que se desprende de los documentos internos muestra que la empresa hizo todo lo contrario: menos del 5 por ciento del discurso de odio en la plataforma fue realmente eliminado.
Haugen resumió el enfoque en su declaración inicial ante el Subcomité de Comercio del Senado sobre Protección del Consumidor, Seguridad de los Productos y Seguridad de los Datos en octubre del año pasado. Tras admitir que las redes sociales se enfrentaban a problemas “complejos y matizados” para hacer frente a la desinformación, el contraespionaje y la democracia, fue tajante sobre las “decisiones que se estaban tomando dentro de Facebook”. Son “desastrosas -para nuestros hijos, para nuestra seguridad pública, para nuestra privacidad y para nuestra democracia- y por eso debemos exigir a Facebook que haga cambios”.
La plataforma también ha sido objeto de demandas judiciales por fomentar la incitación al odio. En diciembre, los refugiados rohingya, a los que poco les importan las promesas de la empresa de pasar página, promovieron una acción legal tanto en Estados Unidos como en el Reino Unido por 150.000 millones de dólares. La demanda de San Francisco, presentada por Edelson y Fields Law en nombre de un demandante anónimo, alega que la introducción de Facebook en el país en 2011 fomentó “la difusión de mensajes de odio, desinformación e incitación a la violencia”, lo que condujo al genocidio de los rohingya.
La guerra de Ucrania ha revelado un patrón familiar. El 26 de febrero de 2022, Facebook anunció inicialmente que había “establecido un centro de operaciones especiales formado por expertos de toda la empresa, incluidos hablantes nativos de ruso y de Ucrania, que vigilan la plataforma las 24 horas del día, lo que nos permite responder a los problemas en tiempo real”. La empresa prometió que estaba “tomando amplias medidas para luchar contra la desinformación e implementando más transparencia y restricciones en torno a los medios de comunicación controlados por el Estado”.
Luego llegó la flexibilización de las políticas sobre la incitación al odio en relación con las figuras rusas, con la previsible y, dado el contexto, comprensible reacción. La embajada rusa en Washington calificó la política de “agresiva y criminal […] que conduce a la incitación al odio y la hostilidad”. Esto dio a Moscú una buena base para afirmar que se trataba de una característica más de una “guerra de información sin reglas”.
Los expertos en desinformación se ponen un poco nerviosos al aprobar el enfoque de Meta. “La política llama a la violencia contra los soldados rusos”, insiste Emerson Brooking, del Laboratorio de Investigación Forense Digital del Atlantic Council. “Un llamamiento a la violencia aquí, por cierto, es también un llamamiento a la resistencia porque los ucranianos se resisten a una invasión violenta”.
Esta política de intervenir del lado de la causa ucraniana en detrimento de Rusia es alentada por el presidente de Asuntos Globales de Meta, Nick Clegg. En su declaración del 11 de marzo, Clegg acentúa aún más el argumento de la violencia selectiva. “Quiero ser muy claro: nuestras políticas se centran en proteger los derechos de expresión de la gente como expresión de autodefensa en reacción a una invasión militar de su país”. Si se hubieran seguido las políticas de contenido estándar, se habrían eliminado los contenidos “de ucranianos corrientes que expresan su resistencia y furia contra las fuerzas militares invasoras”.
Esta postura desmesurada no cuenta con un acuerdo universal. El sociólogo de los medios de comunicación Jeremy Littau ha hecho la pertinente observación de que “Facebook tiene reglas, hasta que no las tiene”. Pretende ser simplemente una plataforma por encima de tomar partido, “hasta que lo hace”. No permitir la incitación al odio salvo en casos señalados contra ciertas personas de un determinado país era “una lata de gusanos”.
El último movimiento de Meta es inquietantemente refrescante al denunciar una política que sigue siendo azarosa, aplicada selectivamente, pero siempre impulsada por el propio cálculo amoral de la empresa. El conflicto ucraniano da ahora al grupo una cobertura para prácticas que debilitan y corrompen la democracia, al tiempo que eligen el bando de la guerra. Está claro que la empresa no deja de alentar los posts que abogan por el homicidio y el asesinato tras comprobar la dirección del viento. Con la rápida anulación cultural, política y económica de Rusia en el redil de los países occidentales, Zuckerberg está obligado a pensar que ha encontrado un ganador. Como mínimo, ha encontrado una coartada de distracción.
*Binoy Kampmark fue becario de la Commonwealth en el Selwyn College de Cambridge y es profesor en la Universidad RMIT de Melbourne.
FUENTE: CounterPunch