África Subsahariana

El deepfake es un arma poderosa en la guerra en Sudán

Por Mohamed Suliman*-
Si bien aún es rudimentario (los modelos de clonación de voz aún no pueden reproducir de manera convincente los dialectos sudaneses), el uso de deepfakes ahora se usa rutinariamente en el violento, aunque incruento, campo de batalla alternativo de Sudán: las redes sociales.

En abril de 2024 circuló en las redes sociales una imagen falsa de la Universidad Al-Jazeera en la ciudad de Wad Madani, supuestamente bombardeada por las Fuerzas Armadas del Sudán.

En abril de 2024, una imagen de un edificio envuelto en llamas se volvió viral en Facebook en Sudán. La imagen fue ampliamente compartida con subtítulos que afirmaban que el edificio era parte de la Universidad Al-Jazeera en la ciudad de Wad Madani y que el ejército sudanés lo había bombardeado. Muchos líderes políticos y figuras públicas se encontraban entre quienes cayeron víctimas y la compartieron.

Sin embargo, este no fue un caso aislado. Mientras continúa el conflicto entre el ejército del país y las Fuerzas de Apoyo Rápido, un grupo paramilitar rebelde, las plataformas de redes sociales se han convertido en un campo de batalla alternativo donde se están utilizando generosamente deepfakes generados por inteligencia artificial para difundir noticias falsas sobre los demás y ganar más simpatizantes. La tendencia plantea una grave amenaza en el país del noreste de África, que necesita urgentemente un ecosistema de información saludable.

La inteligencia artificial se utilizó para generar vídeos falsos durante los primeros días de la guerra en curso. En agosto de 2023, el Daily Mail identificó un vídeo del embajador de Estados Unidos en Sudán en el que decía que Estados Unidos tiene un plan para reducir la influencia del Islam en el país.

En octubre de 2023, una investigación de la BBC expuso una campaña que utilizaba inteligencia artificial para hacerse pasar por el exlíder de Sudán, Omar al-Bashir, que había recibido cientos de miles de visitas en TikTok.

En marzo de 2024, una cuenta X de un presentador de radio y televisión compartió una grabación atribuida al jefe de las Fuerzas Armadas de Sudán en la que ordenaba matar a civiles, desplegar francotiradores y ocupar edificios. Esta grabación creada por IA fue vista por 230.000 personas y compartida por cientos de personas, incluidos políticos sudaneses conocidos.

Además, en septiembre de 2023, algunos sudaneses expertos en tecnología sin afiliaciones políticas obvias comenzaron a usar tecnologías deepfake para crear contenido satírico. Por ejemplo, una canción que se publicó originalmente para apoyar a las Fuerzas Armadas Sudanesas fue reproducida como deepfake en la que se ve al líder de las RSF, Mohamed Hamdan Dagalo (alias Hemedti), cantando la canción junto con uno de sus oficiales de alto rango. Fue vista miles de veces. Si bien los espectadores no pasaron por alto el objetivo humorístico de la canción modificada, en otros casos, este contenido se transformó en desinformación.

En marzo de 2024, una grabación creada por una IA mostró una reunión secreta entre los líderes de la milicia RSF y un par de líderes de la coalición Libertad y Cambio discutiendo un plan para un golpe militar. Si bien la grabación no era auténtica, fue compartida ese mismo mes por periodistas conocidos e incluso por la televisión nacional antes de ser eliminada más tarde. Obai Alsadig, el creador de la grabación, me dijo que la grabación era «sarcástica, con un diálogo débil y falsa» y que «quería demostrar al público que crear ese tipo de grabaciones falsas no es difícil».

Los partidarios de las Fuerzas Armadas Sudanesas, como parte de la guerra psicológica, lanzaron una campaña para poner en duda las grabaciones autenticadas de Hemedti, afirmando falsamente que todas fueron creadas por IA y que está muerto, a pesar de que un análisis independiente reveló, con gran confianza, que estas grabaciones son precisas. 

Se han realizado varios esfuerzos para combatir el contenido de desinformación deepfake cuya sede está en Beam Reports, con sede en Jartum, la única organización de verificación de datos sudanesa verificada por la Organización Internacional de Verificación de Datos, y que ha estado verificando contenido en Sudán desde 2023. La organización ha estado rastreando las deepfakes en Sudán y ha publicado un análisis al respecto.

“Si bien se utiliza la tecnología deepfake en las redes sociales con fines engañosos, no podemos decir que su uso haya aumentado significativamente en los últimos seis meses, específicamente en el contexto de Sudán. Sin embargo, es notable que también se ha generado contenido de audio engañoso mediante inteligencia artificial y se ha atribuido a personas activas en asuntos sudaneses. Marsad Beam, una división dentro de Beam Report que se encarga de monitorear y verificar los hechos de las noticias falsas virales, ha trabajado en un informe en el que verificó la autenticidad de este contenido, me explicó Beam Reports por correo electrónico.

En un seminario en línea organizado por la UNESCO en mayo, Beam Reports destacó los desafíos que ha planteado el uso de IA en los últimos meses.

“Tras un año de luchar contra la desinformación en línea, Beam Reports destacó que la ausencia de información sobre el terreno está provocando un aumento de la desinformación”, afirmó la UNESCO en un comunicado tras el evento. “Esto se ve amplificado y complicado aún más por el creciente uso de la inteligencia artificial generativa en la producción y difusión de desinformación y discursos de odio”.

Las personas con habilidades técnicas avanzadas también se unieron para ayudar a verificar los contenidos virales, me explicó Mohanad Elbalal, un activista sudanés radicado en el Reino Unido que verifica voluntariamente los contenidos en las redes sociales. “Si creo que un clip es un deepfake, hago una búsqueda inversa de fotogramas de la imagen para intentar encontrar una coincidencia, ya que normalmente estos deepfakes de IA se reproducen a partir de una plantilla, por lo que es probable que aparezcan imágenes similares. Busco cualquier cosa identificable en el clip, como el logotipo del canal de noticias falso utilizado en el deepfake”.

“La mayor limitación en la detección de deepfakes es la falta de acceso a herramientas confiables”, me dijo por correo electrónico Shirin Anlen, tecnóloga de medios de Witness. “Si bien hay algunas investigaciones inspiradoras en el campo, a menudo están fuera del alcance del público en general y requieren un alto nivel de experiencia técnica. Las herramientas de detección disponibles públicamente pueden ser difíciles de entender debido a la falta de transparencia y claridad en los resultados, lo que deja a los usuarios en la oscuridad, especialmente cuando estas herramientas producen falsos positivos, lo que sucede con bastante frecuencia”, explicó. 

“Desde un punto de vista técnico, estas herramientas aún dependen en gran medida de la calidad y diversidad de los datos de entrenamiento. Esta dependencia genera desafíos, en particular en relación con los sesgos hacia tipos específicos de manipulación, personajes o calidad de archivos. En nuestro trabajo, hemos notado que la compresión y la resolución de archivos juegan un papel importante en la precisión de la detección”, agregó.

El problema de las noticias falsas generadas por inteligencia artificial en Sudán podría intensificarse aún más a medida que la tecnología se vuelva más avanzada.

“Hasta ahora, gran parte de los deepfakes generados por IA que circulan en el país se podían identificar fácilmente como falsos debido a su mala calidad, lo que podría atribuirse a la falta de datos entrenados en dialectos sudaneses”, compartió conmigo sus pensamientos Mohamed Sabry, un investigador de IA sudanesa en la Universidad de la Ciudad de Dublín. Pero esto cambiará en el futuro si los actores maliciosos deciden invertir más tiempo y dinero para utilizar tecnología de IA avanzada para producir su contenido, agregó.

“En los idiomas con pocos recursos, como los dialectos sudaneses, los modelos de clonación de voz son menos eficaces y fácilmente identificables. El tono robótico es bastante evidente incluso para los oyentes inexpertos”, afirmó Mohamed. Sin embargo, “se están realizando muchos esfuerzos para abordar los desafíos de los conjuntos de datos de idiomas con pocos recursos. Además, es notable la impresionante capacidad de generalización de las redes neuronales profundas cuando se entrenan en dialectos y dominios cercanos al árabe”.

Si bien el contenido falso que podría incitar a la violencia en el volátil clima político de Sudán es una amenaza importante, también existe el riesgo de que el mentiroso se extienda a los políticos locales.

En junio de 2023, Mubarak Ardol, un político sudanés, tuiteó que la grabación de voz que había realizado de su conversación telefónica con otro político en la que se burlaba del líder del ejército y de su disposición a aceptar cualquier oferta de la milicia RSF no era exacta y se había realizado con un software de inteligencia artificial. Afirmó que el creador de la grabación se basó en muestras de su voz disponibles en Internet. 

Este fenómeno tiene un grave impacto negativo ya que crea un ambiente de escepticismo que empuja a los ciudadanos a cuestionar incluso la información válida generada por IA.

Las plataformas de redes sociales han comenzado a tomar medidas enérgicas contra el contenido deepfake, pero todo este contenido aún es accesible, lo que demuestra cómo estas políticas no se aplican en países como Sudán, posiblemente debido a la falta o insuficiencia de moderadores de contenido que entiendan el contexto local.

YouTube compartió conmigo su política de deepfakes que prohíbe este tipo de desinformación, la política enfatiza que “el contenido técnicamente manipulado que engañe a los usuarios y pueda representar un riesgo grave de daño atroz no está permitido en YouTube”.

Además, la política requiere que “los creadores revelen cuándo han creado o alterado contenido sintético que sea realista” y que “aplicaremos una etiqueta de transparencia a este contenido para que los espectadores tengan un contexto importante”.

*Mohamed Suliman es investigador y escritor, también es licenciado en Ingeniería por la Universidad de Jartum.

Artículo publicado originalmente en Argumentos Africanos

Dejar Comentario