Glilot Junction, en la ciudad israelí de Ramat HaSharon, es un cruce en el que la autopista Trans-Samaria se bifurca con la autopista de la costa. También es un cruce clave para los espías humanos y técnicos de Israel. En el lado este de la autopista está el campo de Hertzog y en el oeste el campo de Dane. Juntos, los 462 acres de terreno conforman el Campamento Moshe Dayan, la base militar más secreta del país.
Rodeado de diversos dispositivos de prevención de intrusos y de altas vallas de acero coronadas con alambre de espino, el campamento Dayan alberga una serie de institutos de inteligencia militar altamente sensibles, como su base central de entrenamiento; el Centro de Objetivos Avanzados; la Unidad 81, una unidad tecnológica secreta adscrita a la División de Operaciones Especiales; y la Escuela de Inteligencia de Señales de las FDI.
Pero la más secreta con diferencia es la sede de la Unidad 8200, especializada en escuchas, descifrado de códigos y ciberguerra, el equivalente israelí de la Agencia de Seguridad Nacional estadounidense. Una de las organizaciones más nuevas e importantes de la Unidad 8200 es el Centro de Ciencia de Datos e Inteligencia Artificial, que, según un portavoz, fue responsable del desarrollo de los sistemas de IA que «transformaron todo el concepto de objetivos en las FDI.» Ya en 2021, el ejército israelí describió su guerra de 11 días contra Gaza como la primera «guerra de IA» del mundo. La actual invasión israelí de Gaza ofrece un ejemplo más reciente -y devastador-.
Hace más de 70 años, esa misma parcela de tierra albergaba la aldea palestina de Ajleel, hasta que sus habitantes fueron asesinados u obligados a abandonar sus hogares y huir despavoridos durante la Nakba de 1948. Ahora, soldados y especialistas en inteligencia están siendo entrenados en el Campamento Moshe Dayan para terminar el trabajo: bombardear, disparar o matar de hambre a los descendientes de los palestinos obligados a vivir en la miseria de la Gaza ocupada militarmente hace décadas.
A principios de este mes prosiguió ese esfuerzo, con el ataque a tres vehículos de ayuda de World Central Kitchen, bien señalizados y plenamente homologados, matando a sus siete ocupantes y asegurándose de que los alimentos nunca llegaran a los que mueren de hambre. El ataque fue preciso: los misiles se colocaron justo en el centro de los logotipos de los tejados de la organización humanitaria. Israel, sin embargo, dijo que se trataba simplemente de un error, similar al asesinato «por error» de casi 200 trabajadores humanitarios más en cuestión de meses, más que todos los trabajadores humanitarios asesinados en todas las guerras del resto del mundo en los últimos 30 años juntos, según la Base de Datos de Seguridad de los Trabajadores Humanitarios.
Estos horrendos «errores» son difíciles de entender, teniendo en cuenta la enorme cantidad de hardware y software de inteligencia artificial para objetivos avanzados proporcionados a las agencias militares y de espionaje israelíes, algunos de ellos por una empresa estadounidense en particular: Palantir Technologies. «Estamos con Israel», dijo la empresa con sede en Denver en publicaciones en X y LinkedIn. «El consejo de administración de Palantir se reunirá en Tel Aviv la próxima semana para su primera reunión del nuevo año. Nuestro trabajo en la región nunca ha sido tan vital. Y continuará». Como una de las empresas de minería de datos más avanzadas del mundo, con vínculos con la CIA, el «trabajo» de Palantir fue suministrar a las agencias militares y de inteligencia de Israel con capacidades de orientación avanzadas y potentes -las capacidades precisas que permitieron a Israel colocar tres misiles disparados por drones en tres vehículos de ayuda claramente marcados.
«Estoy bastante animado respecto al talento aquí y a que estamos consiguiendo a la mejor gente», dijo Alex Karp, cofundador y CEO de la empresa, a un grupo poco después de llegar a Tel Aviv el pasado enero. «Lo que veo en Israel es este híbrido de talento que es cualitativo y argumentativo». Inmediatamente después de la charla, Karp se desplazó a un cuartel militar donde firmó un acuerdo mejorado con el Ministerio de Defensa israelí. «Ambas partes han acordado mutuamente aprovechar la avanzada tecnología de Palantir en apoyo de misiones relacionadas con la guerra», declaró el Vicepresidente Ejecutivo Josh Harris.
El proyecto consistía en vender al Ministerio una plataforma de inteligencia artificial que utiliza resmas de informes de inteligencia clasificados para tomar decisiones de vida o muerte sobre qué objetivos atacar. Hace varios años, Karp admitió que «nuestro producto se utiliza en ocasiones para matar gente», algo cuya moralidad incluso él mismo cuestiona de vez en cuando. «Me he preguntado: ‘Si yo fuera más joven en la universidad, ¿estaría protestando contra mí?». Recientemente, varios empleados de Karp decidieron renunciar antes que involucrarse con una empresa que apoya el genocidio en curso en Gaza. Y en la plaza londinense del Soho, decenas de manifestantes y trabajadores sanitarios pro Palestina se concentraron ante la sede británica de Palantir para acusar a la empresa de ser «cómplice» de crímenes de guerra.
Las máquinas de inteligencia artificial de Palantir necesitan datos para alimentarse, datos en forma de informes de inteligencia sobre los palestinos en los territorios ocupados. Y durante décadas, una fuente clave y muy secreta de esos datos para Israel ha sido la Agencia de Seguridad Nacional de Estados Unidos, según los documentos publicados por el denunciante de la NSA Edward Snowden. Tras huir a Hong Kong en 2013 con un bolsillo lleno de memorias USB que contenían algunos de los más altos secretos de la agencia, Snowden acabó en Moscú, donde, poco después de llegar, me reuní con él para la revista Wired. Y en la entrevista, me contó que «uno de los mayores abusos» que vio mientras estaba en la agencia fue cómo la NSA proporcionaba en secreto a Israel comunicaciones telefónicas y de correo electrónico sin editar entre palestinos estadounidenses en Estados Unidos y sus familiares en los territorios ocupados. A Snowden le preocupaba que, como resultado de compartir esas conversaciones privadas con Israel, los palestinos de Gaza y Cisjordania corrieran un gran riesgo de ser objeto de detención o algo peor.
Según el acuerdo Top Secret/Special Intelligence entre la NSA e Israel, «la NSA envía rutinariamente a la ISNU [Israeli SIGINT National Unit] recopilación en bruto minimizada y no minimizada… como parte de la relación SIGINT entre ambas organizaciones». Y añade: «La SIGINT en bruto incluye, entre otras cosas, transcripciones no evaluadas y no minimizadas, gists, facsímiles, télex, voz y metadatos y contenido de Inteligencia de Red Digital».
Ahora, con la actual guerra de Israel en Gaza, la información crítica de la NSA sigue siendo utilizada por la Unidad 8200, según varias fuentes, para seleccionar a decenas de miles de palestinos para la muerte, a menudo con bombas de 2.000 libras y otras armas suministradas por EE.UU. Y es un software de minería de datos extremadamente potente, como el de Palantir, el que ayuda a las FDI a seleccionar los objetivos. Y es un software de minería de datos extremadamente potente, como el de Palantir, el que ayuda a las IDF a seleccionar los objetivos. Aunque la empresa no revela detalles operativos, se pueden entender algunos indicios de la potencia y velocidad de su IA examinando sus actividades en nombre de otro cliente en guerra: Ucrania. Palantir es «responsable de la mayor parte de la selección de objetivos en Ucrania», según Karp. «Desde el momento en que los algoritmos se ponen manos a la obra para detectar sus objetivos [es decir, las personas] hasta que estos objetivos son perseguidos [es decir, asesinados] -un término de arte en este campo- no transcurren más de dos o tres minutos», señaló Bruno Macaes, un ex alto funcionario portugués que visitó la sede de Palantir en Londres el año pasado. «En el viejo mundo, el proceso podía durar seis horas».
Actualmente, la empresa está desarrollando un sistema de inteligencia artificial aún más potente, denominado TITAN (por «Tactical Intelligence Targeting Access Node»). Según Palantir, TITAN es una «estación terrestre de Inteligencia, Vigilancia y Reconocimiento de nueva generación habilitada por Inteligencia Artificial y Aprendizaje Automático para procesar datos recibidos de capas espaciales, de gran altitud, aéreas y terrestres». Aunque está diseñado para ser utilizado por el Ejército estadounidense, es posible que la compañía pruebe prototipos contra los palestinos de Gaza. «¿Cómo de preciso y exacto puedes saber que va a ser un sistema a menos que ya haya sido entrenado y probado con personas?», ha declarado Catherine Connolly, de la coalición Stop Killer Robot, que incluye a Human Rights Watch y Amnistía Internacional.
El examen más profundo de la conexión entre la IA y el masivo número de hombres, mujeres y niños palestinos inocentes masacrados en Gaza por Israel procede de una investigación publicada recientemente por +972 Magazine y Local Call. Aunque no se menciona a Palantir por su nombre, los sistemas de IA analizados por los periodistas parecen encajar en la misma categoría. Según la larga investigación, la Unidad 8200 utiliza actualmente un sistema llamado «Lavender» para atacar a miles de supuestos combatientes de Hamás. Pero la revista también informó de que, si bien antes del brutal ataque del 7 de octubre las normas de enfrentamiento de Israel restringían estrictamente el número de bajas no combatientes permitidas al atacar a un solo presunto militante de Hamás, esas limitaciones se han relajado en los meses posteriores hasta el punto de permitir la matanza de docenas de palestinos no combatientes (incluidos mujeres y niños) por cada individuo atacado. La advertencia del presidente Joe Biden en diciembre de que Israel estaba perdiendo el apoyo internacional debido a su «bombardeo indiscriminado» de Gaza parece no haber surtido efecto.
El informe de +972 Magazine detalla cómo el ejército israelí utiliza potentes algoritmos para clasificar enormes volúmenes de datos de vigilancia -teléfono, texto y digital- para elaborar largas listas de objetivos a matar. Y a ese botín habría que añadir los datos de las interceptaciones de la NSA de palestinos en Estados Unidos comunicándose con sus familias en Gaza, un proceso que continuó después de que Snowden dejara la NSA, según varias fuentes.
En 2014 -más de un año después de que Snowden apareciera en Moscú-, los ataques de la Unidad 8200 contra palestinos inocentes en los territorios ocupados fueron tan extremos que incluso provocaron que 43 veteranos de la unidad, entre ellos muchos que servían en la reserva, se hicieran públicos y acusaran a la organización de abusos sorprendentes. Declararon que tenían el «deber moral» de no seguir «participando en las acciones del Estado contra los palestinos».
En una carta dirigida a sus mandos, al primer ministro Benjamin Netanyahu y al jefe del ejército israelí, denunciaron que Israel utilizaba la información recopilada contra palestinos inocentes con fines de «persecución política». Y en testimonios y entrevistas concedidos a los medios de comunicación, especificaron que se recopilaban datos sobre la orientación sexual de los palestinos, sus infidelidades, sus problemas de dinero, las condiciones médicas de su familia y otros asuntos privados que podían «utilizarse para extorsionar/chantajear a la persona y convertirla en colaboradora» o crear divisiones en su sociedad.
Hace varios años, el general de brigada Yossi Sariel, actual director de la Unidad 8200, publicó un libro en el que esbozaba un sistema de IA supuestamente ficticio y de gran alcance. Pero los periodistas de +972 y Local Call descubrieron que la superpoderosa máquina de generación de objetivos sobre la que escribió entonces como ficción existe realmente. «Durante las primeras semanas de la guerra, el ejército dependió casi por completo de Lavender», escriben, «que registró hasta 37.000 palestinos como presuntos militantes -y sus hogares- para posibles ataques aéreos». Y desde el principio, hubo pocos intentos de verificar o justificar los miles de nombres generados por la «lista de asesinatos» de la máquina.
«Una fuente», escriben, «declaró que el personal humano a menudo sólo servía de ‘sello de goma’ para las decisiones de la máquina, añadiendo que, normalmente, dedicaban personalmente sólo unos ’20 segundos’ a cada objetivo antes de autorizar un bombardeo, sólo para asegurarse de que el objetivo marcado con Lavender era un hombre. Y ello a pesar de saber que el sistema comete lo que se consideran «errores» en aproximadamente el 10 por ciento de los casos y de que se sabe que ocasionalmente marca a individuos que sólo tienen una conexión poco clara con grupos militantes, o ninguna conexión en absoluto.»
Pero la cosa se pone aún peor. Descubrieron que el ejército israelí bombardeaba deliberada y sistemáticamente las casas de personas seleccionadas -matando a familias enteras- simplemente porque otro algoritmo de IA les decía que la persona estaba allí. «El resultado», escriben, «como atestiguaron las fuentes, es que miles de palestinos -la mayoría mujeres y niños o personas que no participaban en los combates- fueron aniquilados por los ataques aéreos israelíes, especialmente durante las primeras semanas de la guerra, debido a las decisiones del programa de IA.»
Es probable que estas acciones contribuyeran a la reciente decisión del Consejo de Derechos Humanos de las Naciones Unidas de aprobar una resolución en la que se pide que Israel rinda cuentas por posibles crímenes de guerra y crímenes contra la humanidad cometidos en Gaza. Veintiocho países votaron a favor y sólo seis en contra. Sin embargo, en la Casa Blanca y en el Capitolio, parece haber poca preocupación por los peligros del uso de la IA como arma mortal por parte de Israel y la conexión de la tecnología con el asombroso número de hombres, mujeres, niños y familias enteras inocentes masacrados en Gaza. La directora en Washington de Human Rights Watch, Sarah Yager, declaró a Politico: «Nadie tiene idea, incluidos, diría yo, los responsables políticos estadounidenses, de cómo Israel está llevando a cabo esta guerra».
Durante años, Estados Unidos ha regulado estrictamente la exportación de sistemas de armamento a países extranjeros debido a la falta de rendición de cuentas una vez en posesión de los usuarios y a la posibilidad de que se cometan graves crímenes de guerra. Incluso el director ejecutivo de Palantir, Alex Karp, ha afirmado que «el poder de los sistemas algorítmicos avanzados de guerra es ahora tan grande que equivale a disponer de armas nucleares tácticas contra un adversario que sólo cuenta con las convencionales». La matanza indiscriminada de Israel en Gaza ofrece el ejemplo perfecto de por qué es hora de comenzar también a regular de forma mucho más estricta la exportación de sistemas de IA, como los desarrollados por Palantir. Sistemas que, como sugirió Karp, son el equivalente digital de un arma de destrucción masiva. Después de todo, no es sólo la bomba la que mata, sino la lista la que te pone a ti y a tu familia bajo ella.
*James Bamford es autor de bestsellers, cineasta nominado a los Emmy y ganador del National Magazine Award for Reporting.
Este artículo fue publicado por The Nation. Traducido por PIA Global.
FOTO DE PORTADA: Empleados de la World Central Kitchen murieron en un ataque aéreo israelí contra sus vehículos en el centro de la Franja de Gaza.
(Majdi Fathi).