10/04/2024
Por Yuval Abraham (+972 Magazine / Local Call) / Traducción: Paloma Farré
El ejército israelí ha marcado a decenas de miles de gazatíes como sospechosos para proceder a su asesinato utilizando un sistema de asignación de objetivos con poca supervisión humana, revelan +972 y Local Call
En CTXT podemos mantener nuestra radical independencia gracias a que las suscripciones suponen el 70% de los ingresos. No aceptamos “noticias” patrocinadas y apenas tenemos publicidad. Si puedes apoyarnos desde 3 euros mensuales, suscribete aquí
La ciudad de Beit Lahia, al norte de la Franja de Gaza, en diciembre de 2023, tras un ataque israelí. / Yonatan Sindel /Flash90
En 2021, se publicó en inglés un libro titulado The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World [‘El equipo humano-máquina: cómo crear una sinergia entre la inteligencia humana y la artificial que revolucionará nuestro mundo’] cuyo autor firmaba bajo el seudónimo de “Brigadier General Y.S”. En él, el escritor –un hombre que, según hemos confirmado, es el actual comandante de la unidad de élite 8200 de la inteligencia israelí– defiende el diseño de una máquina especial que podría procesar rápidamente ingentes cantidades de datos con el fin de generar miles de potenciales “objetivos” para ataques militares en el fragor de una guerra. Dicha tecnología, escribe, resolvería lo que describió como un “atasco humano tanto para localizar nuevos objetivos como para la toma de decisiones que aprueben dichos objetivos”.
Resulta que una máquina así existe. Una nueva investigación de +972 Magazine y Local Call revela que el ejército israelí ha desarrollado un programa basado en inteligencia artificial conocido como “Lavender”, cuya existencia revelamos en +972 Magazine. Según seis agentes del servicio de inteligencia israelí, que han servido en el ejército durante la actual guerra en la Franja de Gaza y tuvieron una participación directa en el uso de IA con el fin de generar objetivos para asesinar, Lavender ha desempeñado un papel fundamental en el bombardeo sin precedentes de palestinos, especialmente durante las primeras etapas de la guerra. De hecho, según las fuentes, influía hasta tal punto en las operaciones militares que básicamente trataban los resultados de la máquina de IA “como si fuera una decisión humana”.
Formalmente, el sistema Lavender está diseñado para marcar como posibles objetivos de bombardeo a todos los sospechosos de pertenecer al brazo armado de Hamás y la Yihad Islámica Palestina, incluidos los de rango inferior. Las fuentes revelaron a +972 y Local Call que, durante las primeras semanas de la guerra, el ejército dependió casi por completo de Lavender, que registró hasta 37.000 palestinos –y sus hogares– como presuntos militantes para posibles ataques aéreos.
Durante las primeras fases de la guerra, el ejército autorizó a los oficiales para que asumieran como buenas las listas de objetivos a matar que generaba Lavender sin necesidad de comprobar a fondo por qué la máquina tomaba esas decisiones o de analizar la información sin procesar en la que se basaban. Una fuente declaró que el personal humano a menudo solo servía de “sello” para aprobar automáticamente las decisiones de la máquina, y añadió que, por lo general, tan solo dedicaban personalmente unos “20 segundos” a cada objetivo antes de autorizar un bombardeo, únicamente para asegurarse de que el objetivo marcado por Lavender era un varón. Y ello a pesar de saber que el sistema comete lo que se consideran “errores” en aproximadamente el 10% de los casos y de que, en ocasiones, marca a personas que apenas tienen una ligera conexión con grupos militantes o ninguna conexión en absoluto.
Además, el ejército israelí atacaba sistemáticamente a las personas marcadas como objetivos cuando se encontraban en sus hogares –generalmente de noche, con toda la familia presente– y no en el transcurso de las actividades militares. Según las fuentes, esto se debía a que, desde el punto de vista de los servicios de inteligencia, era más fácil localizarlas en sus domicilios particulares. Otros sistemas automatizados, incluido uno llamado “¿Dónde está papá?”, cuya existencia también revelamos en +972 Magazine, se utilizaban para localizar a personas concretas y llevar a cabo los atentados con bombas cuando entraban en los domicilios de sus familias.
El resultado, como testificaron las fuentes, es que miles de palestinos –la mayoría de ellos mujeres y niños o personas que no participaban en los combates– fueron aniquilados por los ataques aéreos israelíes, especialmente durante las primeras semanas de la guerra, debido a las decisiones del programa de IA.
“No nos interesaba matar a los operativos [de Hamás] solo cuando estaban en un edificio militar o participaban en una operación militar”, dijo A., un agente de los servicios de los servicios de inteligencia, a +972 y Local Call. “Por el contrario, las FDI los bombardeaban en sus casas sin dudarlo, como primera opción. Es mucho más fácil bombardear la casa de una familia. El sistema está diseñado para buscarlos en estas situaciones”.
La máquina Lavender se une a otro sistema de IA, “The Gospel” [El Evangelio], sobre el que se reveló información en una investigación previa de +972 y Local Call en noviembre de 2023, así como en las propias publicaciones del ejército israelí. Una diferencia fundamental entre los dos sistemas está en la definición del objetivo: mientras que The Gospel marca los edificios y estructuras desde los que, según el ejército, operan los militantes, Lavender marca a las personas y las pone en una lista negra.
Además, según las fuentes, cuando se trataba de atacar a supuestos militantes subalternos marcados por Lavender, el ejército prefería utilizar únicamente misiles no guiados, comúnmente conocidos como bombas “tontas” (en contraste con las bombas de precisión “inteligentes”), que pueden destruir edificios enteros con sus ocupantes y causan una cantidad importante de bajas. “No conviene desperdiciar bombas caras en gente sin importancia; es muy caro para el país y hay escasez [de esas bombas]”, dijo C., uno de los agentes de los servicios de inteligencia. Otra fuente dijo que habían autorizado personalmente el bombardeo de “cientos” de casas privadas de presuntos militantes subalternos marcados por Lavender, y que en muchos de esos ataques murieron civiles y familias enteras que calificaban de “daños colaterales”.
En una medida sin precedentes, según dos de las fuentes, durante las primeras semanas de la guerra, el ejército también decidió que por cada militante subalterno de Hamás marcado por Lavender estaba permitido matar hasta 15 o 20 civiles; en el pasado, los militares no autorizaban ningún “daño colateral” durante los asesinatos de militantes de bajo rango. Las fuentes añadieron que, en el caso de que el objetivo fuera un alto cargo de Hamás con rango de comandante de batallón o brigada, el ejército autorizó en varias ocasiones la muerte de más de 100 civiles en el asesinato de un solo comandante.
La siguiente investigación está organizada por orden cronológico de acuerdo a las seis etapas de la enormemente automatizada producción de objetivos por parte del ejército israelí durante las primeras semanas de la guerra de Gaza. En primer lugar, explicamos qué es la máquina Lavender, que marcaba como objetivo a decenas de miles de palestinos utilizando IA. En segundo lugar, desvelamos el funcionamiento del sistema “¿Dónde está papá?”, que rastreaba esos objetivos y avisaba al ejército cuando entraban en sus casas familiares. En tercer lugar, describimos cómo se eligieron las bombas “tontas” para atacar estos hogares.
En cuarto lugar, explicamos cómo el ejército flexibilizó el número permitido de civiles que podían morir durante el bombardeo de un objetivo. En quinto lugar, señalamos el modo en que el software automatizado calculó de manera inexacta la cantidad de no combatientes en cada hogar. Y en sexto lugar, mostramos cómo en varias ocasiones, cuando se atacaba una vivienda, generalmente de noche, el objetivo individual a veces no estaba dentro porque el personal militar no verificaba la información en tiempo real (...)
No hay comentarios:
Publicar un comentario