Monthly Archives: January 2025
Inteligencia artificial en el genocidio de Gaza.
Lavender La máquina de IA que dirige los bombardeos israelíes en Gaza
https://www.972mag.com/lavender-ai-israeli-army-gaza/
El ejército israelí ha marcado a decenas de miles de gazatíes como sospechosos de asesinato, utilizando un sistema de selección de objetivos de IA con escasa supervisión humana y una política permisiva con las bajas, revelan los medios independientes israelís +972 y Local Call.
Por Yuval Abraham 3 de abril de 2024
En 2021 se publicó un libro titulado “The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World” fue publicado en inglés bajo el seudónimo “Brigadier General Y.S.”. En él, el autor -un hombre que, según hemos confirmado, es el actual comandante de la unidad de élite de inteligencia israelí 8200- defiende el diseño de una máquina especial que pueda procesar rápidamente cantidades masivas de datos para generar miles de “objetivos” potenciales para ataques militares en el fragor de una guerra. Dicha tecnología, escribe, resolvería lo que describe como un “cuello de botella humano tanto para localizar los nuevos objetivos como para la toma de decisiones para aprobarlos”.
Resulta que esa máquina existe. Una nueva investigación de +972 Magazine y Local Call revela que el ejército israelí ha desarrollado un programa basado en inteligencia artificial conocido como “Lavender”, desvelado aquí por primera vez. Según seis oficiales de inteligencia israelíes, que han servido en el ejército durante la actual guerra en la Franja de Gaza y que han participado de primera mano en el uso de IA para generar objetivos de asesinato, Lavender ha desempeñado un papel central en el bombardeo sin precedentes de palestinos, especialmente durante las primeras fases de la guerra. De hecho, según las fuentes, su influencia en las operaciones militares era tal que esencialmente trataban los resultados de la máquina de IA “como si fuera una decisión humana”.
Formalmente, el sistema Lavender está diseñado para marcar a todos los presuntos operativos de las alas militares de Hamás y la Yihad Islámica Palestina (YIP), incluidos los de bajo rango, como objetivos potenciales de bombardeo. Las fuentes dijeron a +972 y Local Call que, durante las primeras semanas de la guerra, el ejército dependió casi por completo de Lavender, que marcó hasta 37.000 palestinos como presuntos militantes -y sus hogares- para posibles ataques aéreos.
Durante las primeras etapas de la guerra, el ejército dio su aprobación general para que los oficiales adoptaran las listas de asesinatos de Lavender, sin ningún requisito para comprobar a fondo por qué la máquina hizo esas elecciones o para examinar los datos de inteligencia en bruto en los que se basaban. Una fuente declaró que el personal humano a menudo sólo servía de “sello de goma” para las decisiones de la máquina, añadiendo que, normalmente, sólo dedicaban personalmente unos “20 segundos” a cada objetivo antes de autorizar un bombardeo, sólo para asegurarse de que el objetivo marcado por Lavender era un hombre. Y ello a pesar de saber que el sistema comete lo que se consideran “errores” en aproximadamente el 10 por ciento de los casos, y de que se sabe que ocasionalmente marca a personas que sólo tienen una ligera conexión con grupos militantes, o ninguna conexión en absoluto.
Además, el ejército israelí atacaba sistemáticamente a las personas marcadas mientras se encontraban en sus casas -generalmente por la noche, con toda la familia presente- y no en el transcurso de actividades militares. Según las fuentes, esto se debía a que, desde lo que consideraban un punto de vista de inteligencia, era más fácil localizar a las personas en sus domicilios privados. Otros sistemas automatizados, entre ellos uno llamado ” Where’s Daddy?” que también se revela aquí por primera vez, se utilizaban específicamente para localizar a los individuos objetivo y llevar a cabo los atentados cuando habían entrado en las residencias de sus familias.
El resultado, como atestiguaron las fuentes, es que miles de palestinos -la mayoría de ellos mujeres y niños o personas que no participaban en los combates- fueron aniquilados por los ataques aéreos israelíes, especialmente durante las primeras semanas de la guerra, debido a las decisiones del programa de IA.
“No nos interesaba matar a los operativos [de Hamás] sólo cuando estaban en un edificio militar o participaban en una actividad militar”, dijo A., un oficial de inteligencia, a +972 y Local Call. “Al contrario, las IDF los bombardeaban en sus casas sin dudarlo, como primera opción. Es mucho más fácil bombardear la casa de una familia. El sistema está hecho para buscarlos en estas situaciones”.
La máquina Lavender se une a otro sistema de IA, “El Evangelio”, sobre el que se reveló información en una investigación previa de +972 y Local Call en noviembre de 2023, así como en las propias publicaciones del ejército israelí. Una diferencia fundamental entre los dos sistemas radica en la definición del objetivo: mientras que Evangelio marca edificios y estructuras desde los que, según el ejército, operan los militantes, Lavender marca a las personas, y las incluye en una lista negra.
Además, según las fuentes, cuando se trataba de apuntar a supuestos militantes subalternos marcados por Lavender, el ejército prefería utilizar únicamente misiles no guiados, conocidos comúnmente como bombas “tontas” (en contraste con las bombas de precisión “inteligentes”), que pueden destruir edificios enteros encima de sus ocupantes y causar importantes bajas. “No quieres malgastar bombas caras en gente sin importancia; es muy caro para el país y hay escasez [de esas bombas]”, dijo C., uno de los oficiales de inteligencia. Otra fuente dijo que habían autorizado personalmente el bombardeo de “cientos” de domicilios privados de presuntos operativos subalternos marcados por Lavender, y que muchos de estos ataques mataron a civiles y familias enteras como “daños colaterales”.
En una medida sin precedentes, según dos de las fuentes, el ejército decidió también durante las primeras semanas de la guerra que, por cada operativo subalterno de Hamás marcado por Lavender, estaba permitido matar hasta 15 o 20 civiles; en el pasado, el ejército no autorizaba ningún “daño colateral” durante los asesinatos de militantes de bajo rango. Las fuentes añadieron que, en caso de que el objetivo fuera un alto cargo de Hamás con rango de comandante de batallón o brigada, el ejército autorizó en varias ocasiones la muerte de más de 100 civiles en el asesinato de un solo comandante.
La siguiente investigación está organizada según las seis etapas cronológicas de la producción de objetivos altamente automatizada del ejército israelí en las primeras semanas de la guerra de Gaza. En primer lugar, explicamos la propia máquina Lavender, que marcó a decenas de miles de palestinos utilizando IA. En segundo lugar, revelamos el sistema ” Where’s Daddy?”, que rastreaba a estos objetivos y señalaba al ejército cuando entraban en sus casas familiares. En tercer lugar, describimos cómo se eligieron las bombas “tontas” para atacar estos hogares.
En cuarto lugar, explicamos cómo el ejército flexibilizó el número permitido de civiles que podían morir durante el bombardeo de un objetivo. En quinto lugar, señalamos cómo el software automatizado calculó de forma inexacta la cantidad de no combatientes en cada hogar. Y en sexto lugar, mostramos cómo en varias ocasiones, cuando se atacaba una vivienda, normalmente por la noche, el objetivo individual a veces no estaba dentro, porque los oficiales militares no verificaban la información en tiempo real.
PASO 1: GENERACIÓN DE OBJETIVOS
En cuanto se automatiza, la generación de objetivos se vuelve loca
En el ejército israelí, el término “objetivo humano” se refería en el pasado a un alto operativo militar que, según las normas del Departamento de Derecho Internacional del ejército, puede ser asesinado en su domicilio particular aunque haya civiles alrededor. Fuentes de inteligencia dijeron a +972 y a Local Call que durante las guerras anteriores de Israel, dado que ésta era una forma “especialmente brutal” de matar a alguien -a menudo matando a toda una familia junto al objetivo-, esos objetivos humanos se marcaban con mucho cuidado y sólo se bombardeaba a altos mandos militares en sus casas, para mantener el principio de proporcionalidad según el derecho internacional.
Pero después del 7 de octubre -cuando militantes dirigidos por Hamás lanzaron un asalto mortal contra comunidades del sur de Israel, matando a unas 1.200 personas y secuestrando a 240- el ejército, según las fuentes, adoptó un enfoque radicalmente distinto. En el marco de la “Operación Espadas de Hierro”, el ejército decidió designar a todos los operativos del ala militar de Hamás como objetivos humanos, independientemente de su rango o importancia militar. Y eso lo cambió todo.
La nueva política también planteó un problema técnico a la inteligencia israelí. En guerras anteriores, para autorizar el asesinato de un solo objetivo humano, un oficial tenía que pasar por un complejo y largo proceso de “incriminación”: cotejar pruebas de que la persona era efectivamente un miembro de alto rango del ala militar de Hamás, averiguar dónde vivía, su información de contacto y, por último, saber cuándo estaba en casa en tiempo real. Cuando la lista de objetivos sólo contaba con unas pocas docenas de altos cargos, el personal de inteligencia podía encargarse individualmente del trabajo que suponía incriminarlos y localizarlos.
Sin embargo, una vez que la lista se amplió para incluir a decenas de miles de operativos de rango inferior, el ejército israelí se dio cuenta de que tenía que confiar en el software automatizado y la inteligencia artificial. El resultado, testifican las fuentes, fue que se dejó de lado el papel del personal humano en la incriminación de palestinos como operativos militares y, en su lugar, la IA hizo la mayor parte del trabajo. Según cuatro de las fuentes que hablaron con +972 y Local Call, Lavender -que se desarrolló para crear objetivos humanos en la guerra actual- ha marcado a unos 37.000 palestinos como presuntos “militantes de Hamás”, la mayoría de ellos subalternos, para asesinarlos (el portavoz de las FDI negó la existencia de tal lista de asesinatos en una declaración a +972 y Local Call).
“No sabíamos quiénes eran los agentes subalternos porque Israel no les seguía la pista de forma rutinaria [antes de la guerra]”, explicó el oficial superior B. a +972 y Local Call, explicando la razón que subyace tras el desarrollo de esta particular máquina de objetivos para la guerra actual. “Querían permitirnos atacar [a los operativos subalternos] automáticamente. Ese es el Santo Grial. Una vez que te vuelves automático, la generación de objetivos se vuelve loca”.
Las fuentes dijeron que la aprobación para adoptar automáticamente las listas de objetivos de Lavender, que hasta entonces sólo se habían utilizado como herramienta auxiliar, se concedió unas dos semanas después de iniciada la guerra, después de que el personal de inteligencia comprobara “manualmente” la precisión de una muestra aleatoria de varios cientos de objetivos seleccionados por el sistema de IA. Cuando esa muestra determinó que los resultados de Lavender habían alcanzado el 90 por ciento de precisión en la identificación de la afiliación de un individuo a Hamás, el ejército autorizó el uso generalizado del sistema. A partir de ese momento, las fuentes dijeron que si Lavender decidía que un individuo era militante de Hamás, esencialmente se les pedía que lo trataran como una orden, sin ningún requisito de comprobar de forma independiente por qué la máquina había hecho esa elección o de examinar los datos de inteligencia en bruto en los que se basa.
“A las 5 de la mañana, [la fuerza aérea] venía y bombardeaba todas las casas que habíamos marcado”, dijo B.. “Eliminamos a miles de personas. No las revisábamos una por una, sino que lo poníamos todo en sistemas automatizados, y en cuanto una de [las personas marcadas] estaba en casa, se convertía inmediatamente en objetivo. Le bombardeábamos a él y a su casa”.
“Para mí fue muy sorprendente que nos pidieran que bombardeáramos una casa para matar a un soldado de tierra, cuya importancia en los combates era tan baja”, dijo una fuente sobre el uso de IA para marcar a supuestos militantes de bajo rango. “Yo apodaba a esos objetivos ‘objetivos basura’. Aun así, me parecían más éticos que los objetivos que bombardeábamos sólo por ‘disuasión’: rascacielos evacuados y derribados sólo para causar destrucción.”
Los resultados mortales de esta relajación de las restricciones en la primera fase de la guerra fueron asombrosos. Según datos del Ministerio de Sanidad palestino en Gaza, en los que se ha basado casi exclusivamente el ejército israelí desde el comienzo de la guerra, Israel mató a unos 15.000 palestinos -casi la mitad de los muertos hasta el momento- en las seis primeras semanas de la guerra, hasta que se acordó un alto el fuego de una semana el 24 de noviembre.
Cuanta más información y variedad, mejor
El programa Lavender analiza la información recopilada sobre la mayoría de los 2,3 millones de residentes de la Franja de Gaza mediante un sistema de vigilancia masiva y, a continuación, evalúa y clasifica la probabilidad de que cada persona en particular milite en el ala militar de Hamás o la YIP. Según las fuentes, la máquina asigna a casi todas las personas de Gaza una calificación del 1 al 100, que expresa la probabilidad de que sean militantes.
Según explicaron las fuentes, Lavender aprende a identificar las características de los agentes conocidos de Hamás y la YJP, cuya información se introdujo en la máquina como datos de entrenamiento, y luego localiza esas mismas características -también denominadas “rasgos”- entre la población general. Una persona que presente varias características incriminatorias diferentes alcanzará una calificación alta y, por tanto, se convertirá automáticamente en un objetivo potencial de asesinato.
En “The Human-Machine Team”, el libro al que se hace referencia al principio de este artículo, el actual comandante de la Unidad 8200 aboga por un sistema de este tipo sin hacer referencia a Lavender por su nombre. (Tampoco se nombra al propio comandante, pero cinco fuentes de la 8200 confirmaron que el comandante es el autor, según informó también Haaretz). Describiendo al personal humano como un “cuello de botella” que limita la capacidad del ejército durante una operación militar, el comandante se lamenta: “Nosotros [los humanos] no podemos procesar tanta información. No importa cuántas personas tengas encargadas de producir objetivos durante la guerra: seguirás sin poder producir suficientes objetivos al día”.
La solución a este problema, dice, es la inteligencia artificial. El libro ofrece una breve guía para construir una “máquina de objetivos”, similar en su descripción a Lavender, basada en IA y algoritmos de aprendizaje automático. En esta guía se incluyen varios ejemplos de los “cientos y miles” de características que pueden aumentar la calificación de un individuo, como estar en un grupo de Whatsapp con un militante conocido, cambiar de móvil cada pocos meses y cambiar de dirección con frecuencia.
“Cuanta más información y más variada, mejor”, escribe el comandante. “Información visual, información del móvil, conexiones en redes sociales, información del campo de batalla, contactos telefónicos, fotos”. Aunque al principio los humanos seleccionan estas características, prosigue el comandante, con el tiempo la máquina llegará a identificarlas por sí sola. Esto, dice, puede permitir a los ejércitos crear “decenas de miles de objetivos”, mientras que la decisión real sobre si atacarlos o no seguirá siendo humana.
El libro no es la única vez que un alto mando israelí insinúa la existencia de máquinas de objetivos humanos como Lavender. +972 y Local Call han obtenido imágenes de una conferencia privada pronunciada por el comandante del centro secreto de Ciencia de Datos e IA de la Unidad 8200, “Coronel Yoav”, en la semana de la IA de la Universidad de Tel Aviv en 2023, de la que informaron en su momento los medios israelíes.
En la conferencia, el comandante habla de una nueva y sofisticada máquina de objetivos utilizada por el ejército israelí que detecta a “personas peligrosas” basándose en su parecido con las listas existentes de militantes conocidos en las que fue entrenado. “Utilizando el sistema, logramos identificar a comandantes de escuadrones de misiles de Hamás”, dijo el “coronel Yoav” en la conferencia, refiriéndose a la operación militar israelí de mayo de 2021 en Gaza, cuando se utilizó la máquina por primera vez.
Las diapositivas de la presentación de la conferencia, también obtenidas por +972 y Local Call, contienen ilustraciones de cómo funciona la máquina: se le suministran datos sobre los operativos de Hamás existentes, aprende a fijarse en sus características y, a continuación, clasifica a otros palestinos en función de su similitud con los militantes.
Clasificamos los resultados y determinamos el umbral [a partir del cual atacar un objetivo]”, dijo el “coronel Yoav” en la conferencia, subrayando que “al final, las personas de carne y hueso toman las decisiones”. En el ámbito de la defensa, éticamente hablando, ponemos mucho énfasis en esto. Estas herramientas están pensadas para ayudar [a los oficiales de inteligencia] a romper sus barreras”.
En la práctica, sin embargo, fuentes que han utilizado Lavender en los últimos meses afirman que la agencia humana y la precisión fueron sustituidas por la creación masiva de objetivos y la letalidad.
No había una política de “cero errores””.
B., un oficial superior que utilizaba Lavender, se hizo eco ante +972 y Local Call de que, en la guerra actual, los oficiales no estaban obligados a revisar de forma independiente las evaluaciones del sistema de IA, con el fin de ahorrar tiempo y permitir la producción masiva de objetivos humanos sin trabas.
“Todo era estadístico, todo estaba ordenado – era muy seco”, dijo B.. Señaló que esta falta de supervisión se permitió a pesar de que las comprobaciones internas mostraban que los cálculos de Lavender se consideraban precisos sólo el 90 por ciento de las veces; en otras palabras, se sabía de antemano que el 10 por ciento de los objetivos humanos programados para ser asesinados no eran en absoluto miembros del ala militar de Hamás.
Por ejemplo, las fuentes explicaron que la máquina Lavender a veces marcaba erróneamente a personas que tenían patrones de comunicación similares a los de conocidos operativos de Hamás o de la YIP, incluidos trabajadores de la policía y de la defensa civil, familiares de militantes, residentes que casualmente tenían un nombre y un apodo idénticos a los de un operativo y gazatíes que utilizaban un dispositivo que había pertenecido a un operativo de Hamás.
“¿Hasta qué punto tiene que estar una persona cerca de Hamás para que una máquina de inteligencia artificial la considere afiliada a la organización?”, dijo una fuente crítica con la inexactitud de Lavender. “Es un límite impreciso. ¿Una persona que no recibe un salario de Hamás, pero que le ayuda con todo tipo de cosas, es un operativo de Hamás? ¿Es un operativo de Hamás alguien que estuvo en Hamás en el pasado, pero que hoy ya no está allí? Cada uno de estos rasgos -características que una máquina marcaría como sospechosas- es inexacto”.
Problemas similares existen con la capacidad de las máquinas de objetivos para evaluar el teléfono utilizado por un individuo marcado para ser asesinado. “En la guerra, los palestinos cambian de teléfono todo el tiempo”, dijo la fuente. “La gente pierde el contacto con sus familias, dan su teléfono a un amigo o a una esposa, tal vez lo pierden. No hay forma de confiar al cien por cien en el mecanismo automático que determina qué número [de teléfono] pertenece a quién.”
Según las fuentes, el ejército sabía que la mínima supervisión humana existente no descubriría estos fallos. “No había una política de ‘cero errores’. Los errores se trataban estadísticamente”, dijo una fuente que utilizó Lavender. “Debido al alcance y la magnitud, el protocolo era que aunque no se supiera con seguridad que la máquina estaba bien, se sabía que estadísticamente estaba bien. Así que vas a por ella”.
“Se ha demostrado”, dijo B., la fuente principal. “Hay algo en el enfoque estadístico que te fija una cierta norma y estándar. Ha habido una cantidad ilógica de [bombardeos] en esta operación. Esto no tiene parangón, que yo recuerde. Y confío mucho más en un mecanismo estadístico que en un soldado que perdió a un amigo hace dos días. Todo el mundo allí, incluido yo, perdió gente el 7 de octubre. La máquina lo hizo fríamente. Y eso lo hizo más fácil”.
Otra fuente de inteligencia, que defendió la confianza en las listas de asesinatos de sospechosos palestinos generadas por Lavender, argumentó que merecía la pena invertir el tiempo de un oficial de inteligencia sólo para verificar la información si el objetivo era un alto mando de Hamás. “Pero cuando se trata de un militante subalterno, no se quiere invertir tiempo y personal en ello”, dijo. “En la guerra no hay tiempo para incriminar a todos los objetivos. Así que estás dispuesto a asumir el margen de error de usar inteligencia artificial, arriesgarte a daños colaterales y a que mueran civiles, y arriesgarte a atacar por error, y a vivir con ello”.
B. dijo que la razón de esta automatización era el constante impulso de generar más objetivos para asesinar. “En un día sin objetivos [cuyo índice de características fuera suficiente para autorizar un ataque], atacábamos con un umbral más bajo. Nos presionaban constantemente: ‘Traednos más objetivos’. Nos gritaban mucho. Acabamos [matando] a nuestros objetivos muy rápidamente”.
Explicó que al bajar el umbral de calificación de Lavender, marcaba a más personas como objetivos de los ataques. “En su punto álgido, el sistema llegó a generar 37.000 personas como objetivos humanos potenciales”, dijo B. “Pero las cifras cambiaban todo el tiempo, porque depende de dónde pongas el listón de lo que es un operativo de Hamás. Hubo momentos en los que la definición de un operativo de Hamás era más amplia, y entonces la máquina empezó a traernos todo tipo de personal de defensa civil, agentes de policía, sobre los que sería una pena desperdiciar bombas. Ayudan al gobierno de Hamás, pero en realidad no ponen en peligro a los soldados”.
Una fuente que trabajó con el equipo de ciencia de datos militares que entrenó a Lavender dijo que también se introdujeron en la máquina datos recogidos de empleados del Ministerio de Seguridad Interna dirigido por Hamás, a los que no considera militantes. “Me molestó el hecho de que, cuando se entrenó a Lavender, se utilizara el término ‘operativo de Hamás’ de forma poco precisa y se incluyera a personas que eran trabajadores de la defensa civil en el conjunto de datos del entrenamiento”, dijo.
La fuente añadió que incluso si uno cree que estas personas merecen ser asesinadas, el entrenamiento del sistema basado en sus perfiles de comunicación hizo que Lavender tuviera más probabilidades de seleccionar civiles por error cuando sus algoritmos se aplicaron a la población general. “Dado que se trata de un sistema automático que no es manejado manualmente por humanos, el significado de esta decisión es dramático: significa que está incluyendo a muchas personas con un perfil de comunicación civil como objetivos potenciales”.
Sólo comprobamos que el objetivo era un hombre”.
El ejército israelí rechaza rotundamente estas afirmaciones. En una declaración a +972 y Local Call, el portavoz de las IDF negó el uso de inteligencia artificial para incriminar objetivos, diciendo que se trata simplemente de “herramientas auxiliares que ayudan a los oficiales en el proceso de incriminación.” El comunicado proseguía “En cualquier caso, se requiere un examen independiente por parte de un analista [de inteligencia], que verifique que los objetivos identificados son blancos legítimos de ataque, de acuerdo con las condiciones establecidas en las directivas de las FDI y el derecho internacional.”
Sin embargo, las fuentes afirmaron que el único protocolo de supervisión humana que se aplicaba antes de bombardear las casas de los presuntos militantes “menores” marcados por Lavender consistía en realizar una única comprobación: asegurarse de que el objetivo seleccionado por la IA fuera un hombre y no una mujer. En el ejército se partía de la base de que si el objetivo era una mujer, lo más probable era que la máquina hubiera cometido un error, porque no hay mujeres entre las filas de las alas militares de Hamás y la YIP.
“Un ser humano tenía que [verificar el objetivo] durante sólo unos segundos”, dijo B., explicando que esto se convirtió en el protocolo después de darse cuenta de que el sistema Lavender “acertaba” la mayoría de las veces. “Al principio, hacíamos comprobaciones para asegurarnos de que la máquina no se confundía. Pero llegó un momento en que confiamos en el sistema automático y sólo comprobamos que [el objetivo] era un hombre, con eso bastaba. No se tarda mucho en saber si alguien tiene voz de hombre o de mujer”.
Para llevar a cabo la comprobación hombre/mujer, B. afirmó que en la guerra actual, “invertía 20 segundos por cada objetivo en esta fase, y hacía docenas de ellas cada día. Tenía cero valor añadido como humano, aparte de ser un sello de aprobación. Ahorraba mucho tiempo. Si [el operativo] aparecía en el mecanismo automatizado, y yo comprobaba que era un hombre, había permiso para bombardearlo, previo examen de los daños colaterales”.
En la práctica, las fuentes dijeron que esto significaba que para los hombres civiles marcados por error por Lavender, no existía ningún mecanismo de supervisión para detectar el error. Según B., un error común se producía “si el objetivo [de Hamás] daba [su teléfono] a su hijo, a su hermano mayor o a un hombre cualquiera. Esa persona sería bombardeada en su casa con su familia. Esto ocurría a menudo. Estos fueron la mayoría de los errores causados por Lavender”, dijo B.
PASO 2: VINCULACIÓN DE LOS OBJETIVOS A LOS DOMICILIOS FAMILIARES
La mayoría de las personas asesinadas eran mujeres y niños”.
La siguiente etapa en el procedimiento de asesinato del ejército israelí consiste en identificar dónde atacar los objetivos que genera Lavender.
En una declaración a +972 y Local Call, el portavoz de las FDI afirmó en respuesta a este artículo que “Hamás sitúa a sus operativos y activos militares en el corazón de la población civil, utiliza sistemáticamente a la población civil como escudos humanos y lleva a cabo combates desde el interior de estructuras civiles, incluidos lugares sensibles como hospitales, mezquitas, escuelas e instalaciones de la ONU. Las IDF están obligadas y actúan de acuerdo con el derecho internacional, dirigiendo sus ataques únicamente contra objetivos militares y operativos militares”.
Las seis fuentes con las que hablamos se hicieron eco de esto en cierta medida, afirmando que el extenso sistema de túneles de Hamás pasa deliberadamente por debajo de hospitales y escuelas; que los militantes de Hamás utilizan ambulancias para desplazarse; y que innumerables activos militares se han situado cerca de edificios civiles. Las fuentes argumentaron que muchos ataques israelíes matan a civiles como consecuencia de estas tácticas de Hamás, una caracterización que, según advierten los grupos de derechos humanos, elude la responsabilidad de Israel por causar las bajas.
Sin embargo, en contraste con las declaraciones oficiales del ejército israelí, las fuentes explicaron que una de las principales razones del número sin precedentes de víctimas mortales del actual bombardeo israelí es el hecho de que el ejército ha atacado sistemáticamente objetivos en sus domicilios particulares, junto a sus familias -en parte porque era más fácil desde el punto de vista de la inteligencia marcar las casas familiares utilizando sistemas automatizados-.
De hecho, varias fuentes subrayaron que, a diferencia de los numerosos casos de operativos de Hamás que participaban en actividades militares desde zonas civiles, en el caso de los ataques sistemáticos de asesinato, el ejército tomó sistemáticamente la decisión activa de bombardear a presuntos militantes cuando se encontraban en el interior de hogares civiles desde los que no se realizaba ninguna actividad militar. Esta elección, dijeron, era un reflejo de la forma en que está diseñado el sistema israelí de vigilancia masiva en Gaza.
Las fuentes dijeron a +972 y a Local Call que, dado que todo el mundo en Gaza tenía una casa particular con la que se le podía asociar, los sistemas de vigilancia del ejército podían “vincular” fácil y automáticamente a los individuos con casas familiares. Para identificar en tiempo real el momento en que los agentes entran en sus casas, se han desarrollado varios programas informáticos automáticos adicionales. Estos programas rastrean a miles de individuos simultáneamente, identifican cuándo están en casa y envían una alerta automática al oficial de objetivos, que marca la casa para bombardearla. Uno de varios de estos softwares de seguimiento, revelado aquí por primera vez, se llama ” Where’s Daddy?”.
“Pones cientos [de objetivos] en el sistema y esperas a ver a quién puedes matar”, dijo una fuente con conocimiento del sistema. “Se llama caza amplia: copias-pegas de las listas que produce el sistema de objetivos”.
La evidencia de esta política también se desprende claramente de los datos: durante el primer mes de la guerra, más de la mitad de las víctimas mortales -6.120 personas- pertenecían a 1.340 familias, muchas de las cuales fueron completamente aniquiladas mientras se encontraban dentro de sus casas, según cifras de la ONU. La proporción de familias enteras bombardeadas en sus casas en la guerra actual es mucho mayor que en la operación israelí de 2014 en Gaza (que anteriormente fue la guerra más mortífera de Israel en la Franja), lo que sugiere aún más la prominencia de esta política.
Otra fuente dijo que cada vez que disminuía el ritmo de los asesinatos, se añadían más objetivos a sistemas con Where’s Daddy? para localizar a las personas que entraban en sus casas y que, por tanto, podían ser bombardeadas. Dijo que la decisión de a quién incluir en los sistemas de seguimiento podía ser tomada por oficiales de rango relativamente bajo en la jerarquía militar.
“Un día, totalmente por mi cuenta, añadí unos 1.200 nuevos objetivos al sistema [de seguimiento], porque el número de ataques [que estábamos llevando a cabo] disminuyó”, dijo la fuente. “Para mí tenía sentido. En retrospectiva, parece una decisión seria que tomé. Y esas decisiones no se tomaban a altos niveles”.
Las fuentes dijeron que en las dos primeras semanas de la guerra se introdujeron inicialmente “varios miles” de objetivos en programas de localización como Where’s Daddy? Entre ellos estaban todos los miembros de la unidad de élite de las fuerzas especiales de Hamás, la Nukhba, todos los operativos antitanque de Hamás y cualquiera que hubiera entrado en Israel el 7 de octubre. Pero al poco tiempo, la lista de asesinados se amplió drásticamente.
“Al final eran todos [los marcados por Lavender]”, explicó una fuente. “Decenas de miles. Esto ocurrió unas semanas más tarde, cuando las brigadas [israelíes] entraron en Gaza, y ya había menos personas no implicadas [es decir, civiles] en las zonas del norte.” Según esta fuente, incluso algunos menores fueron marcados por Lavender como objetivos de los bombardeos. “Normalmente, los operativos tienen más de 17 años, pero esa no era una condición”.
La lavender y sistemas como Where’s Daddy? se combinaron así con efecto mortal, matando a familias enteras, según las fuentes. Al añadir un nombre de las listas generadas por Lavender al sistema de rastreo doméstico Where’s Daddy?, explicó A., la persona marcada quedaba bajo vigilancia permanente y podía ser atacada en cuanto pusiera un pie en su casa, derrumbando la vivienda sobre todos los que estuvieran dentro.
“Digamos que calculas que hay un [agente] de Hamás y 10 [civiles en la casa]”, explicó A.. “Normalmente, estos 10 serán mujeres y niños. Así que, absurdamente, resulta que la mayoría de las personas que mataste eran mujeres y niños”.
PASO 3: ELEGIR UN ARMA
‘Normalmente llevábamos a cabo los ataques con “bombas tontas”‘
Una vez que Lavender ha marcado un objetivo para asesinarlo, el personal del ejército ha verificado que se trata de un hombre y el software de rastreo ha localizado al objetivo en su casa, la siguiente etapa es elegir la munición con la que bombardearlo.
En diciembre de 2023, la CNN informó de que, según estimaciones de los servicios de inteligencia estadounidenses, alrededor del 45% de las municiones utilizadas por las fuerzas aéreas israelíes en Gaza eran bombas “tontas”, que se sabe que causan más daños colaterales que las bombas guiadas. En respuesta al informe de la CNN, un portavoz del ejército citado en el artículo dijo: “Como militares comprometidos con el derecho internacional y con un código moral de conducta, estamos dedicando ingentes recursos a minimizar los daños a los civiles a los que Hamás ha obligado a desempeñar el papel de escudos humanos. Nuestra guerra es contra Hamás, no contra la población de Gaza”.
Sin embargo, tres fuentes de inteligencia declararon a +972 y a Local Call que los agentes subalternos marcados por Lavender sólo eran asesinados con bombas tontas, en aras de ahorrar armamento más caro. La implicación, explicó una fuente, era que el ejército no atacaría a un objetivo junior si vivía en un edificio alto, porque el ejército no quería gastar una “bomba de piso” más precisa y cara (con un efecto colateral más limitado) para matarlo. Pero si un objetivo subalterno vivía en un edificio de pocas plantas, el ejército estaba autorizado a matarlo a él y a todos los que estuvieran en el edificio con una bomba tonta.
“Fue así con todos los objetivos menores”, testificó C., que utilizó varios programas automatizados en la guerra actual. “La única pregunta era: ¿es posible atacar el edificio en términos de daños colaterales? Porque normalmente realizábamos los ataques con bombas tontas, y eso significaba destruir literalmente toda la casa encima de sus ocupantes. Pero incluso si se evita un ataque, no te importa: pasas inmediatamente al siguiente objetivo. Debido al sistema, los objetivos nunca terminan. Tienes otros 36.000 esperando”.
PASO 4: AUTORIZAR LAS BAJAS CIVILES
‘Atacamos casi sin tener en cuenta los daños colaterales’
Una fuente afirmó que cuando se atacaba a operativos subalternos, incluidos los marcados por sistemas de IA como Lavender, el número de civiles que se les permitía matar junto a cada objetivo se fijó durante las primeras semanas de la guerra en hasta 20. Otra fuente afirmó que el número fijado era de hasta 15. Estos “grados de daños colaterales”, como los denominan los militares, se aplicaban de forma generalizada a todos los presuntos militantes subalternos, dijeron las fuentes, independientemente de su rango, importancia militar y edad, y sin un examen específico caso por caso para sopesar la ventaja militar de asesinarlos frente al daño esperado a los civiles.
Según A., que fue oficial en una sala de operaciones de objetivos en la guerra actual, el departamento de derecho internacional del ejército nunca antes había dado una “aprobación tan amplia” para un grado tan alto de daños colaterales. “No es sólo que puedas matar a cualquier persona que sea soldado de Hamás, lo cual está claramente permitido y es legítimo en términos de derecho internacional”, dijo A.. “Sino que directamente te dicen: ‘Estáis autorizados a matarlos junto con muchos civiles'”.
“Cada persona que haya llevado un uniforme de Hamás en los últimos uno o dos años podría ser bombardeada con 20 [civiles muertos como] daños colaterales, incluso sin un permiso especial”, continuó A.. “En la práctica, el principio de proporcionalidad no existía”.
Según A., esta fue la política durante la mayor parte del tiempo que sirvió. Sólo más tarde los militares rebajaron el grado de daños colaterales. “En este cálculo, también podían ser 20 niños para un operativo subalterno… Realmente no era así en el pasado”, explicó A.. Preguntado por los motivos de seguridad de esta política, A. respondió: “Letalidad”.
El grado predeterminado y fijo de daños colaterales ayudó a acelerar la creación masiva de objetivos utilizando la máquina Lavender, dijeron las fuentes, porque ahorraba tiempo. B. afirmó que el número de civiles que se les permitió matar en la primera semana de la guerra por cada presunto militante subalterno marcado por la IA fue de quince, pero que esta cifra “subió y bajó” con el tiempo.
“Al principio atacábamos casi sin tener en cuenta los daños colaterales”, dijo B. sobre la primera semana después del 7 de octubre. “En la práctica, no se contaba realmente a la gente [en cada casa bombardeada], porque no se podía saber si estaban en casa o no”. Al cabo de una semana, empezaron las restricciones por daños colaterales. El número bajó [de 15] a cinco, lo que nos dificultó mucho los ataques, porque si toda la familia estaba en casa, no podíamos bombardearla. Luego volvieron a subir el número”.
‘Sabíamos que mataríamos a más de 100 civiles’
Las fuentes dijeron a +972 y Local Call que ahora, en parte debido a la presión estadounidense, el ejército israelí ya no está generando en masa objetivos humanos menores para bombardear en casas de civiles. El hecho de que la mayoría de las viviendas de la Franja de Gaza ya estuvieran destruidas o dañadas, y de que casi toda la población haya sido desplazada, también mermó la capacidad del ejército para confiar en las bases de datos de inteligencia y en los programas automatizados de localización de viviendas.
E. afirmó que el bombardeo masivo de militantes subalternos sólo tuvo lugar en la primera o segunda semana de la guerra, y luego se detuvo principalmente para no desperdiciar bombas. “Hay una economía de municiones”, dijo E.. “Siempre tuvieron miedo de que hubiera [una guerra] en la zona norte [con Hezbolá en Líbano]. Ya no atacan a este tipo de [subalternos]”.
Sin embargo, los ataques aéreos contra comandantes de alto rango de Hamás siguen en curso, y las fuentes dijeron que para estos ataques, los militares están autorizando el asesinato de “cientos” de civiles por objetivo – una política oficial para la que no hay precedentes históricos en Israel, o incluso en las recientes operaciones militares de Estados Unidos.
“En el bombardeo contra el comandante del Batallón Shuja’iya, sabíamos que mataríamos a más de 100 civiles”, recordó B. sobre un bombardeo del 2 de diciembre que, según el portavoz de las FDI, tenía como objetivo asesinar a Wisam Farhat. “Para mí, psicológicamente, fue inusual. Más de 100 civiles: cruza alguna línea roja”.
Amjad Al-Sheikh, un joven palestino de Gaza, dijo que muchos miembros de su familia murieron en ese bombardeo. Residente en Shuja’iya, al este de la ciudad de Gaza, se encontraba ese día en un supermercado local cuando oyó cinco explosiones que hicieron añicos las ventanas de cristal.
“Corrí a casa de mi familia, pero allí ya no había edificios”, declaró Al-Sheikh a +972 y Local Call. “La calle se llenó de gritos y humo. Bloques residenciales enteros se convirtieron en montañas de escombros y pozos profundos. La gente empezó a buscar en el cemento, usando las manos, y yo también, buscando señales de la casa de mi familia”.
La esposa y la hija pequeña de Al-Sheikh sobrevivieron -protegidas de los escombros por un armario que les cayó encima-, pero encontró a otros 11 miembros de su familia, entre ellos sus hermanas, hermanos e hijos pequeños, muertos bajo los escombros. Según el grupo de derechos humanos B’Tselem, el bombardeo de aquel día destruyó decenas de edificios, mató a docenas de personas y sepultó a cientos bajo las ruinas de sus casas.
Familias enteras asesinadas
Fuentes de inteligencia dijeron a +972 y Local Call que participaron en ataques aún más mortíferos. Con el fin de asesinar a Ayman Nofal, comandante de la Brigada Central de Gaza de Hamás, una fuente declaró que el ejército autorizó la muerte de unos 300 civiles y la destrucción de varios edificios en ataques aéreos contra el campo de refugiados de Al-Bureij el 17 de octubre, basándose en una localización imprecisa de Nofal. Imágenes de satélite y vídeos del lugar de los hechos muestran la destrucción de varios grandes edificios de apartamentos de varias plantas.
“El ataque destruyó entre 16 y 18 casas”, declaró Amro Al-Khatib, residente del campo, a +972 y Local Call. “No podíamos distinguir un apartamento de otro: todos quedaron mezclados entre los escombros, y encontramos partes de cuerpos humanos por todas partes”.
Después, Al-Jatib recordó que sacaron unos 50 cadáveres de entre los escombros y unas 200 personas heridas, muchas de ellas de gravedad. Pero eso fue sólo el primer día. Los residentes del campo pasaron cinco días sacando a los muertos y heridos, dijo.
Nael Al-Bahisi, paramédico, fue uno de los primeros en llegar al lugar de los hechos. Contó entre 50 y 70 víctimas ese primer día. “En un momento determinado, comprendimos que el objetivo del ataque era el comandante de Hamás Ayman Nofal”, declaró a +972 y Local Call. “Lo mataron, y también a mucha gente que no sabía que estaba allí. Mataron a familias enteras con niños”.
Otra fuente de inteligencia declaró a +972 y a Local Call que el ejército destruyó un rascacielos en Rafah a mediados de diciembre, matando a “docenas de civiles”, para intentar matar a Mohammed Shabaneh, comandante de la Brigada Rafah de Hamás (no está claro si murió o no en el ataque). A menudo, dijo la fuente, los altos mandos se esconden en túneles que pasan por debajo de edificios civiles, por lo que la opción de asesinarlos con un ataque aéreo mata necesariamente a civiles.
“La mayoría de los heridos eran niños”, declaró Wael Al-Sir, de 55 años, que presenció el ataque a gran escala que algunos habitantes de Gaza consideran el intento de asesinato. Dijo a +972 y Local Call que el bombardeo del 20 de diciembre destruyó un “bloque residencial entero” y mató al menos a 10 niños.
“Había una política completamente permisiva con respecto a las víctimas de las operaciones [de bombardeo], tan permisiva que, en mi opinión, tenía un elemento de venganza”, afirmó D., una fuente de inteligencia. “El núcleo de esto eran los asesinatos de altos mandos [de Hamás y de la PIJ] por los que estaban dispuestos a matar a cientos de civiles. Teníamos un cálculo: cuántos por un comandante de brigada, cuántos por un comandante de batallón, y así sucesivamente”.
“Había normas, pero eran muy indulgentes”, dijo E., otra fuente de inteligencia. “Hemos matado a gente con daños colaterales de dos dígitos altos, si no de tres dígitos bajos. Son cosas que no habían ocurrido antes”.
Un índice tan elevado de “daños colaterales” es excepcional no sólo en comparación con lo que el ejército israelí consideraba aceptable anteriormente, sino también en comparación con las guerras libradas por Estados Unidos en Irak, Siria y Afganistán.
El general Peter Gersten, subcomandante de Operaciones e Inteligencia en la operación de lucha contra el ISIS en Irak y Siria, declaró en 2021 a una revista de defensa estadounidense que un ataque con daños colaterales de 15 civiles se desviaba del procedimiento; para llevarlo a cabo, tuvo que obtener un permiso especial del jefe del Mando Central de Estados Unidos, el general Lloyd Austin, que ahora es secretario de Defensa.
“En el caso de Osama Bin Laden, el valor de las bajas no combatientes (VNC) era de 30, pero si se trataba de un comandante de bajo rango, su VNC solía ser cero”, explica Gersten. “Manejamos cero durante mucho tiempo”.
Nos decían: “Todo lo que podáis, bombardead”‘
Todas las fuentes entrevistadas para esta investigación dijeron que las masacres de Hamás del 7 de octubre y el secuestro de rehenes influyeron mucho en la política de fuego del ejército y en los grados de daños colaterales. “Al principio, el ambiente era doloroso y vengativo”, dijo B., que fue reclutado por el ejército inmediatamente después del 7 de octubre y sirvió en una sala de operaciones de objetivos. “Las normas eran muy indulgentes. Derribaban cuatro edificios cuando sabían que el objetivo estaba en uno de ellos. Era una locura.
“Había una disonancia: por un lado, la gente aquí estaba frustrada porque no atacábamos lo suficiente”, continúa B. “Por otro lado, al final del día ves que han muerto otros mil gazatíes, la mayoría civiles”.
“Había histeria en las filas profesionales”, dijo D., que también fue reclutado inmediatamente después del 7 de octubre. “No tenían ni idea de cómo reaccionar. Lo único que sabían hacer era empezar a bombardear como locos para intentar desmantelar las capacidades de Hamás.”
El ministro de Defensa Yoav Gallant habla con soldados israelíes en una zona de reagrupamiento no lejos de la valla de Gaza, 19 de octubre de 2023. (Chaim Goldberg/Flash90)
D. subrayó que no se les dijo explícitamente que el objetivo del ejército era la “venganza”, pero expresó que “tan pronto como cada objetivo relacionado con Hamás se convierta en legítimo, y se apruebe casi cualquier daño colateral, está claro que van a morir miles de personas. Aunque oficialmente todos los objetivos estén relacionados con Hamás, cuando la política es tan permisiva, pierde todo su sentido”.
A. también utilizó la palabra “venganza” para describir el ambiente dentro del ejército después del 7 de octubre. “Nadie pensó en qué hacer después, cuando acabe la guerra, ni en cómo será posible vivir en Gaza y qué harán con ella”, dijo A.. “Nos dijeron: ahora hay que joder a Hamás, cueste lo que cueste. Bombardea lo que puedas”.
B., la principal fuente de inteligencia, dijo que, en retrospectiva, cree que esta política “desproporcionada” de matar palestinos en Gaza también pone en peligro a los israelíes, y que ésta fue una de las razones por las que decidió ser entrevistado.
“A corto plazo, estamos más seguros, porque herimos a Hamás. Pero creo que a largo plazo estamos menos seguros. Veo cómo todas las familias desconsoladas de Gaza -que son casi todas- aumentarán la motivación para que [la gente se una] a Hamás dentro de 10 años. Y será mucho más fácil para [Hamás] reclutarlos”.
En una declaración a +972 y Local Call, el ejército israelí negó gran parte de lo que nos dijeron las fuentes, afirmando que “cada objetivo se examina individualmente, mientras que se hace una evaluación individual de la ventaja militar y los daños colaterales esperados del ataque … Las FDI no llevan a cabo ataques cuando los daños colaterales esperados del ataque son excesivos en relación con la ventaja militar.”
PASO 5: CÁLCULO DE LOS DAÑOS COLATERALES
‘El modelo no estaba conectado con la realidad’
Según las fuentes de inteligencia, el cálculo del ejército israelí del número de civiles que se esperaba que murieran en cada casa junto a un objetivo -un procedimiento examinado en una investigación anterior de +972 y Local Call- se llevó a cabo con la ayuda de herramientas automáticas e imprecisas. En guerras anteriores, el personal de inteligencia dedicaba mucho tiempo a verificar cuántas personas había en una casa que iba a ser bombardeada, y el número de civiles susceptibles de morir figuraba en un “archivo de objetivos”. Sin embargo, después del 7 de octubre se abandonó en gran medida esta minuciosa verificación en favor de la automatización.
En octubre, The New York Times informó sobre un sistema operado desde una base especial en el sur de Israel, que recoge información de los teléfonos móviles en la Franja de Gaza y proporcionó a los militares una estimación en vivo del número de palestinos que huyeron del norte de la Franja de Gaza hacia el sur. El general de brigada Udi Ben Muha declaró al Times que “no es un sistema cien por cien perfecto, pero te da la información que necesitas para tomar una decisión”. El sistema funciona por colores: el rojo marca las zonas en las que hay mucha gente, y el verde y el amarillo las zonas relativamente despejadas de residentes.
Las fuentes que hablaron con +972 y Local Call describieron un sistema similar para calcular los daños colaterales, que se utilizaba para decidir si se bombardeaba un edificio en Gaza. Dijeron que el programa informático calculaba el número de civiles que residían en cada casa antes de la guerra -evaluando el tamaño del edificio y revisando su lista de residentes- y luego reducía esas cifras por la proporción de residentes que supuestamente habían evacuado el barrio.
A modo de ejemplo, si el ejército estimaba que la mitad de los residentes de un barrio se habían marchado, el programa contabilizaba una casa que normalmente tenía 10 residentes como una casa con cinco personas. Para ahorrar tiempo, dijeron las fuentes, el ejército no vigiló las casas para comprobar cuántas personas vivían realmente allí, como hizo en operaciones anteriores, para averiguar si la estimación del programa era realmente exacta.
“Este modelo no se ajustaba a la realidad”, afirma una fuente. “No había conexión entre los que estaban en la casa ahora, durante la guerra, y los que figuraban como viviendo allí antes de la guerra. [En una ocasión] bombardeamos una casa sin saber que había varias familias dentro, escondidas juntas”.
La fuente dijo que, aunque el ejército sabía que podían producirse errores de este tipo, se adoptó a pesar de todo este modelo impreciso, porque era más rápido. De este modo, según la fuente, “el cálculo de los daños colaterales era completamente automático y estadístico”, e incluso arrojaba cifras que no eran números enteros.
PASO 6: BOMBARDEAR LA CASA DE UNA FAMILIA
Mataron a una familia sin motivo
Las fuentes que hablaron con +972 y Local Call explicaron que a veces había un intervalo considerable entre el momento en que los sistemas de rastreo como Where’s Daddy? alertaban a un oficial de que un objetivo había entrado en su casa, y el bombardeo en sí -lo que provocaba la muerte de familias enteras incluso sin dar en el blanco del ejército. “Me ha pasado muchas veces que atacamos una casa, pero la persona ni siquiera estaba en casa”, dijo una fuente. “El resultado es que se mata a una familia sin motivo”.
Tres fuentes de los servicios de inteligencia dijeron a +972 y a Local Call que habían sido testigos de un incidente en el que el ejército israelí bombardeó la casa particular de una familia, y más tarde resultó que el objetivo previsto del asesinato ni siquiera estaba dentro de la casa, ya que no se realizó ninguna otra verificación en tiempo real.
“A veces [el objetivo] estaba antes en casa y por la noche se iba a dormir a otro sitio, digamos bajo tierra, y no te enterabas”, dijo una de las fuentes. “Hay veces en las que compruebas dos veces la ubicación, y hay veces en las que simplemente dices: ‘Vale, estuvo en casa en las últimas horas, así que puedes bombardear'”.
Otra fuente describió un incidente similar que le afectó y le hizo querer ser entrevistado para esta investigación. “Teníamos entendido que el objetivo estaba en casa a las 8 p.m. Al final, la fuerza aérea bombardeó la casa a las 3 a.m. Luego descubrimos [en ese lapso de tiempo] que se las había arreglado para mudarse a otra casa con su familia. Había otras dos familias con niños en el edificio que bombardeamos”.
En anteriores guerras en Gaza, tras el asesinato de objetivos humanos, los servicios de inteligencia israelíes llevaban a cabo procedimientos de evaluación de los daños causados por las bombas (BDA), una comprobación rutinaria posterior al ataque para ver si el alto mando había muerto y cuántos civiles lo habían hecho junto con él. Como se reveló en una investigación anterior de +972 y Local Call, esto implicaba escuchar las llamadas telefónicas de los familiares que habían perdido a sus seres queridos. Sin embargo, en la guerra actual, al menos en relación con los militantes de menor rango marcados mediante IA, las fuentes afirman que este procedimiento se suprimió para ahorrar tiempo. Las fuentes dijeron que no sabían cuántos civiles murieron realmente en cada ataque, y en el caso de los presuntos operativos de bajo rango de Hamás y la YIP marcados por IA, ni siquiera sabían si el propio objetivo había muerto.
“No sabes exactamente a cuántos has matado ni a quién has matado”, declaró una fuente de inteligencia a Local Call en una investigación anterior publicada en enero. “Sólo cuando se trata de altos operativos de Hamás se sigue el procedimiento de la BDA. En el resto de los casos, te da igual. Recibes un informe de las fuerzas aéreas sobre si el edificio fue volado, y eso es todo. No tienes ni idea de cuántos daños colaterales hubo; pasas inmediatamente al siguiente objetivo. El énfasis era crear tantos objetivos como fuera posible, tan rápido como fuera posible”.
Pero mientras el ejército israelí puede seguir adelante con cada ataque sin detenerse en el número de víctimas, Amjad Al-Sheikh, el residente de Shuja’iya que perdió a 11 miembros de su familia en el bombardeo del 2 de diciembre, dijo que él y sus vecinos siguen buscando cadáveres.
“Hasta ahora, hay cadáveres bajo los escombros”, dijo. “Catorce edificios residenciales fueron bombardeados con sus residentes dentro. Algunos de mis familiares y vecinos siguen enterrados”.
Traducció: Terra i Llibertat (https://t.me/Terraillibertat )