Inteligencia artificial en el genocidio de Gaza.

Lavender La máquina de IA que dirige los bombardeos israelíes en Gaza
https://www.972mag.com/lavender-ai-israeli-army-gaza/

El ejército israelí ha marcado a decenas de miles de gazatíes como sospechosos de asesinato, utilizando un sistema de selección de objetivos de IA con escasa supervisión humana y una política permisiva con las bajas, revelan los medios independientes israelís +972 y Local Call.

Por Yuval Abraham 3 de abril de 2024

En 2021 se publicó un libro titulado “The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World” fue publicado en inglés bajo el seudónimo “Brigadier General Y.S.”. En él, el autor -un hombre que, según hemos confirmado, es el actual comandante de la unidad de élite de inteligencia israelí 8200- defiende el diseño de una máquina especial que pueda procesar rápidamente cantidades masivas de datos para generar miles de “objetivos” potenciales para ataques militares en el fragor de una guerra. Dicha tecnología, escribe, resolvería lo que describe como un “cuello de botella humano tanto para localizar los nuevos objetivos como para la toma de decisiones para aprobarlos”.
Resulta que esa máquina existe. Una nueva investigación de +972 Magazine y Local Call revela que el ejército israelí ha desarrollado un programa basado en inteligencia artificial conocido como “Lavender”, desvelado aquí por primera vez. Según seis oficiales de inteligencia israelíes, que han servido en el ejército durante la actual guerra en la Franja de Gaza y que han participado de primera mano en el uso de IA para generar objetivos de asesinato, Lavender ha desempeñado un papel central en el bombardeo sin precedentes de palestinos, especialmente durante las primeras fases de la guerra. De hecho, según las fuentes, su influencia en las operaciones militares era tal que esencialmente trataban los resultados de la máquina de IA “como si fuera una decisión humana”.
Formalmente, el sistema Lavender está diseñado para marcar a todos los presuntos operativos de las alas militares de Hamás y la Yihad Islámica Palestina (YIP), incluidos los de bajo rango, como objetivos potenciales de bombardeo. Las fuentes dijeron a +972 y Local Call que, durante las primeras semanas de la guerra, el ejército dependió casi por completo de Lavender, que marcó hasta 37.000 palestinos como presuntos militantes -y sus hogares- para posibles ataques aéreos.
Durante las primeras etapas de la guerra, el ejército dio su aprobación general para que los oficiales adoptaran las listas de asesinatos de Lavender, sin ningún requisito para comprobar a fondo por qué la máquina hizo esas elecciones o para examinar los datos de inteligencia en bruto en los que se basaban. Una fuente declaró que el personal humano a menudo sólo servía de “sello de goma” para las decisiones de la máquina, añadiendo que, normalmente, sólo dedicaban personalmente unos “20 segundos” a cada objetivo antes de autorizar un bombardeo, sólo para asegurarse de que el objetivo marcado por Lavender era un hombre. Y ello a pesar de saber que el sistema comete lo que se consideran “errores” en aproximadamente el 10 por ciento de los casos, y de que se sabe que ocasionalmente marca a personas que sólo tienen una ligera conexión con grupos militantes, o ninguna conexión en absoluto.
Además, el ejército israelí atacaba sistemáticamente a las personas marcadas mientras se encontraban en sus casas -generalmente por la noche, con toda la familia presente- y no en el transcurso de actividades militares. Según las fuentes, esto se debía a que, desde lo que consideraban un punto de vista de inteligencia, era más fácil localizar a las personas en sus domicilios privados. Otros sistemas automatizados, entre ellos uno llamado ” Where’s Daddy?” que también se revela aquí por primera vez, se utilizaban específicamente para localizar a los individuos objetivo y llevar a cabo los atentados cuando habían entrado en las residencias de sus familias.
El resultado, como atestiguaron las fuentes, es que miles de palestinos -la mayoría de ellos mujeres y niños o personas que no participaban en los combates- fueron aniquilados por los ataques aéreos israelíes, especialmente durante las primeras semanas de la guerra, debido a las decisiones del programa de IA.
“No nos interesaba matar a los operativos [de Hamás] sólo cuando estaban en un edificio militar o participaban en una actividad militar”, dijo A., un oficial de inteligencia, a +972 y Local Call. “Al contrario, las IDF los bombardeaban en sus casas sin dudarlo, como primera opción. Es mucho más fácil bombardear la casa de una familia. El sistema está hecho para buscarlos en estas situaciones”.
La máquina Lavender se une a otro sistema de IA, “El Evangelio”, sobre el que se reveló información en una investigación previa de +972 y Local Call en noviembre de 2023, así como en las propias publicaciones del ejército israelí. Una diferencia fundamental entre los dos sistemas radica en la definición del objetivo: mientras que Evangelio marca edificios y estructuras desde los que, según el ejército, operan los militantes, Lavender marca a las personas, y las incluye en una lista negra.
Además, según las fuentes, cuando se trataba de apuntar a supuestos militantes subalternos marcados por Lavender, el ejército prefería utilizar únicamente misiles no guiados, conocidos comúnmente como bombas “tontas” (en contraste con las bombas de precisión “inteligentes”), que pueden destruir edificios enteros encima de sus ocupantes y causar importantes bajas. “No quieres malgastar bombas caras en gente sin importancia; es muy caro para el país y hay escasez [de esas bombas]”, dijo C., uno de los oficiales de inteligencia. Otra fuente dijo que habían autorizado personalmente el bombardeo de “cientos” de domicilios privados de presuntos operativos subalternos marcados por Lavender, y que muchos de estos ataques mataron a civiles y familias enteras como “daños colaterales”.
En una medida sin precedentes, según dos de las fuentes, el ejército decidió también durante las primeras semanas de la guerra que, por cada operativo subalterno de Hamás marcado por Lavender, estaba permitido matar hasta 15 o 20 civiles; en el pasado, el ejército no autorizaba ningún “daño colateral” durante los asesinatos de militantes de bajo rango. Las fuentes añadieron que, en caso de que el objetivo fuera un alto cargo de Hamás con rango de comandante de batallón o brigada, el ejército autorizó en varias ocasiones la muerte de más de 100 civiles en el asesinato de un solo comandante.
La siguiente investigación está organizada según las seis etapas cronológicas de la producción de objetivos altamente automatizada del ejército israelí en las primeras semanas de la guerra de Gaza. En primer lugar, explicamos la propia máquina Lavender, que marcó a decenas de miles de palestinos utilizando IA. En segundo lugar, revelamos el sistema ” Where’s Daddy?”, que rastreaba a estos objetivos y señalaba al ejército cuando entraban en sus casas familiares. En tercer lugar, describimos cómo se eligieron las bombas “tontas” para atacar estos hogares.
En cuarto lugar, explicamos cómo el ejército flexibilizó el número permitido de civiles que podían morir durante el bombardeo de un objetivo. En quinto lugar, señalamos cómo el software automatizado calculó de forma inexacta la cantidad de no combatientes en cada hogar. Y en sexto lugar, mostramos cómo en varias ocasiones, cuando se atacaba una vivienda, normalmente por la noche, el objetivo individual a veces no estaba dentro, porque los oficiales militares no verificaban la información en tiempo real.

PASO 1: GENERACIÓN DE OBJETIVOS

En cuanto se automatiza, la generación de objetivos se vuelve loca

En el ejército israelí, el término “objetivo humano” se refería en el pasado a un alto operativo militar que, según las normas del Departamento de Derecho Internacional del ejército, puede ser asesinado en su domicilio particular aunque haya civiles alrededor. Fuentes de inteligencia dijeron a +972 y a Local Call que durante las guerras anteriores de Israel, dado que ésta era una forma “especialmente brutal” de matar a alguien -a menudo matando a toda una familia junto al objetivo-, esos objetivos humanos se marcaban con mucho cuidado y sólo se bombardeaba a altos mandos militares en sus casas, para mantener el principio de proporcionalidad según el derecho internacional.
Pero después del 7 de octubre -cuando militantes dirigidos por Hamás lanzaron un asalto mortal contra comunidades del sur de Israel, matando a unas 1.200 personas y secuestrando a 240- el ejército, según las fuentes, adoptó un enfoque radicalmente distinto. En el marco de la “Operación Espadas de Hierro”, el ejército decidió designar a todos los operativos del ala militar de Hamás como objetivos humanos, independientemente de su rango o importancia militar. Y eso lo cambió todo.
La nueva política también planteó un problema técnico a la inteligencia israelí. En guerras anteriores, para autorizar el asesinato de un solo objetivo humano, un oficial tenía que pasar por un complejo y largo proceso de “incriminación”: cotejar pruebas de que la persona era efectivamente un miembro de alto rango del ala militar de Hamás, averiguar dónde vivía, su información de contacto y, por último, saber cuándo estaba en casa en tiempo real. Cuando la lista de objetivos sólo contaba con unas pocas docenas de altos cargos, el personal de inteligencia podía encargarse individualmente del trabajo que suponía incriminarlos y localizarlos.
Sin embargo, una vez que la lista se amplió para incluir a decenas de miles de operativos de rango inferior, el ejército israelí se dio cuenta de que tenía que confiar en el software automatizado y la inteligencia artificial. El resultado, testifican las fuentes, fue que se dejó de lado el papel del personal humano en la incriminación de palestinos como operativos militares y, en su lugar, la IA hizo la mayor parte del trabajo. Según cuatro de las fuentes que hablaron con +972 y Local Call, Lavender -que se desarrolló para crear objetivos humanos en la guerra actual- ha marcado a unos 37.000 palestinos como presuntos “militantes de Hamás”, la mayoría de ellos subalternos, para asesinarlos (el portavoz de las FDI negó la existencia de tal lista de asesinatos en una declaración a +972 y Local Call).
“No sabíamos quiénes eran los agentes subalternos porque Israel no les seguía la pista de forma rutinaria [antes de la guerra]”, explicó el oficial superior B. a +972 y Local Call, explicando la razón que subyace tras el desarrollo de esta particular máquina de objetivos para la guerra actual. “Querían permitirnos atacar [a los operativos subalternos] automáticamente. Ese es el Santo Grial. Una vez que te vuelves automático, la generación de objetivos se vuelve loca”.
Las fuentes dijeron que la aprobación para adoptar automáticamente las listas de objetivos de Lavender, que hasta entonces sólo se habían utilizado como herramienta auxiliar, se concedió unas dos semanas después de iniciada la guerra, después de que el personal de inteligencia comprobara “manualmente” la precisión de una muestra aleatoria de varios cientos de objetivos seleccionados por el sistema de IA. Cuando esa muestra determinó que los resultados de Lavender habían alcanzado el 90 por ciento de precisión en la identificación de la afiliación de un individuo a Hamás, el ejército autorizó el uso generalizado del sistema. A partir de ese momento, las fuentes dijeron que si Lavender decidía que un individuo era militante de Hamás, esencialmente se les pedía que lo trataran como una orden, sin ningún requisito de comprobar de forma independiente por qué la máquina había hecho esa elección o de examinar los datos de inteligencia en bruto en los que se basa.
“A las 5 de la mañana, [la fuerza aérea] venía y bombardeaba todas las casas que habíamos marcado”, dijo B.. “Eliminamos a miles de personas. No las revisábamos una por una, sino que lo poníamos todo en sistemas automatizados, y en cuanto una de [las personas marcadas] estaba en casa, se convertía inmediatamente en objetivo. Le bombardeábamos a él y a su casa”.
“Para mí fue muy sorprendente que nos pidieran que bombardeáramos una casa para matar a un soldado de tierra, cuya importancia en los combates era tan baja”, dijo una fuente sobre el uso de IA para marcar a supuestos militantes de bajo rango. “Yo apodaba a esos objetivos ‘objetivos basura’. Aun así, me parecían más éticos que los objetivos que bombardeábamos sólo por ‘disuasión’: rascacielos evacuados y derribados sólo para causar destrucción.”
Los resultados mortales de esta relajación de las restricciones en la primera fase de la guerra fueron asombrosos. Según datos del Ministerio de Sanidad palestino en Gaza, en los que se ha basado casi exclusivamente el ejército israelí desde el comienzo de la guerra, Israel mató a unos 15.000 palestinos -casi la mitad de los muertos hasta el momento- en las seis primeras semanas de la guerra, hasta que se acordó un alto el fuego de una semana el 24 de noviembre.

Cuanta más información y variedad, mejor

El programa Lavender analiza la información recopilada sobre la mayoría de los 2,3 millones de residentes de la Franja de Gaza mediante un sistema de vigilancia masiva y, a continuación, evalúa y clasifica la probabilidad de que cada persona en particular milite en el ala militar de Hamás o la YIP. Según las fuentes, la máquina asigna a casi todas las personas de Gaza una calificación del 1 al 100, que expresa la probabilidad de que sean militantes.
Según explicaron las fuentes, Lavender aprende a identificar las características de los agentes conocidos de Hamás y la YJP, cuya información se introdujo en la máquina como datos de entrenamiento, y luego localiza esas mismas características -también denominadas “rasgos”- entre la población general. Una persona que presente varias características incriminatorias diferentes alcanzará una calificación alta y, por tanto, se convertirá automáticamente en un objetivo potencial de asesinato.
En “The Human-Machine Team”, el libro al que se hace referencia al principio de este artículo, el actual comandante de la Unidad 8200 aboga por un sistema de este tipo sin hacer referencia a Lavender por su nombre. (Tampoco se nombra al propio comandante, pero cinco fuentes de la 8200 confirmaron que el comandante es el autor, según informó también Haaretz). Describiendo al personal humano como un “cuello de botella” que limita la capacidad del ejército durante una operación militar, el comandante se lamenta: “Nosotros [los humanos] no podemos procesar tanta información. No importa cuántas personas tengas encargadas de producir objetivos durante la guerra: seguirás sin poder producir suficientes objetivos al día”.
La solución a este problema, dice, es la inteligencia artificial. El libro ofrece una breve guía para construir una “máquina de objetivos”, similar en su descripción a Lavender, basada en IA y algoritmos de aprendizaje automático. En esta guía se incluyen varios ejemplos de los “cientos y miles” de características que pueden aumentar la calificación de un individuo, como estar en un grupo de Whatsapp con un militante conocido, cambiar de móvil cada pocos meses y cambiar de dirección con frecuencia.
“Cuanta más información y más variada, mejor”, escribe el comandante. “Información visual, información del móvil, conexiones en redes sociales, información del campo de batalla, contactos telefónicos, fotos”. Aunque al principio los humanos seleccionan estas características, prosigue el comandante, con el tiempo la máquina llegará a identificarlas por sí sola. Esto, dice, puede permitir a los ejércitos crear “decenas de miles de objetivos”, mientras que la decisión real sobre si atacarlos o no seguirá siendo humana.
El libro no es la única vez que un alto mando israelí insinúa la existencia de máquinas de objetivos humanos como Lavender. +972 y Local Call han obtenido imágenes de una conferencia privada pronunciada por el comandante del centro secreto de Ciencia de Datos e IA de la Unidad 8200, “Coronel Yoav”, en la semana de la IA de la Universidad de Tel Aviv en 2023, de la que informaron en su momento los medios israelíes.
En la conferencia, el comandante habla de una nueva y sofisticada máquina de objetivos utilizada por el ejército israelí que detecta a “personas peligrosas” basándose en su parecido con las listas existentes de militantes conocidos en las que fue entrenado. “Utilizando el sistema, logramos identificar a comandantes de escuadrones de misiles de Hamás”, dijo el “coronel Yoav” en la conferencia, refiriéndose a la operación militar israelí de mayo de 2021 en Gaza, cuando se utilizó la máquina por primera vez.
Las diapositivas de la presentación de la conferencia, también obtenidas por +972 y Local Call, contienen ilustraciones de cómo funciona la máquina: se le suministran datos sobre los operativos de Hamás existentes, aprende a fijarse en sus características y, a continuación, clasifica a otros palestinos en función de su similitud con los militantes.
Clasificamos los resultados y determinamos el umbral [a partir del cual atacar un objetivo]”, dijo el “coronel Yoav” en la conferencia, subrayando que “al final, las personas de carne y hueso toman las decisiones”. En el ámbito de la defensa, éticamente hablando, ponemos mucho énfasis en esto. Estas herramientas están pensadas para ayudar [a los oficiales de inteligencia] a romper sus barreras”.
En la práctica, sin embargo, fuentes que han utilizado Lavender en los últimos meses afirman que la agencia humana y la precisión fueron sustituidas por la creación masiva de objetivos y la letalidad.

No había una política de “cero errores””.

B., un oficial superior que utilizaba Lavender, se hizo eco ante +972 y Local Call de que, en la guerra actual, los oficiales no estaban obligados a revisar de forma independiente las evaluaciones del sistema de IA, con el fin de ahorrar tiempo y permitir la producción masiva de objetivos humanos sin trabas.
“Todo era estadístico, todo estaba ordenado – era muy seco”, dijo B.. Señaló que esta falta de supervisión se permitió a pesar de que las comprobaciones internas mostraban que los cálculos de Lavender se consideraban precisos sólo el 90 por ciento de las veces; en otras palabras, se sabía de antemano que el 10 por ciento de los objetivos humanos programados para ser asesinados no eran en absoluto miembros del ala militar de Hamás.
Por ejemplo, las fuentes explicaron que la máquina Lavender a veces marcaba erróneamente a personas que tenían patrones de comunicación similares a los de conocidos operativos de Hamás o de la YIP, incluidos trabajadores de la policía y de la defensa civil, familiares de militantes, residentes que casualmente tenían un nombre y un apodo idénticos a los de un operativo y gazatíes que utilizaban un dispositivo que había pertenecido a un operativo de Hamás.
“¿Hasta qué punto tiene que estar una persona cerca de Hamás para que una máquina de inteligencia artificial la considere afiliada a la organización?”, dijo una fuente crítica con la inexactitud de Lavender. “Es un límite impreciso. ¿Una persona que no recibe un salario de Hamás, pero que le ayuda con todo tipo de cosas, es un operativo de Hamás? ¿Es un operativo de Hamás alguien que estuvo en Hamás en el pasado, pero que hoy ya no está allí? Cada uno de estos rasgos -características que una máquina marcaría como sospechosas- es inexacto”.
Problemas similares existen con la capacidad de las máquinas de objetivos para evaluar el teléfono utilizado por un individuo marcado para ser asesinado. “En la guerra, los palestinos cambian de teléfono todo el tiempo”, dijo la fuente. “La gente pierde el contacto con sus familias, dan su teléfono a un amigo o a una esposa, tal vez lo pierden. No hay forma de confiar al cien por cien en el mecanismo automático que determina qué número [de teléfono] pertenece a quién.”
Según las fuentes, el ejército sabía que la mínima supervisión humana existente no descubriría estos fallos. “No había una política de ‘cero errores’. Los errores se trataban estadísticamente”, dijo una fuente que utilizó Lavender. “Debido al alcance y la magnitud, el protocolo era que aunque no se supiera con seguridad que la máquina estaba bien, se sabía que estadísticamente estaba bien. Así que vas a por ella”.
“Se ha demostrado”, dijo B., la fuente principal. “Hay algo en el enfoque estadístico que te fija una cierta norma y estándar. Ha habido una cantidad ilógica de [bombardeos] en esta operación. Esto no tiene parangón, que yo recuerde. Y confío mucho más en un mecanismo estadístico que en un soldado que perdió a un amigo hace dos días. Todo el mundo allí, incluido yo, perdió gente el 7 de octubre. La máquina lo hizo fríamente. Y eso lo hizo más fácil”.
Otra fuente de inteligencia, que defendió la confianza en las listas de asesinatos de sospechosos palestinos generadas por Lavender, argumentó que merecía la pena invertir el tiempo de un oficial de inteligencia sólo para verificar la información si el objetivo era un alto mando de Hamás. “Pero cuando se trata de un militante subalterno, no se quiere invertir tiempo y personal en ello”, dijo. “En la guerra no hay tiempo para incriminar a todos los objetivos. Así que estás dispuesto a asumir el margen de error de usar inteligencia artificial, arriesgarte a daños colaterales y a que mueran civiles, y arriesgarte a atacar por error, y a vivir con ello”.
B. dijo que la razón de esta automatización era el constante impulso de generar más objetivos para asesinar. “En un día sin objetivos [cuyo índice de características fuera suficiente para autorizar un ataque], atacábamos con un umbral más bajo. Nos presionaban constantemente: ‘Traednos más objetivos’. Nos gritaban mucho. Acabamos [matando] a nuestros objetivos muy rápidamente”.
Explicó que al bajar el umbral de calificación de Lavender, marcaba a más personas como objetivos de los ataques. “En su punto álgido, el sistema llegó a generar 37.000 personas como objetivos humanos potenciales”, dijo B. “Pero las cifras cambiaban todo el tiempo, porque depende de dónde pongas el listón de lo que es un operativo de Hamás. Hubo momentos en los que la definición de un operativo de Hamás era más amplia, y entonces la máquina empezó a traernos todo tipo de personal de defensa civil, agentes de policía, sobre los que sería una pena desperdiciar bombas. Ayudan al gobierno de Hamás, pero en realidad no ponen en peligro a los soldados”.
Una fuente que trabajó con el equipo de ciencia de datos militares que entrenó a Lavender dijo que también se introdujeron en la máquina datos recogidos de empleados del Ministerio de Seguridad Interna dirigido por Hamás, a los que no considera militantes. “Me molestó el hecho de que, cuando se entrenó a Lavender, se utilizara el término ‘operativo de Hamás’ de forma poco precisa y se incluyera a personas que eran trabajadores de la defensa civil en el conjunto de datos del entrenamiento”, dijo.
La fuente añadió que incluso si uno cree que estas personas merecen ser asesinadas, el entrenamiento del sistema basado en sus perfiles de comunicación hizo que Lavender tuviera más probabilidades de seleccionar civiles por error cuando sus algoritmos se aplicaron a la población general. “Dado que se trata de un sistema automático que no es manejado manualmente por humanos, el significado de esta decisión es dramático: significa que está incluyendo a muchas personas con un perfil de comunicación civil como objetivos potenciales”.

Sólo comprobamos que el objetivo era un hombre”.

El ejército israelí rechaza rotundamente estas afirmaciones. En una declaración a +972 y Local Call, el portavoz de las IDF negó el uso de inteligencia artificial para incriminar objetivos, diciendo que se trata simplemente de “herramientas auxiliares que ayudan a los oficiales en el proceso de incriminación.” El comunicado proseguía “En cualquier caso, se requiere un examen independiente por parte de un analista [de inteligencia], que verifique que los objetivos identificados son blancos legítimos de ataque, de acuerdo con las condiciones establecidas en las directivas de las FDI y el derecho internacional.”
Sin embargo, las fuentes afirmaron que el único protocolo de supervisión humana que se aplicaba antes de bombardear las casas de los presuntos militantes “menores” marcados por Lavender consistía en realizar una única comprobación: asegurarse de que el objetivo seleccionado por la IA fuera un hombre y no una mujer. En el ejército se partía de la base de que si el objetivo era una mujer, lo más probable era que la máquina hubiera cometido un error, porque no hay mujeres entre las filas de las alas militares de Hamás y la YIP.
“Un ser humano tenía que [verificar el objetivo] durante sólo unos segundos”, dijo B., explicando que esto se convirtió en el protocolo después de darse cuenta de que el sistema Lavender “acertaba” la mayoría de las veces. “Al principio, hacíamos comprobaciones para asegurarnos de que la máquina no se confundía. Pero llegó un momento en que confiamos en el sistema automático y sólo comprobamos que [el objetivo] era un hombre, con eso bastaba. No se tarda mucho en saber si alguien tiene voz de hombre o de mujer”.
Para llevar a cabo la comprobación hombre/mujer, B. afirmó que en la guerra actual, “invertía 20 segundos por cada objetivo en esta fase, y hacía docenas de ellas cada día. Tenía cero valor añadido como humano, aparte de ser un sello de aprobación. Ahorraba mucho tiempo. Si [el operativo] aparecía en el mecanismo automatizado, y yo comprobaba que era un hombre, había permiso para bombardearlo, previo examen de los daños colaterales”.
En la práctica, las fuentes dijeron que esto significaba que para los hombres civiles marcados por error por Lavender, no existía ningún mecanismo de supervisión para detectar el error. Según B., un error común se producía “si el objetivo [de Hamás] daba [su teléfono] a su hijo, a su hermano mayor o a un hombre cualquiera. Esa persona sería bombardeada en su casa con su familia. Esto ocurría a menudo. Estos fueron la mayoría de los errores causados por Lavender”, dijo B.

PASO 2: VINCULACIÓN DE LOS OBJETIVOS A LOS DOMICILIOS FAMILIARES

La mayoría de las personas asesinadas eran mujeres y niños”.

La siguiente etapa en el procedimiento de asesinato del ejército israelí consiste en identificar dónde atacar los objetivos que genera Lavender.
En una declaración a +972 y Local Call, el portavoz de las FDI afirmó en respuesta a este artículo que “Hamás sitúa a sus operativos y activos militares en el corazón de la población civil, utiliza sistemáticamente a la población civil como escudos humanos y lleva a cabo combates desde el interior de estructuras civiles, incluidos lugares sensibles como hospitales, mezquitas, escuelas e instalaciones de la ONU. Las IDF están obligadas y actúan de acuerdo con el derecho internacional, dirigiendo sus ataques únicamente contra objetivos militares y operativos militares”.
Las seis fuentes con las que hablamos se hicieron eco de esto en cierta medida, afirmando que el extenso sistema de túneles de Hamás pasa deliberadamente por debajo de hospitales y escuelas; que los militantes de Hamás utilizan ambulancias para desplazarse; y que innumerables activos militares se han situado cerca de edificios civiles. Las fuentes argumentaron que muchos ataques israelíes matan a civiles como consecuencia de estas tácticas de Hamás, una caracterización que, según advierten los grupos de derechos humanos, elude la responsabilidad de Israel por causar las bajas.
Sin embargo, en contraste con las declaraciones oficiales del ejército israelí, las fuentes explicaron que una de las principales razones del número sin precedentes de víctimas mortales del actual bombardeo israelí es el hecho de que el ejército ha atacado sistemáticamente objetivos en sus domicilios particulares, junto a sus familias -en parte porque era más fácil desde el punto de vista de la inteligencia marcar las casas familiares utilizando sistemas automatizados-.
De hecho, varias fuentes subrayaron que, a diferencia de los numerosos casos de operativos de Hamás que participaban en actividades militares desde zonas civiles, en el caso de los ataques sistemáticos de asesinato, el ejército tomó sistemáticamente la decisión activa de bombardear a presuntos militantes cuando se encontraban en el interior de hogares civiles desde los que no se realizaba ninguna actividad militar. Esta elección, dijeron, era un reflejo de la forma en que está diseñado el sistema israelí de vigilancia masiva en Gaza.
Las fuentes dijeron a +972 y a Local Call que, dado que todo el mundo en Gaza tenía una casa particular con la que se le podía asociar, los sistemas de vigilancia del ejército podían “vincular” fácil y automáticamente a los individuos con casas familiares. Para identificar en tiempo real el momento en que los agentes entran en sus casas, se han desarrollado varios programas informáticos automáticos adicionales. Estos programas rastrean a miles de individuos simultáneamente, identifican cuándo están en casa y envían una alerta automática al oficial de objetivos, que marca la casa para bombardearla. Uno de varios de estos softwares de seguimiento, revelado aquí por primera vez, se llama ” Where’s Daddy?”.
“Pones cientos [de objetivos] en el sistema y esperas a ver a quién puedes matar”, dijo una fuente con conocimiento del sistema. “Se llama caza amplia: copias-pegas de las listas que produce el sistema de objetivos”.
La evidencia de esta política también se desprende claramente de los datos: durante el primer mes de la guerra, más de la mitad de las víctimas mortales -6.120 personas- pertenecían a 1.340 familias, muchas de las cuales fueron completamente aniquiladas mientras se encontraban dentro de sus casas, según cifras de la ONU. La proporción de familias enteras bombardeadas en sus casas en la guerra actual es mucho mayor que en la operación israelí de 2014 en Gaza (que anteriormente fue la guerra más mortífera de Israel en la Franja), lo que sugiere aún más la prominencia de esta política.
Otra fuente dijo que cada vez que disminuía el ritmo de los asesinatos, se añadían más objetivos a sistemas con Where’s Daddy? para localizar a las personas que entraban en sus casas y que, por tanto, podían ser bombardeadas. Dijo que la decisión de a quién incluir en los sistemas de seguimiento podía ser tomada por oficiales de rango relativamente bajo en la jerarquía militar.
“Un día, totalmente por mi cuenta, añadí unos 1.200 nuevos objetivos al sistema [de seguimiento], porque el número de ataques [que estábamos llevando a cabo] disminuyó”, dijo la fuente. “Para mí tenía sentido. En retrospectiva, parece una decisión seria que tomé. Y esas decisiones no se tomaban a altos niveles”.
Las fuentes dijeron que en las dos primeras semanas de la guerra se introdujeron inicialmente “varios miles” de objetivos en programas de localización como Where’s Daddy? Entre ellos estaban todos los miembros de la unidad de élite de las fuerzas especiales de Hamás, la Nukhba, todos los operativos antitanque de Hamás y cualquiera que hubiera entrado en Israel el 7 de octubre. Pero al poco tiempo, la lista de asesinados se amplió drásticamente.
“Al final eran todos [los marcados por Lavender]”, explicó una fuente. “Decenas de miles. Esto ocurrió unas semanas más tarde, cuando las brigadas [israelíes] entraron en Gaza, y ya había menos personas no implicadas [es decir, civiles] en las zonas del norte.” Según esta fuente, incluso algunos menores fueron marcados por Lavender como objetivos de los bombardeos. “Normalmente, los operativos tienen más de 17 años, pero esa no era una condición”.
La lavender y sistemas como Where’s Daddy? se combinaron así con efecto mortal, matando a familias enteras, según las fuentes. Al añadir un nombre de las listas generadas por Lavender al sistema de rastreo doméstico Where’s Daddy?, explicó A., la persona marcada quedaba bajo vigilancia permanente y podía ser atacada en cuanto pusiera un pie en su casa, derrumbando la vivienda sobre todos los que estuvieran dentro.
“Digamos que calculas que hay un [agente] de Hamás y 10 [civiles en la casa]”, explicó A.. “Normalmente, estos 10 serán mujeres y niños. Así que, absurdamente, resulta que la mayoría de las personas que mataste eran mujeres y niños”.

PASO 3: ELEGIR UN ARMA

‘Normalmente llevábamos a cabo los ataques con “bombas tontas”‘

Una vez que Lavender ha marcado un objetivo para asesinarlo, el personal del ejército ha verificado que se trata de un hombre y el software de rastreo ha localizado al objetivo en su casa, la siguiente etapa es elegir la munición con la que bombardearlo.
En diciembre de 2023, la CNN informó de que, según estimaciones de los servicios de inteligencia estadounidenses, alrededor del 45% de las municiones utilizadas por las fuerzas aéreas israelíes en Gaza eran bombas “tontas”, que se sabe que causan más daños colaterales que las bombas guiadas. En respuesta al informe de la CNN, un portavoz del ejército citado en el artículo dijo: “Como militares comprometidos con el derecho internacional y con un código moral de conducta, estamos dedicando ingentes recursos a minimizar los daños a los civiles a los que Hamás ha obligado a desempeñar el papel de escudos humanos. Nuestra guerra es contra Hamás, no contra la población de Gaza”.
Sin embargo, tres fuentes de inteligencia declararon a +972 y a Local Call que los agentes subalternos marcados por Lavender sólo eran asesinados con bombas tontas, en aras de ahorrar armamento más caro. La implicación, explicó una fuente, era que el ejército no atacaría a un objetivo junior si vivía en un edificio alto, porque el ejército no quería gastar una “bomba de piso” más precisa y cara (con un efecto colateral más limitado) para matarlo. Pero si un objetivo subalterno vivía en un edificio de pocas plantas, el ejército estaba autorizado a matarlo a él y a todos los que estuvieran en el edificio con una bomba tonta.
“Fue así con todos los objetivos menores”, testificó C., que utilizó varios programas automatizados en la guerra actual. “La única pregunta era: ¿es posible atacar el edificio en términos de daños colaterales? Porque normalmente realizábamos los ataques con bombas tontas, y eso significaba destruir literalmente toda la casa encima de sus ocupantes. Pero incluso si se evita un ataque, no te importa: pasas inmediatamente al siguiente objetivo. Debido al sistema, los objetivos nunca terminan. Tienes otros 36.000 esperando”.

PASO 4: AUTORIZAR LAS BAJAS CIVILES

‘Atacamos casi sin tener en cuenta los daños colaterales’

Una fuente afirmó que cuando se atacaba a operativos subalternos, incluidos los marcados por sistemas de IA como Lavender, el número de civiles que se les permitía matar junto a cada objetivo se fijó durante las primeras semanas de la guerra en hasta 20. Otra fuente afirmó que el número fijado era de hasta 15. Estos “grados de daños colaterales”, como los denominan los militares, se aplicaban de forma generalizada a todos los presuntos militantes subalternos, dijeron las fuentes, independientemente de su rango, importancia militar y edad, y sin un examen específico caso por caso para sopesar la ventaja militar de asesinarlos frente al daño esperado a los civiles.
Según A., que fue oficial en una sala de operaciones de objetivos en la guerra actual, el departamento de derecho internacional del ejército nunca antes había dado una “aprobación tan amplia” para un grado tan alto de daños colaterales. “No es sólo que puedas matar a cualquier persona que sea soldado de Hamás, lo cual está claramente permitido y es legítimo en términos de derecho internacional”, dijo A.. “Sino que directamente te dicen: ‘Estáis autorizados a matarlos junto con muchos civiles'”.
“Cada persona que haya llevado un uniforme de Hamás en los últimos uno o dos años podría ser bombardeada con 20 [civiles muertos como] daños colaterales, incluso sin un permiso especial”, continuó A.. “En la práctica, el principio de proporcionalidad no existía”.
Según A., esta fue la política durante la mayor parte del tiempo que sirvió. Sólo más tarde los militares rebajaron el grado de daños colaterales. “En este cálculo, también podían ser 20 niños para un operativo subalterno… Realmente no era así en el pasado”, explicó A.. Preguntado por los motivos de seguridad de esta política, A. respondió: “Letalidad”.
El grado predeterminado y fijo de daños colaterales ayudó a acelerar la creación masiva de objetivos utilizando la máquina Lavender, dijeron las fuentes, porque ahorraba tiempo. B. afirmó que el número de civiles que se les permitió matar en la primera semana de la guerra por cada presunto militante subalterno marcado por la IA fue de quince, pero que esta cifra “subió y bajó” con el tiempo.
“Al principio atacábamos casi sin tener en cuenta los daños colaterales”, dijo B. sobre la primera semana después del 7 de octubre. “En la práctica, no se contaba realmente a la gente [en cada casa bombardeada], porque no se podía saber si estaban en casa o no”. Al cabo de una semana, empezaron las restricciones por daños colaterales. El número bajó [de 15] a cinco, lo que nos dificultó mucho los ataques, porque si toda la familia estaba en casa, no podíamos bombardearla. Luego volvieron a subir el número”.

‘Sabíamos que mataríamos a más de 100 civiles’

Las fuentes dijeron a +972 y Local Call que ahora, en parte debido a la presión estadounidense, el ejército israelí ya no está generando en masa objetivos humanos menores para bombardear en casas de civiles. El hecho de que la mayoría de las viviendas de la Franja de Gaza ya estuvieran destruidas o dañadas, y de que casi toda la población haya sido desplazada, también mermó la capacidad del ejército para confiar en las bases de datos de inteligencia y en los programas automatizados de localización de viviendas.
E. afirmó que el bombardeo masivo de militantes subalternos sólo tuvo lugar en la primera o segunda semana de la guerra, y luego se detuvo principalmente para no desperdiciar bombas. “Hay una economía de municiones”, dijo E.. “Siempre tuvieron miedo de que hubiera [una guerra] en la zona norte [con Hezbolá en Líbano]. Ya no atacan a este tipo de [subalternos]”.
Sin embargo, los ataques aéreos contra comandantes de alto rango de Hamás siguen en curso, y las fuentes dijeron que para estos ataques, los militares están autorizando el asesinato de “cientos” de civiles por objetivo – una política oficial para la que no hay precedentes históricos en Israel, o incluso en las recientes operaciones militares de Estados Unidos.
“En el bombardeo contra el comandante del Batallón Shuja’iya, sabíamos que mataríamos a más de 100 civiles”, recordó B. sobre un bombardeo del 2 de diciembre que, según el portavoz de las FDI, tenía como objetivo asesinar a Wisam Farhat. “Para mí, psicológicamente, fue inusual. Más de 100 civiles: cruza alguna línea roja”.
Amjad Al-Sheikh, un joven palestino de Gaza, dijo que muchos miembros de su familia murieron en ese bombardeo. Residente en Shuja’iya, al este de la ciudad de Gaza, se encontraba ese día en un supermercado local cuando oyó cinco explosiones que hicieron añicos las ventanas de cristal.
“Corrí a casa de mi familia, pero allí ya no había edificios”, declaró Al-Sheikh a +972 y Local Call. “La calle se llenó de gritos y humo. Bloques residenciales enteros se convirtieron en montañas de escombros y pozos profundos. La gente empezó a buscar en el cemento, usando las manos, y yo también, buscando señales de la casa de mi familia”.
La esposa y la hija pequeña de Al-Sheikh sobrevivieron -protegidas de los escombros por un armario que les cayó encima-, pero encontró a otros 11 miembros de su familia, entre ellos sus hermanas, hermanos e hijos pequeños, muertos bajo los escombros. Según el grupo de derechos humanos B’Tselem, el bombardeo de aquel día destruyó decenas de edificios, mató a docenas de personas y sepultó a cientos bajo las ruinas de sus casas.

Familias enteras asesinadas

Fuentes de inteligencia dijeron a +972 y Local Call que participaron en ataques aún más mortíferos. Con el fin de asesinar a Ayman Nofal, comandante de la Brigada Central de Gaza de Hamás, una fuente declaró que el ejército autorizó la muerte de unos 300 civiles y la destrucción de varios edificios en ataques aéreos contra el campo de refugiados de Al-Bureij el 17 de octubre, basándose en una localización imprecisa de Nofal. Imágenes de satélite y vídeos del lugar de los hechos muestran la destrucción de varios grandes edificios de apartamentos de varias plantas.
“El ataque destruyó entre 16 y 18 casas”, declaró Amro Al-Khatib, residente del campo, a +972 y Local Call. “No podíamos distinguir un apartamento de otro: todos quedaron mezclados entre los escombros, y encontramos partes de cuerpos humanos por todas partes”.
Después, Al-Jatib recordó que sacaron unos 50 cadáveres de entre los escombros y unas 200 personas heridas, muchas de ellas de gravedad. Pero eso fue sólo el primer día. Los residentes del campo pasaron cinco días sacando a los muertos y heridos, dijo.
Nael Al-Bahisi, paramédico, fue uno de los primeros en llegar al lugar de los hechos. Contó entre 50 y 70 víctimas ese primer día. “En un momento determinado, comprendimos que el objetivo del ataque era el comandante de Hamás Ayman Nofal”, declaró a +972 y Local Call. “Lo mataron, y también a mucha gente que no sabía que estaba allí. Mataron a familias enteras con niños”.
Otra fuente de inteligencia declaró a +972 y a Local Call que el ejército destruyó un rascacielos en Rafah a mediados de diciembre, matando a “docenas de civiles”, para intentar matar a Mohammed Shabaneh, comandante de la Brigada Rafah de Hamás (no está claro si murió o no en el ataque). A menudo, dijo la fuente, los altos mandos se esconden en túneles que pasan por debajo de edificios civiles, por lo que la opción de asesinarlos con un ataque aéreo mata necesariamente a civiles.
“La mayoría de los heridos eran niños”, declaró Wael Al-Sir, de 55 años, que presenció el ataque a gran escala que algunos habitantes de Gaza consideran el intento de asesinato. Dijo a +972 y Local Call que el bombardeo del 20 de diciembre destruyó un “bloque residencial entero” y mató al menos a 10 niños.
“Había una política completamente permisiva con respecto a las víctimas de las operaciones [de bombardeo], tan permisiva que, en mi opinión, tenía un elemento de venganza”, afirmó D., una fuente de inteligencia. “El núcleo de esto eran los asesinatos de altos mandos [de Hamás y de la PIJ] por los que estaban dispuestos a matar a cientos de civiles. Teníamos un cálculo: cuántos por un comandante de brigada, cuántos por un comandante de batallón, y así sucesivamente”.
“Había normas, pero eran muy indulgentes”, dijo E., otra fuente de inteligencia. “Hemos matado a gente con daños colaterales de dos dígitos altos, si no de tres dígitos bajos. Son cosas que no habían ocurrido antes”.
Un índice tan elevado de “daños colaterales” es excepcional no sólo en comparación con lo que el ejército israelí consideraba aceptable anteriormente, sino también en comparación con las guerras libradas por Estados Unidos en Irak, Siria y Afganistán.
El general Peter Gersten, subcomandante de Operaciones e Inteligencia en la operación de lucha contra el ISIS en Irak y Siria, declaró en 2021 a una revista de defensa estadounidense que un ataque con daños colaterales de 15 civiles se desviaba del procedimiento; para llevarlo a cabo, tuvo que obtener un permiso especial del jefe del Mando Central de Estados Unidos, el general Lloyd Austin, que ahora es secretario de Defensa.
“En el caso de Osama Bin Laden, el valor de las bajas no combatientes (VNC) era de 30, pero si se trataba de un comandante de bajo rango, su VNC solía ser cero”, explica Gersten. “Manejamos cero durante mucho tiempo”.

Nos decían: “Todo lo que podáis, bombardead”‘

Todas las fuentes entrevistadas para esta investigación dijeron que las masacres de Hamás del 7 de octubre y el secuestro de rehenes influyeron mucho en la política de fuego del ejército y en los grados de daños colaterales. “Al principio, el ambiente era doloroso y vengativo”, dijo B., que fue reclutado por el ejército inmediatamente después del 7 de octubre y sirvió en una sala de operaciones de objetivos. “Las normas eran muy indulgentes. Derribaban cuatro edificios cuando sabían que el objetivo estaba en uno de ellos. Era una locura.
“Había una disonancia: por un lado, la gente aquí estaba frustrada porque no atacábamos lo suficiente”, continúa B. “Por otro lado, al final del día ves que han muerto otros mil gazatíes, la mayoría civiles”.
“Había histeria en las filas profesionales”, dijo D., que también fue reclutado inmediatamente después del 7 de octubre. “No tenían ni idea de cómo reaccionar. Lo único que sabían hacer era empezar a bombardear como locos para intentar desmantelar las capacidades de Hamás.”
El ministro de Defensa Yoav Gallant habla con soldados israelíes en una zona de reagrupamiento no lejos de la valla de Gaza, 19 de octubre de 2023. (Chaim Goldberg/Flash90)
D. subrayó que no se les dijo explícitamente que el objetivo del ejército era la “venganza”, pero expresó que “tan pronto como cada objetivo relacionado con Hamás se convierta en legítimo, y se apruebe casi cualquier daño colateral, está claro que van a morir miles de personas. Aunque oficialmente todos los objetivos estén relacionados con Hamás, cuando la política es tan permisiva, pierde todo su sentido”.
A. también utilizó la palabra “venganza” para describir el ambiente dentro del ejército después del 7 de octubre. “Nadie pensó en qué hacer después, cuando acabe la guerra, ni en cómo será posible vivir en Gaza y qué harán con ella”, dijo A.. “Nos dijeron: ahora hay que joder a Hamás, cueste lo que cueste. Bombardea lo que puedas”.
B., la principal fuente de inteligencia, dijo que, en retrospectiva, cree que esta política “desproporcionada” de matar palestinos en Gaza también pone en peligro a los israelíes, y que ésta fue una de las razones por las que decidió ser entrevistado.
“A corto plazo, estamos más seguros, porque herimos a Hamás. Pero creo que a largo plazo estamos menos seguros. Veo cómo todas las familias desconsoladas de Gaza -que son casi todas- aumentarán la motivación para que [la gente se una] a Hamás dentro de 10 años. Y será mucho más fácil para [Hamás] reclutarlos”.
En una declaración a +972 y Local Call, el ejército israelí negó gran parte de lo que nos dijeron las fuentes, afirmando que “cada objetivo se examina individualmente, mientras que se hace una evaluación individual de la ventaja militar y los daños colaterales esperados del ataque … Las FDI no llevan a cabo ataques cuando los daños colaterales esperados del ataque son excesivos en relación con la ventaja militar.”

PASO 5: CÁLCULO DE LOS DAÑOS COLATERALES

‘El modelo no estaba conectado con la realidad’

Según las fuentes de inteligencia, el cálculo del ejército israelí del número de civiles que se esperaba que murieran en cada casa junto a un objetivo -un procedimiento examinado en una investigación anterior de +972 y Local Call- se llevó a cabo con la ayuda de herramientas automáticas e imprecisas. En guerras anteriores, el personal de inteligencia dedicaba mucho tiempo a verificar cuántas personas había en una casa que iba a ser bombardeada, y el número de civiles susceptibles de morir figuraba en un “archivo de objetivos”. Sin embargo, después del 7 de octubre se abandonó en gran medida esta minuciosa verificación en favor de la automatización.
En octubre, The New York Times informó sobre un sistema operado desde una base especial en el sur de Israel, que recoge información de los teléfonos móviles en la Franja de Gaza y proporcionó a los militares una estimación en vivo del número de palestinos que huyeron del norte de la Franja de Gaza hacia el sur. El general de brigada Udi Ben Muha declaró al Times que “no es un sistema cien por cien perfecto, pero te da la información que necesitas para tomar una decisión”. El sistema funciona por colores: el rojo marca las zonas en las que hay mucha gente, y el verde y el amarillo las zonas relativamente despejadas de residentes.
Las fuentes que hablaron con +972 y Local Call describieron un sistema similar para calcular los daños colaterales, que se utilizaba para decidir si se bombardeaba un edificio en Gaza. Dijeron que el programa informático calculaba el número de civiles que residían en cada casa antes de la guerra -evaluando el tamaño del edificio y revisando su lista de residentes- y luego reducía esas cifras por la proporción de residentes que supuestamente habían evacuado el barrio.
A modo de ejemplo, si el ejército estimaba que la mitad de los residentes de un barrio se habían marchado, el programa contabilizaba una casa que normalmente tenía 10 residentes como una casa con cinco personas. Para ahorrar tiempo, dijeron las fuentes, el ejército no vigiló las casas para comprobar cuántas personas vivían realmente allí, como hizo en operaciones anteriores, para averiguar si la estimación del programa era realmente exacta.
“Este modelo no se ajustaba a la realidad”, afirma una fuente. “No había conexión entre los que estaban en la casa ahora, durante la guerra, y los que figuraban como viviendo allí antes de la guerra. [En una ocasión] bombardeamos una casa sin saber que había varias familias dentro, escondidas juntas”.
La fuente dijo que, aunque el ejército sabía que podían producirse errores de este tipo, se adoptó a pesar de todo este modelo impreciso, porque era más rápido. De este modo, según la fuente, “el cálculo de los daños colaterales era completamente automático y estadístico”, e incluso arrojaba cifras que no eran números enteros.

PASO 6: BOMBARDEAR LA CASA DE UNA FAMILIA

Mataron a una familia sin motivo

Las fuentes que hablaron con +972 y Local Call explicaron que a veces había un intervalo considerable entre el momento en que los sistemas de rastreo como Where’s Daddy? alertaban a un oficial de que un objetivo había entrado en su casa, y el bombardeo en sí -lo que provocaba la muerte de familias enteras incluso sin dar en el blanco del ejército. “Me ha pasado muchas veces que atacamos una casa, pero la persona ni siquiera estaba en casa”, dijo una fuente. “El resultado es que se mata a una familia sin motivo”.
Tres fuentes de los servicios de inteligencia dijeron a +972 y a Local Call que habían sido testigos de un incidente en el que el ejército israelí bombardeó la casa particular de una familia, y más tarde resultó que el objetivo previsto del asesinato ni siquiera estaba dentro de la casa, ya que no se realizó ninguna otra verificación en tiempo real.
“A veces [el objetivo] estaba antes en casa y por la noche se iba a dormir a otro sitio, digamos bajo tierra, y no te enterabas”, dijo una de las fuentes. “Hay veces en las que compruebas dos veces la ubicación, y hay veces en las que simplemente dices: ‘Vale, estuvo en casa en las últimas horas, así que puedes bombardear'”.
Otra fuente describió un incidente similar que le afectó y le hizo querer ser entrevistado para esta investigación. “Teníamos entendido que el objetivo estaba en casa a las 8 p.m. Al final, la fuerza aérea bombardeó la casa a las 3 a.m. Luego descubrimos [en ese lapso de tiempo] que se las había arreglado para mudarse a otra casa con su familia. Había otras dos familias con niños en el edificio que bombardeamos”.
En anteriores guerras en Gaza, tras el asesinato de objetivos humanos, los servicios de inteligencia israelíes llevaban a cabo procedimientos de evaluación de los daños causados por las bombas (BDA), una comprobación rutinaria posterior al ataque para ver si el alto mando había muerto y cuántos civiles lo habían hecho junto con él. Como se reveló en una investigación anterior de +972 y Local Call, esto implicaba escuchar las llamadas telefónicas de los familiares que habían perdido a sus seres queridos. Sin embargo, en la guerra actual, al menos en relación con los militantes de menor rango marcados mediante IA, las fuentes afirman que este procedimiento se suprimió para ahorrar tiempo. Las fuentes dijeron que no sabían cuántos civiles murieron realmente en cada ataque, y en el caso de los presuntos operativos de bajo rango de Hamás y la YIP marcados por IA, ni siquiera sabían si el propio objetivo había muerto.
“No sabes exactamente a cuántos has matado ni a quién has matado”, declaró una fuente de inteligencia a Local Call en una investigación anterior publicada en enero. “Sólo cuando se trata de altos operativos de Hamás se sigue el procedimiento de la BDA. En el resto de los casos, te da igual. Recibes un informe de las fuerzas aéreas sobre si el edificio fue volado, y eso es todo. No tienes ni idea de cuántos daños colaterales hubo; pasas inmediatamente al siguiente objetivo. El énfasis era crear tantos objetivos como fuera posible, tan rápido como fuera posible”.
Pero mientras el ejército israelí puede seguir adelante con cada ataque sin detenerse en el número de víctimas, Amjad Al-Sheikh, el residente de Shuja’iya que perdió a 11 miembros de su familia en el bombardeo del 2 de diciembre, dijo que él y sus vecinos siguen buscando cadáveres.
“Hasta ahora, hay cadáveres bajo los escombros”, dijo. “Catorce edificios residenciales fueron bombardeados con sus residentes dentro. Algunos de mis familiares y vecinos siguen enterrados”.

Traducció: Terra i Llibertat (https://t.me/Terraillibertat )

La inteligencia artificial no es neutra.

La inteligencia artificial no es neutra: tiene ideología, y no es una ideología buena.

El mito más utilizado por cientifistas y tecnólogos es que toda la ciencia y la tecnología es neutra y que los problemas causados por ellas derivan de su uso. En esencia, solamente son herramientas que proporcionan a los seres humanos la posibilidad de mejorar sus capacidades y de ellos dependen sus usos y sus finalidades. Las herramientas son moralmente neutras y, por tanto, no se las puede juzgar. Es el modelo social quien decide cómo y para qué se van usar, por lo que no son sus promotores quienes deben responder de sus malos usos, sino la sociedad.

Esta idea parte de la base de que el conocimiento científico es un conocimiento puro, neutro y sin ningún tipo de ideología. La ciencia es verdad y, por ello, no puede ser discutida. La tecnología es tan solo la aplicación práctica de este conocimiento.

Esta es la idea dominante actualmente en la sociedad tanto para las personas que apoyan el sistema como para la mayoría de aquellas que quieren cambiar el mundo, ya sea de manera radical o con algunas reformas. Esta manera de ver el mundo conlleva que, cuando una nueva tecnología irrumpe en la realidad de manera disruptiva –como es el caso de la inteligencia artificial–, los debates se centren en las finalidades y se busquen las formas de “resignificar” este nuevo enemigo, en lugar de buscar las formas de combatirlo.

La Encyclopædia Britannica define la ideología como una forma de filosofía social o política en la que los elementos prácticos son tan importantes como los teóricos. Es un sistema de ideas que aspira tanto a explicar la realidad como a cambiarla.

Para analizar por qué la inteligencia artificial tiene ideología vamos a usar esta definición, especialmente la parte de afectar a la realidad.

El desarrollo lógico de que la inteligencia artificial es neutra parte de la base de que la ciencia lo es1; la inteligencia artificial es una herramienta desarrollada a partir de este conocimiento: las herramientas son neutras, por lo tanto, la inteligencia artificial es neutra.

¿Las herramientas son neutras?

La idea de que las herramientas son neutras es bastante curiosa. Parte de la base de que los objetos materiales no pueden actuar por sí mismos, con lo que la persona que los usa es la responsable de las acciones. Según este curioso razonamiento, la responsabilidad moral de las acciones es de la persona, nunca del objeto.

Este análisis, simplista hasta el extremo, considera que los objetos son realidades absolutas, aparecidas de la nada, sin pasado y, por tanto, sin historia. De este modo, libran al objeto de toda la carga social y política que conlleva su invención y su fabricación.

Esta concepción del mundo material no es casual, sino que viene derivada de la idea de progreso humano unido a progreso tecnológico que se creó durante el Renacimiento y que se consolidó durante la Revolución industrial.

La premisa de este pensamiento parte del concepto de “descubrimiento” en lugar de “invención”. La realidad está ahí fuera y la ciencia y la tecnología solo tienen que entenderla y usarla. Creen en la neutralidad del conocimiento. No crean una realidad: solo comprenden lo que ocurre y lo usan en su beneficio y en el de la humanidad.

Aunque aceptáramos esta idea –algo bastante complicado en pleno siglo XXI–, hay que tener en cuenta que los inventos o descubrimientos no se producen de manera aleatoria. Las personas que los hacen están buscando algo concreto en un área definida de la ciencia con un corpus teórico previo y una visión concreta de la realidad. Esto es aplicable a todas las herramientas desarrolladas por el ser humano desde su aparición. La primera persona que en el antiguo Egipto fabricó un martillo específico para el trabajo de la carpintería, no lo fabricó por azar ni estaba probando diferentes combinaciones de metales con trozos de madera de diferentes formas a ver qué pasaba. No: estaba buscando una herramienta concreta para resolver una necesidad concreta, clavar clavos y golpear formones para trabajar la madera.

Esta es la base de la invención de todas las herramientas que ha fabricado el ser humano, la búsqueda de solucionar una necesidad mediante el uso de objetos. Por lo tanto, TODAS LAS HERRAMIENTAS CREADAS POR HUMANOS TIENEN UNA IDEOLOGÍA, ya que parten de una concepción del mundo y pretenden resolver una necesidad creada de una forma concreta. Por ejemplo, como explica Perlman en su libro Contra el Leviatán y contra su historia, la aparición de los canales de riego es un intento de los seres humanos de controlar el cauce y el uso del agua para su beneficio. Esto conlleva una modificación de la naturaleza salvaje, al cambiar el caudal y el recorrido de los ríos. Como explica este autor, esta tecnología exige una visión del mundo donde la naturaleza está al servicio de los seres humanos, algo que no comparten todas las culturas, y su desarrollo conlleva un tipo de sociedad jerarquizada que exige una estructura social piramidal estable que se encargue de diseñar, fabricar y mantener estas grandes estructuras hídricas durante largos periodos de tiempo, consolidando de este modo un tipo de sociedad que obliga a todos sus miembros a jugar un rol determinado. Es lo que Lewis Mumford llama la “megamáquina”.

De este modo, según la ideología que tenga la sociedad, y el grupo de personas dentro de esta sociedad que invente algo y la finalidad que se busque con ese nuevo objeto, es fácil saber que ideología va a tener.

El ejemplo más claro que se me ocurre en el martillo de carpintería y la pistola. Como ya hemos dicho, el primer martillo de carpintero que se conoce se creó en el antiguo Egipto con la finalidad de clavar clavos en los muebles y golpear los formones para trabajar la madera. A pesar de ser creado en una sociedad jerárquica y claramente autoritaria, su finalidad es la fabricación de objetos de madera útiles para la vida, y lo más probable es que su invención fuera una obra colectiva (de personas que trabajaran en carpintería, herrería, etc.) para responder a una necesidad laboral concreta. A lo largo de la historia, el martillo se ha ido desarrollando, modificándose según las necesidades de cada sociedad, pero siempre con la misma base y la misma función: el trabajo de la madera.

El caso de la pistola es muy distinto. Las primeras pistolas que se conocen se crearon en el siglo XVI como arma auxiliar de la caballería, ya que se podía usar con una sola mano. No se popularizaron hasta el siglo XIX, cuando el ingeniero austriaco Joseph Lauman mejora el concepto y crea la primera pistola semiautomática. Su función era clara, era un arma pequeña y fácil de esconder que disparaba balas de metal a gran velocidad y que sirve para matar a seres vivos, ya sean humanos o no humanos. Está claro el contexto político y el modelo social que necesitan crear una herramienta para eliminar a otros seres vivos. De hecho, todos los avances que se han realizado en el diseño de la pistola los ha realizado la industria en torno al ejército y a la guerra.

Aunque es cierto que en algunas ocasiones las pistolas se han utilizado con intenciones liberadoras –como en caso de Cospito cuando disparó al jefe de la energía nuclear italiana o cuando Valerie Solanas intentó acabar con la vida de Andy Warhol–, la realidad es que eso no cambia su ideología, ya que demuestra que en la sociedad actual la única forma de conseguir algunas libertades es mediante la eliminación de otros seres humanos.

Si analizamos estos dos ejemplos e intentamos resignificar sus usos, veremos que la base ideológica de cada objeto está marcada en la propia realidad de cada uno. Podemos usar un martillo para matar a gente –de hecho, ha sido así más de una vez a lo largo de la historia–, pero es una acción lenta, sucia y poco efectiva. También sería bastante complicado, por ejemplo, realizar una matanza de gran número de personas a base de martillazos.

Del mismo modo, podemos usar una pistola para clavar clavos, pero tendríamos el mismo problema que en el caso anterior: sería un proceso lento, poco útil y bastante absurdo.

Esto se debe a que cada objeto se ha inventado y fabricado con una función, y esa función es su ideología. ya que conlleva una visión teórica del mundo y un intento de modificarlo de algún modo.

Partiendo de esta base, es fácil entender cuál es la ideología de la inteligencia artificial. Actualmente, lo que llamamos inteligencia artificial es un conjunto de algoritmos cuya función es el análisis de datos y la búsqueda de patrones, algunos de ellos imposibles de imaginar para los seres humanos.

La evolución de la inteligencia artificial en los últimos veinte años está totalmente ligada a la capacidad de procesamiento de datos de los nuevos ordenadores y a su avance exponencial, la llamada “ley de Moore”2, que está permitiendo gestionar cantidades ingentes de datos en tiempos cada vez más pequeños y a la propia capacidad del sistema tecno-industrial de crear y acumular cada vez más datos.

El aumento de la capacidad de computación nos habla de una sociedad imbuida en las teorías capitalistas de crecimiento infinito en un mundo finito. Tecnólogos y tecnólogas no parecen darse cuenta, o no quieren ver, que cada nuevo invento conlleva un nuevo producto que producir, que a su vez conlleva nuevas materias primas que extraer y por lo tanto nuevas zonas de la naturaleza que destruir. Aunque esta concepción del mundo haya sido creada y encumbrada por el sistema capitalista, la realidad es que el sistema tecno-industrial la ha hecho suya y que un cambio en el sistema político no evitaría la destrucción de la Tierra. Es decir, cualquier invento que produzca el sistema tecno-industrial parte de la base de que los elementos que lo van a componer (minerales, plásticos o la energía que consuma, por ejemplo) son materiales que le pertenecen y que, por tanto, puede hacer un uso libre de ellos. Esto es una ideología que nos habla de un antropocentrismo eurocentrista que considera que el mundo está a su servicio y que la destrucción de la naturaleza y de las formas de vida humanas y no humanas que la habitan son menos importantes que la comodidad, el conocimiento o simplemente el ego de una pequeña parte de la humanidad.

Por otro lado, la inteligencia artificial está muy ligada al internet de las cosas y a los big data. Hay que pensar que para entrenar a ChatGPT 3 se usaron 1300 millones de documentos digitalizados.

Durante toda la historia, uno de los primeros objetivos de cualquier revuelta o revolución fue la destrucción de los centros de datos. Hasta la era digital, todos los levantamientos populares que ganaban algo de fuerza humana atacaban los registros de la propiedad y los archivos penales y penitenciarios. Tenían muy claro que la acumulación de datos es algo que solo sirve al poder. La historia del poder, especialmente el del Estado, ha sido la historia del intento de acumular la mayor cantidad de datos de sus ciudadanos para “conocerlos”. En la era de la información, el sistema tecno-industrial se alió con el capitalismo y el Estado, y juntos crearon la mayor red de captación de datos que nunca haya existido, internet, y con él, dispositivos capaces de acumular billones de datos de manera digital: los famosos big data. Sin embargo, este sistema siempre tenía el mismo error, el factor humano. Como explicaba Banksy en uno de sus populares grafitis: “tú crees que el Gran Hermano te vigila, pero probablemente estará viendo películas porno en el monitor de al lado”. Hasta ahora, toda esa acumulación de datos era un cuello de botella que siempre se encontraba con el mismo problema: una persona tenía que revisar esos datos y sacar conclusiones. ¿Para qué sirve tener millones de horas de llamadas telefónicas de supuestos terroristas grabadas, si no tienes al equipo humano y el tiempo necesarios para escucharlas y sacar conclusiones? ¿Para qué sirve conocer la posición de GPS de los millones de personas que pueden ser tus compradoras/usuarias, si no tienes un departamento de márquetin lo suficientemente grande como para gestionar esos datos a tiempo real y tomar decisiones? Esta es la función de la inteligencia artificial actualmente: gestionar cantidades enormes de datos para evitar el factor humano en la búsqueda de patrones. Esto es una ideología. Esta nueva tecnología está creada para el control a través de la gestión de millones de datos en cualquier aspecto de la realidad, no creo que pueda usarse para nada que aumente la libertad.

En el caso de su uso aplicado a personas, está claro cuál es su funcionamiento: analizar todos los datos sobre personas parecidas a esa en casos parecidos a esos y predecir cual es estilísticamente la acción más posible de esa persona. Aunque esto se haga con la mejor intención, intentar predecir las acciones de una persona antes de que las haga y que se la trate como si ya hubiese hecho lo que se espera de ella. Es una de las formas más sádicas de control.

Este caso ya está ocurriendo en ciertos lugares como Salta, Argentina. Allí el gobierno local ha puesto en marcha un programa de la Plataforma Tecnológica de Intervención Social, un experimento de machine learning realizado por Microsoft para predecir los embarazos en adolescentes y el abandono escolar. “El algoritmo inteligente nos permite identificar características en personas que podrían llegar a tener esos problemas y avisar al gobierno para trabajar en su prevención” (News Center Microsoft Latinoamérica, 2018). El sistema recibió duras críticas debido a errores estadísticos, a la sensibilidad de la notificación de embarazos no deseados, al uso de datos inadecuados para hacer predicciones fiables, pero, aún más, por ser usado como herramienta de discriminación de las pobres y desviar la agenda de políticas públicas efectivas para garantizar el acceso a derechos sexuales y reproductivos (Peña y Varon, 2019).

Hay que recordar que las sociedades más libres, o menos oprimidas, no necesitan acumular cantidades absurdas de datos, la memoria humana individual y colectiva a lo largo de la historia ha sido suficiente para transmitir el conocimiento necesario para la supervivencia de la especie. Uno de los usos de los que se está hablando como un bien colectivo de la inteligencia artificial es la agricultura y el medio natural. Se está experimentando con sistemas de inteligencia artificial para la predicción de incendios, para optimizar el uso el agua en algunos cultivos, la creación de semillas transgénicas e incluso para hacer análisis de la tierra de cultivo y buscar patrones que ayuden a tomar decisiones para mejorar la tierra. Esto, que parece un bien loable y una manera de resignificar esta tecnología para ayudar a la humanidad, no deja una forma de control y de opresión, tanto de las poblaciones agrícolas como del propio campo. A largo plazo, las personas perderán el control sobre la producción de alimento y será el sistema tecno-industrial el que controlará la alimentación de las personas. Además, como se lleva demostrando desde la “revolución verde” de los años setenta, el aumento de la producción agrícola se consigue a costa de aumentar la destrucción de la naturaleza, debido al aumento de recursos que hay que usar para producir ese aumento.

Un ejemplo práctico. La inteligencia artificial es machista.

Como hemos explicado, la inteligencia artificial tiene ideología, y su ideología es la dominación. Este análisis, que puede parecer muy teórico, no lo es si estudiamos algunas de las aplicaciones de la inteligencia artificial y sus resultados.

En año 2014, Amazon utilizó una inteligencia artificial para seleccionar a sus directivos y directivas. Tras un tiempo usándolo, descubrieron que el algoritmo seleccionaba mayoritariamente a hombres, penalizando a las mujeres. Como la inteligencia artificial es considerada neutra, dieron por hecho que eso era un sesgo de aprendizaje a causa del machismo del modelo social. Para resolverlo, eliminaron el apartado de género en los currículums, con lo que el algoritmo no podía saber el género. Aun así, seguía premiando a los hombres y penalizando a las mujeres. Después de un tiempo, decidieron que era un problema mucho más complejo y retiraron el algoritmo.

Amazon no dio ninguna explicación, pero otros organismos relacionados con la inteligencia artificial, como el Instituto de Tecnología de Massachusetts (MIT), sí intentaron explicar lo que había ocurrido. Para ello, publicaron un artículo en 2019 en el que se analizaban los sesgos en la inteligencia artificial y su forma (o no) de resolverlo.

Para empezar, en ese artículo se asume, de manera indirecta, que los algoritmos tienen la ideología de sus creadores y que para la gente de ciencias es difícil reconocer su propia ideología. Del mismo modo, la forma en la que se enseña a los informáticos a abordar los problemas a menudo no encaja con la mejor forma de pensar en dichos problemas. 

El artículo acaba con un glorioso: el problema es complejo, pero tenemos a nuestros mejores hombres trabajando en ello, así que no os preocupéis mucho.

Si nos molestamos en hacer un análisis un poquito más profundo de la inteligencia artificial, de sus fundadores y de su desarrollo, llegaremos a otras conclusiones.

Lo que conocemos actualmente como inteligencia artificial tiene varios padres y uno de ellos, quizá el más importante en la actualidad, fue Marvin Minsky. En el año 1958 formó parte del Departamento de Ingeniería Eléctrica y Ciencias de la Computación del MIT, lugar en el que continuó siendo mentor hasta hace poco tiempo; además cofundó el actual Laboratorio de Inteligencia Artificial y Ciencias de la Computación (CSAIL).

Llegó a defender que “solo hay una cosa cierta: todo el que diga que hay diferencias básicas entre la mente de los hombres y la de las máquinas del futuro se equivoca. Si no se ha logrado ya, esto únicamente se debe a la falta de medios económicos y humanos”.

Si buscas su nombre en Google, aparecen miles de páginas ensalzando su figura como uno de los investigadores pioneros de la inteligencia artificial y su contribución a las redes neuronales artificiales.

Todos estos méritos académicos parece que son suficientes para tapar un hecho bastante conocido pero silenciado desde su muerte: en el año 2001, Minsky tomo un avión propiedad de Epstein para volar a la isla que el millonario poseía en las Islas Vírgenes y allí violó a una chica de 17 años, cuando él había cumplido los 73. Esta acusación fue conocida después de su muerte y nunca se llegó a aclarar, como todo lo que rodeó a Epstein, pero nos da una idea de la visión de las mujeres que tenía este señor.

Si seguimos indagando en el campo de la IA y sus mecenas, encontramos nombres como el de Elon Musk, el primer financiador de Open AI, la empresa matriz de ChapGPT. Elon Musk, aparte de representar una masculinidad muy tóxica, es una persona tránsfoba con la que su propia hija trangénero rompió relaciones, incluso cambió de apellido debido a su comportamiento público. De hecho, se comenta que, en una biografía que se está escribiendo sobre él, reconoce que uno de los motivos para comprar Twitter fue que su hija “se volvió” transgénero por culpa de la ideología comunista de esta red social.

Otra de las personas que más dinero ha destinado al desarrollo de la inteligencia artificial ha sido el propio Jeffrey Epstein. Durante años donó millones de dólares al MIT para la creación de un departamento de IA.

Cuando en 2008 se hizo pública la red de trata de personas de Jeffrey Epstein y las “fiestas privadas” en su isla en las Islas Vírgenes, la comunidad científica se alejó del que había sido su gran mecenas, al menos de cara a la galería. La realidad fue que organizaciones como el MIT siguieron aceptando donaciones, siempre y cuando fueran anónimas e inferiores a cinco millones de dólares anuales.

Una de las personas más beneficiadas por las aportaciones del magnate de las finanzas fue Joichi Ito, director del MIT MED LAB, especialista en ética y tecnología y fundador del curso “Ética y gobernanza de la inteligencia artificial”. Joichi Ito dimitió en 2019, once años después de que se conocieran y condenaran los primeros delitos de Epstein, y debido a una investigación del Miami Herald que expuso magnitud del caso, con acusaciones de asalto y tráfico sexual. Con todo, se excusó diciendo que él nunca vio nada raro. Este señor creó y formó al departamento que analiza el sesgo sexista de la IA.

Por último, si analizamos a la empresa que utilizó el famoso algoritmo con sesgo sexista, Amazon, las cosas no mejoran. En un estudio publicado por la Universidad de California en 2021, tras realizar encuestas a trabajadores y trabajadoras de los almacenes de california, se afirmaba que la empresa de Jeff Bezos se caracteriza por políticas discriminatorias por raza y género. Así, por ejemplo, las personas embarazadas no pueden tomar descansos para ir al baño y al menos siete de ellas fueron despedidas cuando denunciaron su situación.

Resumiendo, una tecnología creada, entre otros, por un violador, financiada por un traficante de personas y pederasta y por un tránsfobo, y utilizada por una empresa que discrimina a las mujeres produce resultados machistas, pero nadie entiende por qué. El chiste se cuenta solo.

11En este articulo no trataremos el tema de la supuesta neutralidad de la ciencia y sus consecuencias políticas y sociales porque nos desviaría del tema. Para profundizar en ese debate, la bibliografía es extensa, recomendamos a Lewis Munford, entre otros autores.

22La ley de Moore explica que la potencia de procesamiento general de los ordenadores se duplica cada dos años.