El ejército israelí ha "marcado" a decenas de miles de habitantes de Gaza como sospechosos de asesinato, utilizando un sistema de selección de objetivos de IA con poca supervisión humana y una política permisiva en cuanto a las bajas. Informe de +972 y Local Call.
Miércoles 3 de abril de 2024 12:59

Publicamos a continuación una versión resumida y editada de la investigación que se puede leer completa aquí.
Una nueva investigación de +972 Magazine y Local Call revela que el ejército israelí ha desarrollado un programa basado en inteligencia artificial conocido como “Lavender” (Lavanda). Según seis oficiales de inteligencia israelíes, que sirvieron en el ejército durante los actuales ataques sobre la Franja de Gaza y estuvieron involucrados de primera mano con el uso de IA para generar objetivos para su posterior asesinato. Lavender ha desempeñado un papel central en el bombardeo sin precedentes de palestinos, especialmente durante las primeras etapas de la guerra. De hecho, según las fuentes, su influencia en las operaciones militares fue tal que esencialmente trataron los resultados de la máquina de IA "como si fuera una decisión humana".
Formalmente, el sistema Lavender está diseñado para marcar a todos los sospechosos de pertenecer a las alas militares de Hamás y la Jihad Islámica Palestina (PIJ), incluidos los de bajo rango, como posibles objetivos de bombardeo. Las fuentes dijeron a +972 y Local Call que, durante las primeras semanas de la guerra, el ejército dependió casi por completo de Lavender, que registró hasta 37.000 palestinos como presuntos militantes (y sus hogares) para posibles ataques aéreos.
Durante los primeras semanas, el Ejército dio una amplia aprobación a los oficiales para que adoptaran las listas de objetivos a ser asesinados emitidas por Lavender, sin necesidad de comprobar minuciosamente por qué la máquina tomó esas decisiones ni de examinar los datos de inteligencia en los que se basaba. Una fuente afirmó que el personal humano a menudo servía sólo para justificar con su firma las decisiones de la máquina, añadiendo que, normalmente, dedicaban personalmente sólo unos "20 segundos" a cada objetivo antes de autorizar un bombardeo del objetivo señalado por Lavender. Esto fue a pesar de saber que el sistema comete lo que se considera “errores” en aproximadamente el 10 por ciento de los casos, y se sabe que ocasionalmente marca a personas que tienen simplemente una conexión vaga con grupos militantes, o ninguna conexión en absoluto.
Además, el ejército israelí atacó sistemáticamente a las personas marcadas como objetivos mientras se encontraban en sus hogares (normalmente de noche, mientras toda su familia estaba presente) y no durante el curso de la actividad militar. Según las fuentes, esto se debió a que, desde el punto de vista de inteligencia, era más fácil localizar a las personas en sus casas particulares. Sistemas automatizados adicionales, incluido uno llamado "¿Dónde está papá?", se utilizaron específicamente para rastrear a los objetivos señalados por Lavender y llevar a cabo ataques con bombas cuando estos entraban en sus casas particulares.
El resultado, como testificaron las fuentes, es que miles de palestinos (la mayoría de ellos mujeres y niños o personas que no participaron en los combates) fueron aniquilados por los ataques aéreos israelíes, especialmente durante las primeras semanas de los ataques, debido a las decisiones de esta Inteligencia Artificial.
"No estábamos interesados en matar a los agentes [de Hamás] sólo cuando estaban en un edificio militar o participando en una actividad militar", dijo A., un oficial de inteligencia, a +972 y Local Call. “Por el contrario, las FDI los bombardearon en sus casas sin dudarlo, como primera opción. Es mucho más fácil bombardear la casa de una familia. El sistema está diseñado para buscarlos en estas situaciones”.
La máquina Lavender se une a otro sistema de inteligencia artificial, “The Gospel”, sobre el cual se reveló información en una investigación previa de +972 y Local Call en noviembre de 2023, así como en las propias publicaciones del ejército israelí. Una diferencia fundamental entre los dos sistemas está en la definición del objetivo: mientras que The Gospel marca los edificios y estructuras desde los que el ejército afirma que operan los militantes, Lavender marca a las personas y las pone en una lista de objetivos a asesinar.
Te puede interesar: El Estado de Israel utiliza inteligencia artificial para masacrar a civiles en Gaza
Te puede interesar: El Estado de Israel utiliza inteligencia artificial para masacrar a civiles en Gaza
Además, según las fuentes, cuando se trataba de atacar a supuestos militantes jóvenes marcados por Lavender, el ejército prefería utilizar únicamente misiles no guiados, comúnmente conocidos como bombas "tontas" (en contraste con las bombas "inteligentes" de precisión), que pueden destruir edificios enteros encima de sus ocupantes y causan importantes víctimas. "No conviene desperdiciar bombas caras en gente sin importancia; es muy caro para el país y hay escasez [de esas bombas]", dijo C., uno de los oficiales de inteligencia. Otra fuente dijo que habían autorizado personalmente el bombardeo de “cientos” de casas privadas de presuntos agentes jóvenes marcados por Lavender, y que muchos de estos ataques mataron a civiles y familias enteras como “daños colaterales”.
En una medida sin precedentes, según dos de las fuentes, el ejército también decidió durante las primeras semanas de los ataques que, por cada joven militante de Hamás que Lavender marcara, estaba permitido matar hasta 15 o 20 civiles. En el pasado, los militares no autorizaban ningún “daño colateral” durante los asesinatos de militantes de bajo rango. Las fuentes añadieron que, en el caso de que el objetivo fuera un alto funcionario de Hamás con rango de comandante de batallón o brigada, el ejército autorizó en varias ocasiones el asesinato de más de 100 civiles durante los ataques a cada uno de esos comandantes.
Según el informe de +972 Magazine bajo la “Operación Espadas de Hierro”, tras los ataques del 7 de octubre, el ejército israelí decidió designar a todos los agentes del ala militar de Hamás como objetivos humanos, independientemente de su rango o importancia militar.
Eso cambió todo, y una vez que la lista se amplió para incluir a decenas de miles de agentes de menor rango, el ejército israelí pensó que tenía que depender de software automatizado e inteligencia artificial. El resultado, testifican las fuentes, fue que el papel del personal humano en incriminar a los palestinos como agentes militares fue dejado de lado y AI hizo la mayor parte del trabajo.
Según cuatro de las fuentes que hablaron con +972 y Local Call, Lavender, que fue desarrollado para crear objetivos humanos, ha marcado a unos 37.000 palestinos como presuntos “militantes de Hamas”, la mayoría de ellos jóvenes, para asesinarlos.
Así, Lavender pasó de ser una herramienta auxiliar a ser quien define automáticamente los objetivos a ser asesinados. Las fuentes dijeron que si Lavender decidía que un individuo era militante de Hamás, esencialmente se les pedía que lo trataran como una orden, sin necesidad de comprobar de forma independiente por qué la máquina tomó esa decisión o de examinar los datos de inteligencia en bruto en los que se basaba.
Lo que hace el software Lavender es analizar la información recopilada sobre la mayoría de los 2,3 millones de residentes de la Franja de Gaza a través de un sistema de vigilancia masiva, luego evalúa y clasifica la probabilidad de que cada persona en particular esté activa en el ala militar de Hamas o PIJ. Según las fuentes, la máquina otorga a casi todas las personas en Gaza una calificación del 1 al 100, expresando la probabilidad de que sean militantes.
Lavender aprende a identificar características de agentes conocidos de Hamas y PIJ, cuya información fue introducida en la máquina como datos de entrenamiento, y luego a localizar esas mismas características entre la población general, explicaron las fuentes. Un individuo que tenga varias características incriminatorias diferentes alcanzará una calificación alta y, por lo tanto, automáticamente se convertirá en un objetivo potencial a ser asesinado.
La razón de esta automatización era la presión constante para generar más objetivos para el asesinato. Según una de las fuentes comenzaron a utilizar características más amplias para aumentar la cantidad de objetivos a asesinar. Esta cifras "cambian todo el tiempo, porque depende de dónde se establezca la definición de lo que es un militante de Hamás. Hubo momentos en que un militante de Hamás se definió de manera más amplia, y luego la máquina comenzó a traernos todo tipo de personal de defensa civil, oficiales de policía" o cualquiera que trabaje para el Estado en Gaza.
Lo mismo ocurre cuando el sistema utiliza los números de teléfonos para identificar "sospechosos". "En la guerra, los palestinos cambian de teléfono todo el tiempo", dijo la fuente. “La gente pierde el contacto con sus familias, le da su teléfono a un amigo o a su esposa y tal vez lo pierde. No hay manera de confiar al 100 por ciento en el mecanismo automático que determina qué número [de teléfono] pertenece a quién”.
A pesar de que el Ejército israelí negó a +972 que ese sea el funcionamiento de esta IA y dijo que solo se utiliza la tecnología como herramienta adicional, las fuentes de la investigación señalaron que los miembros del Ejército eran solo un apéndice de la máquina y le dedicaban no más de 20 segundos a chequear el objetivo antes de que sea bombardeado. Este chequeo era solo para confirmar que el objetivo era un hombre y no una mujer. Solo en ese caso el Ejército suponía que la máquina probablemente habría cometido un error, porque no hay mujeres entre las filas de las alas militares de Hamás y la Jihad Islámica.
En la práctica, las fuentes dijeron que esto significaba que para los hombres civiles marcados por error por Lavender, no existía ningún mecanismo de supervisión para detectar el error.
La investigación de +972 y Local Call también señala cómo se vinculaban los objetivos con sus hogares familiares, el tipo de bombas que utilizaban según el rango del objetivo, y el hecho de que se autorizaran los ataques sin considerar los "daños colaterales".
Esto incluyó la autorización para asesinar hasta a 100 civiles si el objetivo había a atacar sido identificado por la IA como de "alto rango". Esto es lo que explica la cantidad de infraestructura, incluidas viviendas familiares, que fueron destruidas y por qué la mayoría de los asesinados son mujeres, niños y ancianos.
Lavender se suma a una larga lista de herramientas tecnológicas utilizadas por Israel para la vigilancia masiva el pueblo palestino tanto en Gaza como en Cisjordania. Solo que esta última es el desarrollo de la Inteligencia Artificial puesto al servicio del genocidio que Israel está llevando adelante. Muchas de estas herramientas de última generación proceden de países imperialistas, algunos de los cuales hoy hipócritamente señalan los "excesos" de Netanyahu. La empresa británica Elbit System proporciona, por ejemplo, drones y herramientas de vigilancia particularmente sofisticadas, que permiten garantizar el control de Israel sobre el pueblo palestino, mientras que Estados Unidos financia hace años los desarrollos de este tipo de tecnología que Israel utiliza contra el pueblo palestino para luego ser vendida a otros países como material bélico.
Es solo una demostración más de los vínculos militares e industriales que Israel mantiene con potencias imperialistas para garantizar su política colonial sobre el pueblo palestino.