ir al contenido

Así funciona Lavender, el sistema de IA de Israel que decide a quién bombardear

El ejército de Israel incorporó un sistema de IA conocido como "Lavender", que está revolucionando la forma de seleccionar objetivos en Gaza

Lavender IA Israel
Bombardeos de Israel | EFE/MOHAMMED SABER

El ejército de Israel incorporó un sofisticado sistema de IA conocido como "Lavender", que está revolucionando la forma de seleccionar objetivos en Gaza.

Esta tecnología, como destacó +972 Magazine, Local Call y The Guardian, identificó a numerosos individuos como amenazas potenciales poco después de su implantación.

Lavender evalúa a los individuos en Gaza, asignándoles una puntuación de probabilidad que refleja su posible asociación con grupos como Hamás o la Yihad Islámica.

Esta puntuación pretende ayudar a las Fuerzas de Defensa de Israel (IDF) a tomar decisiones informadas sobre sus objetivos.

A pesar de sus avances tecnológicos, el uso ético de Lavender suscitó un intenso debate. Se le ha criticado por permitir un elevado número de bajas civiles durante operaciones dirigidas contra individuos de alto valor, lo que provoca importantes daños colaterales.

El uso de IA como Lavender en operaciones militares plantea profundas cuestiones morales. Los detractores argumentan que deshumaniza a los individuos reduciéndolos a puntos de datos y elude las comprobaciones exhaustivas que suelen implicar las decisiones militares.

Las investigaciones revelan que los oficiales de las FDI pueden revisar las recomendaciones de Lavender sobre los objetivos en cuestión de segundos, lo que provoca numerosos errores y víctimas civiles.

Israel y su nuevo sistema de IA “Lavander”

En respuesta, los oficiales de las FDI sostienen que sistemas como Lavender son meras herramientas para ayudar en la identificación de objetivos, no para sustituir a los responsables humanos de la toma de decisiones.

Afirman que todas las decisiones finales sobre los objetivos implican la supervisión humana. Sin embargo, la velocidad y la escala de las operaciones, según se informa, sugieren que la participación humana puede ser mínima, lo que suscita importantes preocupaciones sobre la eficacia de esta supervisión.

Los retos legales y éticos de emplear IA en combate son polifacéticos. Magda Pacholska, del Instituto TMC Asser, señala que, aunque el uso de la IA está en consonancia con las prácticas militares contemporáneas, apuntar a individuos representa un cambio inquietante en las tácticas bélicas.

Además, Luis Arroyo Zapatero, experto en derecho penal internacional, indica con rotundidad que las bajas civiles podrían constituir potenciales crímenes de guerra, subrayando que el derecho internacional no acepta los asesinatos como acciones militares lícitas.

Más allá de las implicaciones inmediatas en el campo de batalla, el despliegue del Lavender también representa el papel destacado de Israel en el desarrollo y la exportación de tecnologías militares y de vigilancia avanzadas.

Esto quedó patente en las ferias internacionales de armamento, donde los representantes israelíes promocionaron el Lavender como una solución antiterrorista de vanguardia.

Inteligencia artificial en Israel

Los críticos argumentan que tales demostraciones pueden dar prioridad a la comercialización de las capacidades militares israelíes sobre las consideraciones éticas en la guerra.

La creciente dependencia de la IA en las estrategias militares, como demostró Lavender, subraya la urgente necesidad de debates y normativas globales.

Últimas Noticias

De Chicago al Vaticano: bienvenido, León XIV

De Chicago al Vaticano: bienvenido, León XIV

Con 69 años y triple ciudadanía (EEUU, Perú, Santa Sede) encarna una rareza geopolítica: un Papa nacido en la superpotencia que más católicos pierde, formado en el sur global y curtido en la burocracia romana que vigila el resto

Miembros Público