El ejército de Israel incorporó un sofisticado sistema de IA conocido como "Lavender", que está revolucionando la forma de seleccionar objetivos en Gaza.
Esta tecnología, como destacó +972 Magazine, Local Call y The Guardian, identificó a numerosos individuos como amenazas potenciales poco después de su implantación.
Lavender evalúa a los individuos en Gaza, asignándoles una puntuación de probabilidad que refleja su posible asociación con grupos como Hamás o la Yihad Islámica.
Esta puntuación pretende ayudar a las Fuerzas de Defensa de Israel (IDF) a tomar decisiones informadas sobre sus objetivos.
A pesar de sus avances tecnológicos, el uso ético de Lavender suscitó un intenso debate. Se le ha criticado por permitir un elevado número de bajas civiles durante operaciones dirigidas contra individuos de alto valor, lo que provoca importantes daños colaterales.
El uso de IA como Lavender en operaciones militares plantea profundas cuestiones morales. Los detractores argumentan que deshumaniza a los individuos reduciéndolos a puntos de datos y elude las comprobaciones exhaustivas que suelen implicar las decisiones militares.
Las investigaciones revelan que los oficiales de las FDI pueden revisar las recomendaciones de Lavender sobre los objetivos en cuestión de segundos, lo que provoca numerosos errores y víctimas civiles.
Israel y su nuevo sistema de IA “Lavander”
En respuesta, los oficiales de las FDI sostienen que sistemas como Lavender son meras herramientas para ayudar en la identificación de objetivos, no para sustituir a los responsables humanos de la toma de decisiones.
Afirman que todas las decisiones finales sobre los objetivos implican la supervisión humana. Sin embargo, la velocidad y la escala de las operaciones, según se informa, sugieren que la participación humana puede ser mínima, lo que suscita importantes preocupaciones sobre la eficacia de esta supervisión.
Los retos legales y éticos de emplear IA en combate son polifacéticos. Magda Pacholska, del Instituto TMC Asser, señala que, aunque el uso de la IA está en consonancia con las prácticas militares contemporáneas, apuntar a individuos representa un cambio inquietante en las tácticas bélicas.
Además, Luis Arroyo Zapatero, experto en derecho penal internacional, indica con rotundidad que las bajas civiles podrían constituir potenciales crímenes de guerra, subrayando que el derecho internacional no acepta los asesinatos como acciones militares lícitas.
Más allá de las implicaciones inmediatas en el campo de batalla, el despliegue del Lavender también representa el papel destacado de Israel en el desarrollo y la exportación de tecnologías militares y de vigilancia avanzadas.
Esto quedó patente en las ferias internacionales de armamento, donde los representantes israelíes promocionaron el Lavender como una solución antiterrorista de vanguardia.
Inteligencia artificial en Israel
Los críticos argumentan que tales demostraciones pueden dar prioridad a la comercialización de las capacidades militares israelíes sobre las consideraciones éticas en la guerra.
La creciente dependencia de la IA en las estrategias militares, como demostró Lavender, subraya la urgente necesidad de debates y normativas globales.