Meta recibió fuertes críticas de sus usuarios y de la Junta de Supervisión por la eliminación automatizada excesiva, incluyendo gran cantidad de contenido sobre el conflicto entre Israel y Hamás.
El informe del martes de la junta ha suscitado preocupación por la limitación de "la libertad de expresión y la accesibilidad a la información", en el contexto del conflicto mediante dicha eliminación de contenidos.
Un vídeo, compartido inicialmente en Facebook, documentaba las súplicas desesperadas de una mujer israelí a sus captores para que le perdonaran la vida durante el ataque perpetrado por Hamás el 7 de octubre.
Critican la eliminación de contenido de Meta durante el conflicto Israel-Hamás
El segundo vídeo, publicado en Instagram, ofrecía una visión de las secuelas de un asalto israelí cerca del hospital al-Shifa, en la ciudad de Gaza, arrojando luz sobre el devastador impacto en las vidas de los palestinos, incluidos los niños.
Curiosamente, tanto la eliminación del segundo vídeo, como la desestimación del recurso del usuario para su reincorporación, fueron acciones llevadas a cabo por las herramientas automatizadas de moderación de la empresa, sin intervención humana.
Tras una rápida revisión de 12 días, la junta se aseguró de que los vídeos fueran restablecidos, aunque con una pantalla de advertencia sobre el contenido.
El informe de la junta destaca que la reducción de los umbrales de moderación, aplicada para detectar contenidos infractores tras el atentado del 7 de octubre, amplió paradójicamente el riesgo de que Meta borrara erróneamente contenidos no infractores relacionados con el conflicto.
Herramientas de moderación bajo evaluación
Subrayó la necesidad crucial de una moderación dirigida por personas en este tipo de crisis, advirtiendo de que la falta de ella podría dar lugar a la supresión errónea de discursos de gran interés público.
También instó a Meta a agilizar el proceso de autorización de contenidos compartidos para "condenar, concientizar, informar o pedir la liberación" con una pantalla de advertencia adecuada.
Además, la junta criticó a Meta por reducir la visibilidad de los dos posts examinados aplicando pantallas de advertencia.
Meta en el centro de la polémica
Esta acción impidió que estos posts de concienciación fueran recomendados a otros usuarios de Facebook e Instagram. En respuesta a la decisión de la junta de anular las eliminaciones, Meta declaró que, sin recomendaciones específicas del panel, no habrá más actualizaciones de este caso.
Este episodio subraya la urgente necesidad de una estrategia equilibrada y dirigida por humanos en la moderación de contenidos, poniendo de relieve los posibles inconvenientes de depender en exceso de herramientas automatizadas en tareas tan cruciales.
También pone de relieve el poder y la responsabilidad de los gigantes tecnológicos como Meta a la hora de dar forma a las narrativas y facilitar la accesibilidad a la información en tiempos de conflicto.
Leer más:
Apple paraliza temporalmente la venta del Apple Watch: a qué se debe