ir al contenido

Apple retrasa funcionalidad que detecta imágenes de abuso sexual infantil

Apple anunció el viernes que retrasará el conjunto de funciones destinadas a limitar la difusión de material de abuso sexual infantil (CSAM) a través de sus dispositivos, y que había suscitado graves problemas de privacidad entre los usuarios.

El contexto: Una de las funciones alertaba a los padres si sus hijos envían o reciben imágenes sexualmente explícitas. La otra, escanea las fotos en el iCloud de un usuario en busca de CSAM e informa de cualquier contenido infractor a los moderadores de Apple.

  • Apple informaría del material detectado al Centro Nacional para Niños Desaparecidos y Explotados, una agencia de intercambio de información que trabaja con las fuerzas del orden.
  • A pesar de las garantías de privacidad ofrecidas por la compañía, los organismos de control, los expertos y los defensores se alinearon rápidamente para oponerse a la implementación del plan.

¿Qué dicen? "Basándonos en los comentarios de los clientes, los grupos de defensa, los investigadores y otros, hemos decidido tomarnos un tiempo adicional, durante los próximos meses, para recopilar información y realizar mejoras antes de lanzar estas funciones de seguridad infantil de importancia crítica", dijo Apple en un comunicado a The Hill.

  • La compañía afirmó que el escaneo de imágenes en la nube estaba "diseñado para pensar en la privacidad del usuario", y que analizaría cada imagen antes de marcar el material como contenido sexual.
  • Los críticos agregaron que la capacidad de escaneo de imágenes podría funcionar como una puerta trasera para una nueva vigilancia y censura.

Fuente principal de la noticia: The Hill

Últimas Noticias