Cómo funciona y por qué es tan polémico el software de Apple para detectar pornografía infantil en los iPhone

por | Ago 6, 2021

Foto: EFE

Apple anunció detalles de un sistema para detectar material de abuso sexual infantil en los dispositivos de sus clientes estadounidenses.

Antes de que una imagen se almacene en iCloud Photos, el sistema buscará similitudes entre las imágenes en el dispositivo y otras ya conocidas de abuso infantil.

Mantente informado con los temas más relevantes de política, economía, comunidad latina y salud. Suscríbete aquí a nuestros newsletters.

Apple afirmó que si se encuentra una coincidencia, un revisor humano evaluará e informará sobre el usuario a la policía.

Sin embargo, el anuncio ha generado temores de que la tecnología pueda expandirse y permita escanear teléfonos en busca de otros materiales prohibidos, incluso contenidos políticos en dispositivos de disidentes.

Expertos en privacidad expresaron preocupación porque gobiernos autoritarios puedan utilizar esta tecnología para espiar a sus ciudadanos.

Apple anunció que las nuevas versiones de iOS y iPadOS, que se lanzarán a finales de este año, tendrán “nuevas aplicaciones de criptografía para ayudar a limitar la propagación de material de abuso sexual infantil en línea, teniendo en cuenta a la vez la privacidad de los usuarios”.


El sistema funciona comparando fotos con una base de datos de imágenes de abuso sexual infantil compiladas por el Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos (US National Center for Missing and Exploited Children o NCMEC) y otras organizaciones de protección infantil.

Esas imágenes se traducen en códigos numéricos que pueden “coincidir” con el de una imagen en un dispositivo Apple.

La compañía agregó que el sistema también capturará versiones editadas pero similares de imágenes originales.

“Alto nivel de precisión”

“Antes de que una imagen se almacene en iCloud, se cotejará esa imagen con los códigos numéricos de fotos de abuso infantil conocidas”, afirmó Apple.

La compañía señaló que el sistema tiene un “nivel extremadamente alto de precisión y garantiza menos de una en un billón de posibilidades por año de marcar incorrectamente una cuenta determinada”.

Apple dijo que revisará manualmente cada informe para confirmar que hay una coincidencia.


Y luego podría deshabilitar la cuenta de un usuario e informar a las autoridades.

Apple aseguró que la nueva tecnología ofrece beneficios de privacidad “significativos” sobre los sistemas existentes, ya que la empresa solo analizará las fotos de los usuarios si éstos tienen una colección de imágenes de abuso sexual infantil conocidas en su cuenta de iCloud.

Sin embargo, algunos expertos en privacidad han expresado su preocupación.

“Independientemente de los planes a largo plazo de Apple, han enviado una señal muy clara. En su opinión (muy influyente), está bien construir sistemas que escaneen los teléfonos de los usuarios en busca de contenido prohibido”, afirmó Matthew Green, experto en criptografía de Universidad Johns Hopkins.


“No importa si tienen razón o no en ese punto. Esto equivale a ‘abrir las compuertas’; los gobiernos pedirán esta tecnología”.


MÁS LEÍDAS

Aumentarán beneficios de los foodstamps: Cuándo y cómo aplicar

El lunes 16 de agosto el presidente Joe Biden aprobó un histórico aumento del 25% en los beneficios del Programa de Asistencia Nutricional Suplementaria (SNAP), popularmente conocidos como food stamp o cupones de comida, que sirven de ayuda para las...

¿Qué hacer si perdiste tu certificado de vacunación?

Todas las personas vacunadas contra el COVID-19 reciben una hoja de papel pequeña, blanca y rectangular como certificado de vacunación, y se les advierte que no la extravíen ni la plastifiquen. Sin embargo, mientras cada vez más lugares exigen comprobante de...


Tu acceso a los insides de la política desde Washington DC. De lunes a viernes directo a tu email

$5 mensuales

Suscríbete GRATIS por 2 meses