Las plataformas Meta, Facebook e Instagram, permitieron anuncios de foto falsa de Jenna Ortega desnuda a los 16 años.
Los anuncios mostraban a Jenna Ortega, la famosa actriz estadounidense, desnuda cuando tenía 16 años.
La falsa foto de Jenna Ortega desnuda a los 16 años
El núcleo de esta polémica gira en torno a una aplicación llamada Perky AI, que aprovecha la inteligencia artificial para alterar digitalmente imágenes, presentando a Jenna Ortega desnuda.
Esta app utilizó de forma indebida una imagen manipulada de Jenna Ortega, la actriz reconocida por su papel en "Wednesday", en materiales promocionales. La foto fue tomada cuando Ortega tenía sólo 16 años
A lo largo de febrero, la biblioteca de anuncios de Meta puso al descubierto que la entidad detrás de Perky AI difundió 11 anuncios de este tipo, haciendo un uso indebido de la imagen de Ortega para comercializar sus dudosos servicios.
La aplicación seducía a los usuarios con la capacidad de generar contenido "NSFW", un término típicamente asociado a material de desnudos o sexualmente explícito.
El uso indebido de la inteligencia artificial en material de desnudos
La empresa RichAds, con sede en Chipre, que desarrolló Perky AI, ofrece principalmente anuncios push y notificaciones emergentes.
El portavoz de Meta, Ryan Daniels, hizo hincapié en la estricta política de la empresa contra la sexualización y la desnudez de los niños, destacando la rápida acción de suspender la página de la aplicación Perky tras las alertas.
Además, en un esfuerzo de colaboración para frenar la distribución de este tipo de contenidos, la aplicación se retiró de la App Store de Apple, destacando los más de 260 anuncios publicados por la aplicación desde septiembre.
La tecnología deepfake
El caso de Jenna Ortega no es el primero, anteriormente, Taylor Swift también fue víctima de difusión de contenido sexual con su cara usando la inteligencia artificial.
Con unas herramientas para crear contenidos falsos hiperrealistas cada vez más accesibles, los retos éticos y legales vinculados a la tecnología deepfake, especialmente cuando se dirige a menores, son cada vez más comúnes.
Según una investigación llevada a cabo por la analista de deepfakes Genevieve Oh y el grupo de defensa MyImageMyChoice, en 2023 se ha producido un notable aumento de los vídeos deepfake sexualmente explícitos no consentidos.