OpenAI acaba de lanzar Sora, su app de video con AI para iOS, y el entusiasmo se mezcló con preocupación más rápido de lo que crea una animación. Los usuarios empezaron a recrear escenas de películas, anuncios falsos o arrestos imaginarios. Pero cruzar el mar con delfines en bicicletas no es del todo inocente: como era previsible, también hay estafadores probando suerte.
El límite entre la creatividad y el engaño se vuelve cada vez más borroso, sobre todo cuando la tecnología permite “ver” cosas que nunca ocurrieron.
EL PROBLEMA NO ES LA MENTIRA, ES LA TRANSICIÓN
Las estafas con AI no son nuevas, pero su sofisticación actual revela otra cosa: nuestra dificultad para adaptarnos. Hace poco, una madre en New York recibió una llamada donde escuchó —supuestamente— la voz de su hija secuestrada: era una clonación hecha con AI. En otros casos, deepfakes políticos han circulado en vísperas electorales.
No es que la inteligencia artificial esté destruyendo la verdad con ejemplos más o menos cotidianos como esos dos, sino que avanza más rápido que nuestra capacidad para distinguirla. Y en ese desfase surgen los riesgos más grandes.
UN NUEVO CAMPO DE CONFIANZA
En medio de crisis políticas, guerras de información y paranoia digital, este parece un mal momento para perder confianza en lo que vemos. En Taiwán, por ejemplo, circularon videos falsos de bombardeos antes de las elecciones; y en EEUU ya se han detectado deepfakes de funcionarios del gobierno usados para estafas o “militares” interesados en romances.
Quizá se trate solo de una transición: una fase incómoda antes de que desarrollemos nuevos reflejos con golpes en la rodilla. Pero la pregunta es cuánto daño hará la confusión antes de que lleguemos ahí.