La inteligencia artificial ha demostrado ser una herramienta poderosa en múltiples campos. Pero, como toda tecnología, también tiene un lado oscuro. En los últimos meses, diversos usuarios han reportado que sus fotos personales, tomadas de redes sociales o incluso de perfiles laborales, están siendo manipuladas con IA para crear imágenes sexualizadas y usadas en sitios pornográficos sin su consentimiento.
Este fenómeno, conocido como deepfake porn, ha evolucionado. Ya no solo se crean videos falsos con celebridades; ahora, personas comunes están siendo víctimas.
Basta una imagen en buena calidad para que un algoritmo construya un perfil con nombre falso, pero rostro real. Y lo peor: muchas veces es casi imposible rastrear al creador o eliminar el contenido por completo.
“No sabía que mi cara estaba en un sitio porno”
Laura*, una diseñadora gráfica de 28 años, descubrió por casualidad que su rostro estaba siendo utilizado en una cuenta de OnlyFans falsa. “Un amigo me escribió para preguntarme si me había abierto un perfil. Cuando vi las fotos, me quedé en shock. Era mi cara, pero no mi cuerpo, y claramente no era yo”, relata.
El perfil estaba completo: nombre ficticio, una historia personal, e incluso una lista de precios para contenidos personalizados. Todo basado en una única imagen que había subido en su perfil profesional de LinkedIn.
Un caso que estremeció al Reino Unido
En Reino Unido, uno de los casos más alarmantes salió a la luz recientemente. Brandon Tyler, un hombre de 26 años, fue condenado a cinco años de cárcel por crear y compartir pornografía falsa usando imágenes de mujeres que conocía. Usó inteligencia artificial para manipular fotos extraídas de redes sociales, desnudarlas digitalmente y luego subirlas a un foro en línea que promovía la cultura de la violación.
La corte escuchó que Tyler publicó 173 veces sobre 20 mujeres diferentes entre marzo de 2023 y mayo de 2024. En una de sus publicaciones, llegó a preguntar: “¿Cuál de ellas merece ser violada en grupo?” El juez calificó su comportamiento como “el peor tipo de masculinidad tóxica” y dijo que el acusado vivía en “un mundo oscuro de fantasía”.
El caso generó indignación pública, pero también marcó un hito legal. En abril de 2023, compartir imágenes sexuales falsas generadas con IA se convirtió en delito en Inglaterra y Gales, bajo una enmienda al Online Safety Act. Sin embargo, los defensores de derechos digitales insisten en que aún falta penalizar también la creación de este tipo de imágenes.
Inteligencia artificial
El acceso a herramientas de edición con IA se ha vuelto cada vez más fácil. Plataformas que antes eran complejas o de pago, ahora están disponibles de forma gratuita o por poco precio. Cualquiera con un computador y conexión a internet puede generar imágenes hiperrealistas en minutos.
“Estamos viendo un aumento en la sofisticación y frecuencia de estos casos”, alerta Catalina Ruiz-Navarro, activista feminista y fundadora de (e)stereotipas. “El problema no es solo tecnológico, es profundamente ético y legal. Esta es una forma de violencia sexual digital que debe ser tratada como tal”.
En muchos países, incluido Colombia, no existen leyes específicas que regulen el uso de deepfakes sexuales no consensuados. Aunque algunos intentos legislativos han empezado a surgir, la justicia va más lento que la tecnología.
Las plataformas donde se suben estos contenidos, por su parte, a menudo se amparan en términos y condiciones difusos. Eliminan los perfiles solo si hay una denuncia formal, lo que obliga a las víctimas a emprender largos procesos legales que muchas veces no prosperan.
¿Qué se puede hacer?
Para proteger la identidad en línea, los expertos recomiendan limitar la exposición de imágenes personales en redes abiertas, configurar adecuadamente la privacidad en plataformas como Facebook, Instagram o LinkedIn, y utilizar buscadores inversos de imágenes —como Google Imágenes o Pimeyes— para verificar si el rostro está siendo usado sin consentimiento. En caso de detectar un uso indebido, se debe reportar a la plataforma correspondiente y, si es posible, a una autoridad competente.
Pero más allá de la prevención individual, el llamado es a una acción colectiva y estatal. Como señala Ruiz-Navarro: “No podemos seguir culpando a las víctimas por subir una foto. Necesitamos leyes, regulación a las plataformas y una educación digital con enfoque en derechos humanos”.
Entrar y enviar un comentario