Deepfakes en Colombia: el video de Luis Díaz, hecho con IA, que está siendo utilizado para promover estafas

Luis Díaz Deepfake
Sin comentarios Facebook Twitter Flipboard E-mail

Un video que pretende ser de una emisión de Noticias Caracol, en el que se usa ampliamente la imagen del futbolista colombiano Luis Díaz, se está utilizando para promover lo que sería una estafa que ha ganado tracción en redes sociales.

El clip, de tan solo un minuto de duración, muestra también a la presentadora barranquillera Andrea Murgas, pasando casualmente del registro de un triunfo del deportista en las canchas, a darle paso para que hable de “un nuevo proyecto creado para ayudar a la población de Colombia”.

Todo en el clip grita FAKE: las voces con entonaciones robóticas, los movimientos irreales de los labios y la redacción de absolutamente cada línea de texto y, sin embargo, si alguien lo ve desprevenidamente, podría fácilmente creer que está ante una noticia real.

El falso Luis Díaz transmitiendo el mensaje de la estafa sin virtuosismo, pero con claridad: "Crecí en una familia pobre y quiero ayudar a los colombianos. Daniela y yo creemos que todos merecen ser independientes económicamente y sin límites. Creamos este proyecto para cambiar vidas, solo necesitas teléfono e internet para participar. Seguro y rápido, multiplica tu inversión en pocas horas. Escucha testimonios de otros".

¿Cuál es el proyecto de Daniela Reyes en Colombia?

La tal “Daniela Reyes”, que el video parece sugerir es la pareja de Luis Díaz, es, en este punto, un misterio. La madre de los dos hijos del futbolista es la también colombiana Geraldine Ponce, así que la repetida mención de “Daniela” es otra mentira que queda, por ahora, sin explicación.

El video cierra con varias familias en voces absolutamente inverosímiles, explicando cómo les cambió la vida con el proyecto. En el clip que conocimos no se explican los pasos que hay que dar para participar.

Pero de seguro hay versiones que sí muevan a la acción, y si por casualidad una llega a ti, ten cuidado. Después de todo, el video es falso, y no hay razones para creer que el tan alabado proyecto no lo sea.

Deepfakes, en aumento

Este tipo de estafas está ganando fuerza, y no solo en Colombia. La tecnología empleada se llama deepfake. En los últimos años, el panorama digital ha sido testigo de un gran crecimiento en las organizaciones que usan esta técnica, que superponer el rostro de una persona en el cuerpo de otra para, esencialmente, ponerla a decir o hacer lo que se desee. El avance de la IA permite, también generar personajes completamente digitales.

Tomen, por ejemplo, este clip de "Morgan Freeman":

Los deepfakes aprovechan la inteligencia artificial para crear imágenes, videos o grabaciones de audio realistas pero fabricadas, que parecen genuinas pero que en realidad son falsas.

Estos archivos multimedia manipulados implican la superposición de la cara o la alteración de la voz, las expresiones faciales y los movimientos corporales en los videos.

Recientemente, contenido de carácter sexual -fotos sumamente realistas de Taylor Swift en orgías o en escenas muy gráficas- circuló ampliamente en X (antes, Twitter). También se conoció el caso de un ejecutivo de un banco en Hong Kong que giró una suma millonaria tras una reunión con miembros de su junta directiva, incluyendo a su CFO. Todos los asistentes resultaron ser deepfakes.

El tema es particularmente complejo ante la virtual ausencia de controles en plataformas como X, cuyo propietario, el multimillonario Elon Musk, ha adoptado una actitud de libertad de expresión a rajatabla hacia las publicaciones en el sitio desde que lo compró en 2022, revisando sus políticas de moderación de contenido y reactivando cuentas que habían sido suspendidas por violar los términos de la red.

Comentarios cerrados
Inicio