Los nuevos desarrollos que permiten simular gestos y movimientos de otra persona con los nuestros ya nos dejaron helados hace unos meses, pero ahora un grupo de investigadores de la Universidad de Washington ha dado otro paso en este ámbito, y uno que es tan sorprendente como inquietante.
Su tecnología se encarga de simular el movimiento de los labios con el del audio que le proporcionas, haciendo que la persona en pantalla parezca realmente que está diciendo lo que se oye. El efecto es particularmente espectacular cuando uno ve a Obama en un vídeo diciendo algo que efectivamente dijo, pero no en esos escenarios. Las posibilidades son interesantes, para bien... y para mal.
Verlo (y oírlo) para creerlo
Puede que si leéis el titular o el texto no lleguéis a entender el alcance de esta tecnología, y por eso os recomendamos ver estos vídeos en los que Barack Obama ha sido el protagonista de un inquietante ejemplo en el que se ve lo bien que funciona esa sincronización:
Es importante señalar que conseguir estos resultados no fue tarea fácil: los investigadores tuvieron que entrenar este motor basado en una red neuronal con varias horas de vídeos grabados de Barack Obama hablando, de forma que el sistema pudiera ir estableciendo correlaciones entre el movimiento de sus labios y los sonidos que se producían.
Por el momento el sistema solo funciona bien con el audio y el vídeo de una sola persona en pantalla, y es necesario como decimos tener el sistema varias horas trabajando para obtener esos resultados.
La tecnología no solo se podría usar para identificar vídeos falsos, sino que sus creadores piensan que podría ayudar a mejorar la calidad de las videoconferencias e incluso lograr que "conversemos" con figuras históricas si podemos crear la imagen a partir del audio, algo a lo que probablemente ayudaría también ese otro proyecto que permitía emular a cualquier otra persona con nuestros propios gestos, como se puede ver en el vídeo del que ya hablamos en marzo de 2016:
Estas dos tecnologías combinadas podrían dar lugar a un gran número de posibilidades, pero entre ellas es inevitable pensar en la creación de vídeos que logren influir en los que los ven y que sean total o parcialmente falsos al ser generados por este tipo de desarrollos. Ya hemos visto cómo en el ámbito de la política las noticias falsas podrían haber afectado a procesos electorales como el de los Estados Unidos del año pasado, y este nuevo avance abre desde luego nuevas puertas en ese peligroso escenario.
Vía | The Next Web
Más información | SIGGRAPH (PDF)
En Xataka | Google, Facebook y la guerra contra las noticias falsas: ¿deben ejercer de "ministerio de la verdad"?