Se dice que en 1897, en la antesala a la guerra de independencia cubana, el magnate de los medios William Randolph Hearst envió a uno de sus reporteros gráficos a La Habana. El fotógrafó envió, en su primer día en la isla, un telegrama en el que le decía a su patrón que, sencillamente, no había guerra para cubrir. Hearst respondió: "Tú pon las fotos, yo pongo la guerra".
Incluso si se duda de la anécdota, como en efecto dudan muchos historiadores, pocos cuestionarían el impacto de la fotografía -y, eventualmente, el video- en la forma en que la sociedad percibe los conflictos. Fotos icónicas como la de la niña del Napalm o como la de una ejecución sumaria en pleno centro de Saigón ayudaron a definir la guerra de Vietnam en la conciencia colectiva.
Sin embargo, a medida que tecnologías como la inteligencia artificial y los deepfakes (un video, una imagen o un audio generado que imita la apariencia y el sonido de una persona) se abren paso y se hacen más asequibles y convincentes, las imágenes manipuladas o totalmente generadas por IA plantean un problema creciente para quienes desean informar o estar informados en tiempos de guerra, algo que ha quedado dolorosamente probado durante los hechos recientes de la franja de Gaza.
La desinformación en los hechos de Gaza comenzó desde el inicio de la guerra el 7 de octubre, pero la mayor parte de los hechos cuestionables tenían como sustento fotos y videos antiguos o de otros lugares y podían, en ese sentido, ser fácilmente desmentidos. Pero ahora estamos viendo imágenes sin contexto o fuente, que son para todos los propósitos imposibles de rastrear. Esto se debe a que se han generado utilizando inteligencia artificial (IA).
Quizá la más ampliamente difundida de estas imágenes haya sido esta, que parece mostrar a una bebé parcialmente cubierta de escombros.
El encuadre no permite discernir cuándo o dónde fue tomada la imagen y por eso muchas veces la respuesta de quienes la ven es puramente emocional.
Pero si se examinan sus características, se hace imposible dejar de ver las señales de la IA, como la expresión irrealmente exagerada y, sobre todo, la monstruosidad que son esos dedos.
Precisamente por la ausencia de detalles, la foto es convenientemente multipropósito. Fue usada en redes sociales en febrero de este año, después de los terremotos que azotaron Turquía y Siria.
Ahora que fue lanzada en el contexto de Gaza, la foto ha sido compartida cientos de veces, particularmente aprovechando la falta de controles de contenido falso o manipulado en plataformas como X (anteriormente, Twitter), en donde parece que el único recurso para refutarla son las Notas de la Comunidad, e incluso algunos medios, como los periódicos franceses Liberation y Le Figaro, la han usado en sus publicaciones, solo para borrarla al descubrir el engaño.
Otra imagen falsa, quizás un poco más fácil de detectar, es una instantánea que se asegura es un padre palestino llevando a sus hijos entre las ruinas tras un bombardeo israelí.
La escena es, a primera vista, dolorosa y dramática, hasta que uno empieza a analizar el amasijo de brazos y piernas que la IA todavía no puede descifrar. Los rostros de los niños y la espeluznante silueta del fondo terminan por revelar la farsa.
No solo Gaza, no solo IA
Pero no todas las imágenes manipuladas son necesariamente fotos ni requieren necesariamente del uso de IA.
La semana pasada circuló un supuesto comunicado de la Casa Blanca, alterado con técnicas básicas, para sugerir que Washington había entregado 8.000 millones de dólares a Israel en ayudas de urgencia para que continuara "sus esfuerzos de guerra" contra la Franja de Gaza.
Y, claro, están bulos como este, que no tuvo problema en usar las imágenes del videojuego Arma 3, de los estudios Bohemia Interactive, para desinformar con lo que se asegura el supuesto derribo de un helicóptero de las IDF. En serio, hay que fijarse bien antes de compartir.
Por ese motivo, la vicepresidenta de la Comisión Europea, Vera Jourova, la máxima funcionaria del bloque en materia de libertad de prensa y de expresión, lanzó una dura advertencia a Twitter (X) y a su jefe Elon Musk sobre la lucha contra la desinformación. En particular, al organismo le preocupa que no se actúe para controlar la desinformación políticamente motivada.
Porque no es solo Gaza. También en Ucrania hemos visto el uso de IA. El caso más sonado fue un deepfake en el que el presidente ucraniano, Volodymyr Zelenskyy, aparecía pidiendo a sus ciudadanos deponer las armas y rendirse a las tropas rusas.
Los expertos en inteligencia artificial aseguran que el deepfake de Zelenskyy, ocurrido en marzo, es el primer caso documentado, “intencionado y ampliamente engañoso", de esta clase de esfuerzos de desinformación la guerra de Ucrania.