¿Inteligencia artificial engañosa? Investigación de la BBC revela “imprecisiones significativas” en resúmenes de noticias realizados por IA

Upscalemedia Transformed 11
Sin comentarios Facebook Twitter Flipboard E-mail
jimmy-pepinosa

Jimmy Pepinosa

Editor

En la industria de los medios de comunicación la inteligencia artificial ha experimentado un rápido auge debido a su capacidad para procesar grandes cantidades de información y generar resúmenes o borradores de noticias en poco tiempo, lo que ha permitido acelerar el ciclo de producción de textos y una cobertura más inmediata de eventos.

Sin embargo, esta evolución protagonizada por la IA también tendría sus consecuencias negativas para un sector que se ha visto en vilo debido a la rápida propagación de noticias falsas y desinformación en la web.

Al menos así lo confirmó un estudio reciente de la BBC que identificó problemas graves en la capacidad de los chatbots de inteligencia artificial para resumir noticias de manera precisa.

Qué dice la investigación de la BBC

Ia Bbc 1 (Pexels)

En su análisis de más de 24 páginas, la British Broadcasting Corporation se centró en cuatro de los principales modelos de IA: ChatGPT de OpenAI, Copilot de Microsoft, Gemini de Google y Perplexity AI.

Los resultados mostraron que estas herramientas generaban resúmenes con "imprecisiones significativas" y distorsiones de la información original.

Según el informe, el 51 por ciento de las respuestas generadas por estos sistemas presentaban problemas notables. Además, un 19 por ciento de las respuestas que citaban contenido de la BBC introducían errores fácticos, como datos numéricos y fechas incorrectas.

En algunos casos, los chatbots también confundían opinión con hechos y omitían información clave, lo que podría afectar la comprensión precisa de los eventos noticiosos.

Los riesgos de esta distorsión informativa

Ia Bbc 2 (Pexels)

Deborah Turness, CEO de BBC News and Current Affairs, alertó sobre los riesgos de la distorsión informativa por parte de la IA, advirtiendo que "vivimos en tiempos turbulentos, y ¿cuánto tiempo pasará antes de que un titular distorsionado por IA cause un daño significativo en el mundo real?".

Además, instó a las empresas tecnológicas a "retroceder" en la generación de resúmenes automatizados y colaborar con los medios para encontrar soluciones.

Ejemplos de errores identificados en el estudio incluyen a Gemini afirmó incorrectamente que el National Health Service (NHS) no recomienda el vapeo como método para dejar de fumar.

Por otra parte ChatGPT y Copilot mencionaron que el primer ministro Rishi Sunak y Nicola Sturgeon seguían en sus cargos a pesar de haber dejado sus posiciones.

Mientras que Perplexity atribuyó erróneamente declaraciones a la BBC sobre la situación en Medio Oriente, diciendo que Irán inicialmente mostró "moderación" y que Israel tuvo una actitud "agresiva".

El informe también destaca que Microsoft Copilot y Google Gemini presentaron mayores problemas en comparación con ChatGPT y Perplexity.

Un cambio de postura de la BBC

Ia Bbc 3 (Pexels)

La BBC permitió el acceso a su contenido para esta investigación en diciembre de 2024, pese a que normalmente bloquea el uso de sus noticias por parte de estas herramientas de IA.

Pete Archer, Director de Programas de Generative AI en la BBC, enfatizó la importancia de que los editores tengan control sobre el uso de su contenido y que las empresas de IA sean transparentes sobre la magnitud de los errores que sus herramientas pueden generar.

"Las empresas de IA deben mostrar cómo sus asistentes procesan noticias y el alcance de los errores e imprecisiones que producen", afirmó Archer.

Por su parte, OpenAI respondió a las preocupaciones, destacando sus esfuerzos por mejorar la exactitud de las citas y respetar las preferencias de los editores.

"Hemos colaborado con socios para mejorar la precisión de las citas en línea y respetar las preferencias de los editores", declaró un portavoz de la compañía.

Inicio
×

Utilizamos cookies de terceros para generar estadísticas de audiencia y mostrar publicidad personalizada analizando tu navegación. Si sigues navegando estarás aceptando su uso. Más información