OpenAI advierte sobre la posible dependencia emocional causada por su nuevo modelo de IA

OpenAI, una de las organizaciones líder en inteligencia artificial, subió un comunicado en donde advierte sobre los riesgos emocionales asociados con su nuevo modelo de IA avanzado.

La advertencia se centra en la posibilidad de que los usuarios desarrollen una dependencia emocional hacia las interacciones con esta IA, que ha sido diseñada para mantener conversaciones más naturales y empáticas que sus predecesores.

OpenAI señaló que su modelo GPT-4o presenta un riesgo "moderado" en cuanto a su capacidad de persuasión, especialmente en interacciones textuales, y que puede llevar a los usuarios a desarrollar una dependencia emocional, particularmente debido a sus avances en tecnología de voz y audio.

El modelo, que ha sido entrenado con grandes cantidades de datos para comprender y responder de manera más humana, puede crear la ilusión de una relación personal.

Esto puede llevar a que algunos usuarios experimenten una conexión emocional más profunda de lo que es saludable, especialmente si utilizan la IA como un sustituto de interacciones humanas reales.

Investigación

Recientemente, la compañía publicó un informe interno titulado 'Tarjeta de Sistema de su modelo GPT-4o' ('GPT-4o System Card'), en el cual se exponen los resultados de la investigación sobre la seguridad de este modelo de IA generativa.

El informe detalla que se ha evaluado exhaustivamente el modelo para identificar posibles riesgos, lo que ha permitido implementar medidas de seguridad antes de su uso en ChatGPT o en la API.

Una de las funciones más preocupantes es que esta inteligencia artificial puede  simular diálogos entre personajes, que es útil para escritores, guionistas o incluso para entrenamiento en habilidades de comunicación.

La empresa resaltó que su investigación identificó un riesgo "moderado" en las capacidades de persuasión del modelo, y ha alertado sobre el riesgo de antropomorfización, el cual podría llevar a los usuarios a desarrollar una dependencia emocional al confiar en la IA debido a sus características similares a las humanas.

De las cuatro categorías generales de riesgo, que incluyen ciberseguridad, amenazas biológicas, autonomía del modelo y persuasión, OpenAI detectó este nivel de riesgo en la última. 

Esto es especialmente relevante en el formato de texto del modelo, donde los investigadores observaron que GPT-4o tiene la capacidad de influir en las opiniones de los usuarios.

Por su parte, OpenAI subrayó la importancia de utilizar la tecnología de manera consciente y equilibrada, recordando a los usuarios que, aunque la IA puede ofrecer compañía y apoyo en ciertos contextos, no debe reemplazar las relaciones humanas auténticas. 

Además, han instado a la comunidad tecnológica y a los desarrolladores a considerar las implicaciones éticas y emocionales de sus creaciones.

Este anuncio subraya la necesidad de establecer límites claros en el uso de la inteligencia artificial y de continuar investigando los efectos a largo plazo que estas interacciones pueden tener en la salud mental de los usuarios.


Ver todos los comentarios en https://www.xataka.com.co

VER 0 Comentario

Portada de Xataka Colombia