No importa lo que hayas oído: Sam Altman no tiene un ‘botón rojo’ para ‘matar’ a ChatGPT

Existen numerosas teorías de conspiración que sugieren que el creador de OpenAI va a todas partes con un morral azul que contiene el interruptor de apagado definitivo para ChatGPT o GPT-4 en caso de que la IA se vuelva peligrosa.

Es una noción que Altman nunca ha confirmado y que, con toda probabilidad, pertenece más al mundo de las especulaciones de youtubers y usuarios de Reddit, pero que parece tener su base en las declaraciones del propio Altman, en una entrevista del año pasado con ABC.

En su conversación con Rebecca Jarvis -¿en serio? ¿Jarvis?-, la periodista preguntó a Altman si OpenAI tenía un "interruptor" que pudiera "apagar" su IA se volvía rebelde. La rápida respuesta de Altman fue un "sí".

Altman reveló que los ingenieros de OpenAI tienen el control definitivo sobre ChatGPT y explicó: "lo que realmente sucede es que cualquier ingeniero puede decir que vamos a desactivar esto por ahora. O vamos a implementar esta nueva versión del modelo".

Escenario de pesadilla

Pero hay un contexto clave que los conspiranoicos convenientemente dejan por fuera: Altman describió su escenario de pesadilla no como una IA todopoderosa que toma control del mundo, sino como una actor o actores humanos que logran poderla al servicio de una estrategia masiva de desinformación o de ciberataques a gran escala.

En ese caso, Altman dijo que lo que corresponde es apagar la IA, y que su compañía, obviamente, sabe cómo hacerlo.

Lo cierto es que, en repetidas oportunidades, Altman ha señalado que la idea de que una IA pueda volverse lo suficientemente poderosa como para eludir a sus programadores y tomar el control de todo el proceso en el mundo real puede suceder en una película de ciencia ficción, pero en un escenario realista esta está siempre ‘cautiva’ en un servidor.

Este año, en una conversación con The Economist en la que tomó parte el CEO de Microsoft, Satya Nadella, Altman fue más allá y declaró: “No hay un botón rojo”.

Lo cierto es que Altman sí es propenso a imaginar escenarios del tipo “qué es lo peor que podría pasar”. Un artículo en The New Yorker reveló, 2016, que el padre de ChatGPT es un ‘prepper’, que mantiene a la mano reservas de armas, oro, agua y otros suministros en caso, cómo no, de que el mundo efectivamente se acabe.

Ver todos los comentarios en https://www.xataka.com.co

VER 0 Comentario

Portada de Xataka Colombia