En una carta publicada en la ONG Future of Life Institute, más de un millar de expertos y personalidades expresaron sus miedos sobre el desarrollo a larga escala de la inteligencia artificial y lanzaron un llamado para parar el despliegue de este tipo de modelos por al menos 6 meses.
La carta está firmada, entre otros, por Elon Musk, que desde hace mucho se ha opuesto a estas tecnologías, así como Steve Wozniak, cofundador de Apple, y Emad Mostaque, CEO de Stability IA (creadora de Stable Diffusion).
Los firmantes de la carta, expresan sus temores sobre ‘los riesgos profundos para la sociedad y la humanidad’ que puede tener este tipo de software.
'Más seguros y transparentes'
Según la carta, los laboratorios de IA están actualmente en una carrera fuera de control para desarrollar modelos de aprendizaje profundo que a veces nadie, ni siquiera sus creadores, puede entender, predecir o controlar de manera confiable.
"La investigación y el desarrollo de la IA deberían ser reenfocados en hacer que los sistemas de última generación poderosos y actuales sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales."
Por esta razón las más de 1.000 personalidades llaman a ‘congelar’ el desarrollo de tecnologías más potentes que GPT-4, el nuevo modelo de procesamiento de lenguaje que OpenAI presentó a inicios de marzo.
¿Es un riesgo real?
Curiosamente, aunque dentro la lista de firmas se incluyen algunas empresas de IA, como DeepMind o Stability IA, no vemos nombres por parte de OpenAI, que actualmente tiene tal vez la IA más potente en la forma de GPT-4 y su chatbot, Chat GPT.
De la misma forma se incluyen nombres de algunos ingenieros de empresas como Microsoft y Google, que actualmente están en medio de una de las peleas más significativas por implementar más y más productos basados en la IA generativa.
Aunque los miedos sobre una IA que pueda ganar consciencia y convertir a la Tierra en algo salido de The Matrix en realidad no tienen fundamento en este punto, sí es muy cierto que hemos empezado a ver usos inadecuados de la IA, como los deepfakes.
Justamente por esta razón, la carta enfatiza que es necesario que los desarrolladores de IA trabajen en conjunto con gobiernos y empresas para crear políticas claras y robustas para este tipo de tecnologías. “Podemos hacerlo aquí. Disfrutemos de un largo verano de la IA, en lugar de precipitarnos sin preparación hacia una caída”, cierra el texto.