En una carta publicada en la ONG Future of Life Institute, más de un millar de expertos y personalidades expresaron sus miedos sobre el desarrollo a larga escala de la inteligencia artificial y lanzaron un llamado para parar el despliegue de este tipo de modelos por al menos 6 meses.
La carta está firmada, entre otros, por Elon Musk, que desde hace mucho se ha opuesto a estas tecnologías, así como Steve Wozniak, cofundador de Apple, y Emad Mostaque, CEO de Stability IA (creadora de Stable Diffusion).
Los firmantes de la carta, expresan sus temores sobre ‘los riesgos profundos para la sociedad y la humanidad’ que puede tener este tipo de software.
'Más seguros y transparentes'
Según la carta, los laboratorios de IA están actualmente en una carrera fuera de control para desarrollar modelos de aprendizaje profundo que a veces nadie, ni siquiera sus creadores, puede entender, predecir o controlar de manera confiable.
"La investigación y el desarrollo de la IA deberían ser reenfocados en hacer que los sistemas de última generación poderosos y actuales sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales."
Por esta razón las más de 1.000 personalidades llaman a ‘congelar’ el desarrollo de tecnologías más potentes que GPT-4, el nuevo modelo de procesamiento de lenguaje que OpenAI presentó a inicios de marzo.
¿Es un riesgo real?
Curiosamente, aunque dentro la lista de firmas se incluyen algunas empresas de IA, como DeepMind o Stability IA, no vemos nombres por parte de OpenAI, que actualmente tiene tal vez la IA más potente en la forma de GPT-4 y su chatbot, Chat GPT.
De la misma forma se incluyen nombres de algunos ingenieros de empresas como Microsoft y Google, que actualmente están en medio de una de las peleas más significativas por implementar más y más productos basados en la IA generativa.
Aunque los miedos sobre una IA que pueda ganar consciencia y convertir a la Tierra en algo salido de The Matrix en realidad no tienen fundamento en este punto, sí es muy cierto que hemos empezado a ver usos inadecuados de la IA, como los deepfakes.
Justamente por esta razón, la carta enfatiza que es necesario que los desarrolladores de IA trabajen en conjunto con gobiernos y empresas para crear políticas claras y robustas para este tipo de tecnologías. “Podemos hacerlo aquí. Disfrutemos de un largo verano de la IA, en lugar de precipitarnos sin preparación hacia una caída”, cierra el texto.
Ver todos los comentarios en https://www.xataka.com.co
VER 0 Comentario