Una de las grandes apuestas de Meta, el poderoso conglomerado tecnológico liderado por Mark Zuckerberg, es liderar la carrera del desarrollo de gafas inteligentes y en su más reciente avance, anunció la incorporación de “inteligencia artificial en vivo” (live AI) en sus smart glasses Ray-Ban Meta.
La llegada de esta tecnología en estos wearables también significa el arribo de funciones como traducciones en tiempo real, interacciones continuas con asistentes virtuales y la identificación de canciones mediante Shazam.
El propósito de la compañía con estas herramientas es consolidar a las gafas inteligentes como un accesorio esencial para la vida cotidiana en un mundo conectado. Zuckerberg no descarta el fin de la era de los móviles con masificación de esta tecnología.
En qué consiste live AI
Esta tecnología permite a los usuarios interactuar de manera constante con el asistente Meta AI, mientras este analiza su entorno en tiempo real. Por ejemplo, al mirar los productos en un supermercado, los usuarios podrían pedir sugerencias de recetas basadas en los ingredientes visibles.
Esto se logra mediante la combinación de cámaras frontales en las gafas y algoritmos avanzados que procesan la información visual al instante.
Otra característica innovadora es la capacidad de traducir conversaciones en tiempo real entre inglés y otros idiomas como español, francés e italiano. El usuario escucha las traducciones a través de los altavoces de las gafas o puede optar por ver transcripciones en su teléfono vía la aplicación Meta View.
Las nuevas funciones están disponibles para los participantes del programa Early Access de Meta en Estados Unidos y Canadá, mediante la actualización al firmware v11 y la versión 196 de la aplicación Meta View. Sin embargo, Shazam está disponible para todos los usuarios en estas regiones, sin necesidad de ser parte del programa.
Una categoría definida por la IA
Mark Zuckerberg, CEO de Meta, compartió su entusiasmo por las posibilidades que esta tecnología al asegurar que se está "construyendo un futuro donde los dispositivos como las gafas inteligentes no solo sean herramientas de comunicación, sino extensiones intuitivas de nuestras capacidades".
"Con la inteligencia artificial en vivo, damos un paso hacia un mundo más conectado y accesible para todos", concluyó el magnate.
Por su parte, Andrew Bosworth, director de tecnología de Meta, declaró que el 2024 fue el año en el que “las gafas de inteligencia artificial alcanzaron su punto álgido. Este es solo el comienzo de una categoría de dispositivos completamente definida por la inteligencia artificial”.
Aplicaciones prácticas y casos de uso
Con las traducciones en tiempo real, las gafas podrían eliminar barreras idiomáticas al interactuar con personas de diferentes culturas. Ya no será necesario depender de aplicaciones separadas o dispositivos adicionales.
Los usuarios también podrán preguntar a Meta AI sobre puntos de interés o detalles del lugar que están observando, como la historia de un edificio o recomendaciones en un vecindario.
Y en escenarios cotidianos como la cocina, el asistente podría sugerir platillos con base en los ingredientes que el usuario tiene frente a él.
Meta ha aclarado que, aunque estas funciones son prometedoras, el sistema aún está en etapa de mejora. Por ejemplo, las traducciones podrían no ser completamente precisas en conversaciones complejas, y la detección visual del entorno puede variar dependiendo de las condiciones de luz y otros factores.
Además, el uso continuo de la inteligencia artificial en vivo está limitado a aproximadamente 30 minutos por carga completa.
Ver todos los comentarios en https://www.xataka.com.co
VER 0 Comentario