El martes, Google mostró a los asistentes a su evento Google I/O lo que imagina sería el futuro de las búsquedas en Internet, que, queda claro, conlleva uno de los mayores cambios en el motor de búsqueda en su historia.
En lugar de una lista de enlaces a las páginas con la información, Google utilizará modelos de IA para combinar y resumir información de toda la web en respuesta a las consultas de búsqueda.
Eso va más allá de lo que conocíamos como Search Generative Experience en virtud de herramientas como AI Overviews, que utiliza el poderoso modelo de IA de la compañía, Gemini, para crear resúmenes que se presentan junto con los resultados de búsqueda tradicionales.
AI Overviews va más allá de simples resúmenes. Puede abordar preguntas complejas e incluso responder seguimientos en segundos, gracias a sus capacidades de "razonamiento múltiple". Esto significa que puede profundizar sin tener que salir de la página de búsqueda inicial.
Google, por supuesto, piensa que esto beneficia al usuario. Durante su intervención en el I/O, Liz Reid, jefa de la división de búsqueda de Google, dijo: "Solo pregunta y Google buscará por ti. La búsqueda generativa de IA hará más por ti de lo que jamás imaginaste".
Pero no todos creen que la llegada de la búsqueda “conversacional” sea una buena noticia. Algunas voces cuestionan que esta forma de procesar los resultados dará a Google todavía más poder sobre la información que reciben sus millones de usuarios y muchos otros temen que efectivamente destruirá el tráfico referido del que dependen incontables sitios web.
"Si toda la información del mundo va a ser absorbida en estas fauces y luego esencialmente reempaquetada en oraciones declarativas, en lo que llaman ‘chat’, pero no es un chat, no habrá más medios de comunicación, porque será imposible". --Barry Diller, presidente de IAC, en una conferencia el año pasado.
Project Astra y Gemini Pro
Pero la búsqueda no es la única área que recibe una actualización de IA. Google también anunció mejoras en su modelo insignia de IA, Gemini Pro.
Esta última iteración de Gemini cuenta con una ventana de contexto duplicada, lo que le permite procesar información y responder preguntas sin la tradicional -y molesta- pausa de un par de segundos.
El futuro de la asistencia de IA también ocupó un lugar central en el I/O con la presentación del Proyecto Astra. Este ambicioso frente de investigación prevé un asistente de IA basado en teléfonos inteligentes que usa la cámara para identificar objetos y ubicaciones.
Imagínate apuntar tu teléfono a un libro y obtener información instantánea sobre su autor, o tomar una foto de un punto de referencia y que su historial se muestre en su pantalla.
Demis Hassabis, director de Google DeepMind, describió el Proyecto Astra como "un agente de IA multimodal y universal que puede ser realmente útil en la vida cotidiana". En la demostración lo vimos analizando de manera ágil los objetos en una oficina.
El enfoque en la accesibilidad se extendió a un nuevo modelo llamado Gemini 1.5 Flash. Diseñado para aplicaciones que exigen baja latencia y rentabilidad, Flash ofrece el poder del razonamiento multimodelo a una fracción del costo, dice Google, de su contraparte Pro.
Y en lo que se toma como una respuesta a Sora, de Open AI, Google mostró su destreza en video generado por IA con Veo, un modelo de texto a video capaz de generar imágenes generadas por computador basadas en indicaciones escritas.
Este es un resumen en video de la conferencia inaugural del Google I/O 2024:
Ver 1 comentarios