Google Lens ahora puede expandir sus búsquedas a objetos y servicios cercanos

La firma de Mountain View avanza en su módulo de búsqueda visual. Gracias a Multisearch, Google Lens ahora puede encontrar información cercana a tu posición geográfica. La aplicación también mostrará pronto la realidad aumentada y los resultados en tiempo real sobre el entorno que te rodea.
Ejecutar una consulta en el motor de búsqueda de Google es tan fácil como escribir algunas palabras clave con un teclado. Sin embargo, si este gesto inocuo se ha vuelto bastante natural para algunos, para Google el futuro de la investigación online se hará de otra manera, aún más natural, gracias a las imágenes.
La empresa estadounidense que celebró ayer su conferencia anual I/O aprovechó la oportunidad para presentar las nuevas funcionalidades desplegadas en Google Lens, su módulo de búsqueda visual, pero también para levantar el velo sobre las importantes innovaciones que se avecinan.
Ver también vídeo:
)
Búsqueda múltiple en tu vecindario
Hace unas semanas, Google dio a conocer la llegada de "Multisearch" a su motor de búsqueda. Esta búsqueda múltiple, que permite combinar palabras clave, imágenes y voz en una sola consulta, ahora se puede utilizar para encontrar información local. Al incorporar la noción de ubicación, Google espera ayudarlo a encontrar lo que está buscando mirando primero cerca de donde se encuentra.
Para ilustrar este progreso, Google tomó el ejemplo de una persona a la que le gustaría probar un plato en particular. Al combinar una imagen (una foto o una captura de pantalla) de un plato cuyo nombre no conoces y asociarlo con las palabras clave "cerca de aquí" en una consulta enviada al motor de búsqueda, Google ahora puede ayudarte a encontrar restaurantes que sirvan este plato. cerca de su ubicación.
Para lograr esta hazaña, el buscador obviamente se apoya en la Inteligencia Artificial, pero también y sobre todo en la gigantesca biblioteca de datos que posee. Google escaneará millones de imágenes y reseñas publicadas en línea y en Google Maps para encontrar el restaurante que satisfará tus antojos. Tenga en cuenta, sin embargo, que esta búsqueda cercana múltiple inicialmente solo estará disponible en inglés.
Investigación en realidad aumentada y en tiempo real
Pero lo mejor probablemente esté por venir. De hecho, Google levantó el velo sobre Scene Exploration , una nueva función que podrá analizar una escena completa. Podrás enviar a Google Lens lo que tienes delante para lanzar una búsqueda múltiple, cuyos resultados se mostrarán en realidad aumentada y en tiempo real.
Aquí nuevamente, la empresa de Mountain View ilustró su concepto con un ejemplo concreto: estás en la sección de tabletas de chocolate y quieres seleccionar la mejor tableta de chocolate amargo, sin avellanas. Con Scene Exploration , todo lo que tiene que hacer es apuntar la cámara de su teléfono inteligente al radio y dejar que Google Lens escanee las diferentes tabletas dentro del radio. Luego, el módulo mostrará el resultado directamente en su pantalla en realidad aumentada. Google especifica, no obstante, que la exploración de escenas es una característica que llegará a Google Lens “en el futuro”, sin adelantar una posible fecha de disponibilidad.
Fuente: Google
Si quieres conocer otros artículos parecidos a Google Lens ahora puede expandir sus búsquedas a objetos y servicios cercanos puedes visitar la categoría Aplicaciones.
Deja una respuesta