La búsqueda visual de Google ahora puede responder preguntas aún más complejas

    4
    0
    La búsqueda visual de Google ahora puede responder preguntas aún más complejas


    Cuando Google Lens se introdujo en 2017la función de búsqueda logró una hazaña que no hace mucho habría parecido cosa de ciencia ficción: apunta la cámara de tu teléfono a un objeto y Google Lens puede identificarlo, mostrar algo de contexto y tal vez incluso permitirte comprarlo. Era una nueva forma de buscar, una que no implicaba escribir torpemente descripciones de las cosas que veías frente a ti.

    Lens también demostró cómo Google planeaba utilizar sus herramientas de aprendizaje automático e inteligencia artificial para garantizar que su motor de búsqueda aparezca en todas las superficies posibles. A medida que Google utiliza cada vez más sus modelos fundamentales de IA generativa para generar resúmenes de información en respuesta a búsquedas de texto, la búsqueda visual de Google Lens también ha ido evolucionando. Y ahora la compañía dice que Lens, que impulsa alrededor de 20 mil millones de búsquedas por mes, admitirá aún más formas de búsqueda, incluidas búsquedas por video y multimodales.

    Otro ajuste en Lens significa que en los resultados aparecerá aún más contexto para las compras. Como era de esperar, comprar es uno de los casos de uso clave de Lens; Amazon y Pinterest también tienen herramientas de búsqueda visual diseñadas para impulsar más compras. Busque las zapatillas de su amigo en el antiguo Google Lens y es posible que se le muestre un carrusel de artículos similares. En la versión actualizada de Lens, Google dice que mostrará enlaces más directos para compras, reseñas de clientes, reseñas de editores y herramientas de compra comparativas.

    La búsqueda de lentes ahora es multimodal, una palabra de moda en la IA en estos días, lo que significa que las personas ahora pueden buscar con una combinación de video, imágenes y entradas de voz. En lugar de apuntar la cámara de su teléfono inteligente a un objeto, tocar el punto de enfoque en la pantalla y esperar a que la aplicación Lens obtenga resultados, los usuarios pueden apuntar la lente y usar comandos de voz al mismo tiempo, por ejemplo, “¿Qué tipo de ¿Qué son esas nubes? o “¿Qué marca de zapatillas son esas y dónde puedo comprarlas?”

    Lens también comenzará a trabajar en la captura de video en tiempo real, llevando la herramienta un paso más allá de la identificación de objetos en imágenes fijas. Si tiene un tocadiscos roto o ve una luz intermitente en un electrodoméstico que no funciona correctamente en casa, puede grabar un video rápido a través de Lens y, a través de una descripción general de IA generativa, ver consejos sobre cómo reparar el artículo.

    Anunciada por primera vez en I/O, esta característica se considera experimental y está disponible sólo para personas que han optado por participar en los laboratorios de búsqueda de Google, dice Rajan Patel, Googler desde hace 18 años y cofundador de Lens. Las otras funciones de Google Lens, el modo de voz y las compras ampliadas, se están implementando de manera más amplia.

    La función de “comprensión de vídeo”, como la llama Google, es intrigante por varias razones. Si bien actualmente funciona con videos capturados en tiempo real, si Google lo expande a videos capturados, repositorios completos de videos, ya sea en el carrete de la propia cámara de una persona o en una base de datos gigantesca como Google, podrían potencialmente etiquetarse y ser abrumadoramente comprables.

    La segunda consideración es que esta característica de Lens comparte algunas características con el Proyecto Astra de Google, que se espera que esté disponible a finales de este año. Astra, al igual que Lens, utiliza entradas multimodales para interpretar el mundo que te rodea a través de tu teléfono. Como parte de una demostración de Astra esta primavera, la compañía mostró un par de prototipos de gafas inteligentes.

    Por separado, Meta acaba de causar sensación con su visión a largo plazo para nuestro futuro de realidad aumentada, que implica simplemente mortales con gafas tontas que pueden interpretar inteligentemente el mundo que los rodea y mostrarles interfaces holográficas. Google, por supuesto, ya intentó hacer realidad este futuro con gafas de google (que utiliza una tecnología fundamentalmente diferente a la del último lanzamiento de Meta). ¿Son las nuevas características de Lens, junto con Astra, una transición natural hacia un nuevo tipo de gafas inteligentes?



    Source link

    LEAVE A REPLY

    Please enter your comment!
    Please enter your name here