La Búsqueda de Google está obteniendo una gran cantidad de nuevas funciones, anunció la compañía en su evento ‘Search On’, y muchas de ellas garantizarán resultados más ricos y enfocados visualmente. “Vamos mucho más allá del cuadro de búsqueda para crear experiencias de búsqueda que funcionen más como nuestras mentes, que sean tan multidimensionales como las personas. A medida que ingresamos en esta nueva era de búsqueda, podrá encontrar exactamente lo que está buscando al combinar imágenes, sonidos, texto y voz. A esto lo llamamos hacer que la búsqueda sea más natural e intuitiva”, dijo Prabhakar Raghavan, vicepresidente sénior de búsqueda de Google durante el discurso de apertura. Primero, Google está expandiendo la función de búsqueda múltiple, que introdujo en versión beta en abril de este año, al inglés a nivel mundial y llegará a 70 idiomas más en los próximos meses. La función de búsqueda múltiple permite a los usuarios buscar varias cosas al mismo tiempo, combinando imágenes y texto. La función también se puede usar junto con Google Lens. Según Google, los usuarios confían en su función Lens casi ocho mil millones de veces al mes para buscar lo que ven. Pero al combinar Lens con búsqueda múltiple, los usuarios podrán tomar una foto de un artículo y luego usar la frase “cerca de mí” para encontrarlo cerca. Google dice que esta “nueva forma de búsqueda ayudará a los usuarios a encontrar y conectarse con negocios locales”. La “búsqueda múltiple cerca de mí” comenzará a implementarse en inglés en los EE. UU. a finales de este otoño.
Compras en la Búsqueda de Google cuando se utiliza con la función de búsqueda múltiple. (Imagen: Google) “Esto es posible gracias a una comprensión profunda de los lugares locales y el inventario de productos. informado por los millones de imágenes y reseñas en la web”, dijo Raghavan con respecto a la búsqueda múltiple y Lens. Google está mejorando cómo se mostrarán las traducciones sobre una imagen. Según la compañía, las personas usan Google para traducir texto en imágenes más de mil millones de veces al mes, en más de 100 idiomas. Con la nueva función, Google podrá “combinar texto traducido en imágenes complejas, para que se vea y se sienta mucho más natural”. Por lo tanto, el texto traducido se verá más uniforme y como parte de la imagen original, en lugar de que el texto traducido se destaque. Según Google, está utilizando “redes antagónicas generativas (también conocidas como modelos GAN), que es lo que ayuda a impulsar la tecnología detrás de Magic Eraser en Pixel”, para garantizar esta experiencia. Esta función se implementará más adelante este año. También está realizando mejoras en su aplicación iOS, donde los usuarios podrán acceder a accesos directos justo debajo de la barra de búsqueda. Esto ayudará a los usuarios a comprar usando sus capturas de pantalla, traducir cualquier texto con su cámara, encontrar una canción y más.
Google Maps también está obteniendo algunas funciones nuevas que brindarán más información visual, aunque la mayoría de estas se limitarán a ciudades seleccionadas. Por un lado, los usuarios podrán verificar el ‘ambiente del vecindario’, lo que significa averiguar los lugares para comer, los lugares para visitar, etc., en una localidad en particular. Esto atraerá a los turistas que podrán utilizar la información para conocer mejor un distrito. Google dice que está utilizando “IA con conocimiento local de los usuarios de Google Maps” para brindar esta información. El ambiente de vecindario comenzará a implementarse globalmente en los próximos meses en Android e iOS. También está ampliando la función de vista inmersiva para permitir a los usuarios ver 250 vistas aéreas fotorrealistas de puntos de referencia mundiales que abarcan todo, desde la Torre de Tokio hasta la Acrópolis. De acuerdo con la publicación del blog de Google, utiliza “modelos predictivos” y así es como la vista inmersiva aprende automáticamente las tendencias históricas de un lugar. La vista inmersiva se implementará en los próximos meses en Los Ángeles, Londres, Nueva York, San Francisco y Tokio en Android e iOS. Los usuarios también podrán ver información útil con la función Live View. La función de búsqueda con Live View ayuda a los usuarios a encontrar un lugar a su alrededor, por ejemplo, un mercado o una tienda mientras caminan. Search with Live View estará disponible en Londres, Los Ángeles, Nueva York, San Francisco, París y Tokio en los próximos meses en Android e iOS. También está expandiendo su función de enrutamiento ecológico, que se lanzó anteriormente en los EE. UU., Canadá y Europa, a desarrolladores externos a través de Google Maps Platform. Google espera que las empresas de otras industrias, como la entrega o los servicios de viajes compartidos, tengan la opción de habilitar rutas ecológicas en sus aplicaciones y medir el consumo de combustible.
Uber está mejorando sus implementaciones de IoT en todo el mundo mediante la adopción de…
Obras de motor de materia y Bharti Airtel, un proveedor de servicios de telecomunicaciones ha…
En The Legend of Zelda: Breath of the Wild, los guardianes son una forma primitiva…
Muchos de nosotros nos enamoramos absolutamente de Wall-E, el personaje principal de una…
Dhruv Bhutani / Android AuthorityCada año, los fanáticos de los teléfonos inteligentes esperan con ansias…
Apple ha anunciado que Final Cut Pro finalmente llegará para el iPad. Tras años de…