A busca simultânea e interativa por texto e imagem (multibusca) acaba de ser anunciada pelo Google para português do Brasil e outros 70 idiomas. A novidade, que já estava disponível globalmente em inglês, deve chegar nos próximos dias por aqui.
Com o recurso, vai ser possível tirar uma foto — ou usar uma imagem ou screenshot guardado no celular — para pesquisar com uma pergunta em texto ou em áudio. A ferramenta será parte do Google Lens, que já permitia a busca a partir de imagens, mas não permitia unir texto e foto.
Algumas das possibilidades de interação entre imagem e texto são:
usar um screenshot de uma saia rosa com o texto “azul” para achar a peça de roupa em outra cor;
juntar uma foto do guarda-roupa com o texto “cômoda” para achar um móvel que combine com o da imagem;
adicionar “instruções de cuidados” à foto de uma planta.
O algoritmo vai cruzar as informações de texto e imagem e procurar por resultados satisfatórios. Como o Google usa aprendizado de máquina, o refinamento das pesquisas será contínuo a partir do contexto oferecido à inteligência artificial do buscador.
Uso de geolocalização
O multisearch tem, ainda, o recurso “perto de mim”. A partir da imagem de um prato de comida ou de um acessório, ele vai encontrar produtos similares nas proximidades. Essa tecnologia, por enquanto, só tem previsão de chegada aos EUA ainda neste ano.
A empresa promete, ainda, facilitar a tradução de textos até em imagens complexas. O Google Lens não vai mais cobrir o texto original, vai apagá-lo e recriá-lo na foto. O aprimoramento deve ser lançado até o fim de 2022.
A plataforma quer mostrar cada vez mais informações em imagens e vídeos. Com isso, ao pesquisar o nome de uma cidade, por exemplo, a página vai apresentar stories e vídeos curtos do local (semelhantes às buscas de Instagram e TikTok).
Avanços no Google Maps
Outro serviço que deve receber melhorias é o Google Maps (a maioria delas, entretanto, ainda não tem data de chegada ao Brasil). Uma das que têm previsão de lançamento global nos próximos meses é a “neighborhood vibe”, cujo objetivo de facilitar a avaliação de um bairro pelo Maps a partir de fotos, informações e classificações de usuários.
Para ajudar turistas a se ambientarem às cidades, a função “visão imersiva” vai combinar em uma mesma interface imagens aéreas panorâmicas, informações sobre tempo, temperatura e trânsito em diferentes horários e dias da semana. Nos próximos meses, ela estará disponível em Los Angeles, Londres, Nova York, São Francisco e Tóquio.
Essas mesmas localidades receberão atualização do “live view”, que permite pesquisas interativas com geolocalização. Basta abrir a câmera no Maps e aponta para uma área qualquer para que o sistema identifique lojas, caixas eletrônicos e restaurantes nas proximidades.
Com Itatiaia