Google apresenta novo modelo de busca com IA que compreende e realiza tarefas.

O significado essencial de “pesquisar” no Google—que envolve digitar palavras-chave e explorar links, imagens e trechos de informações—está quase obsoleto, conforme divulgado pelo Google. O gigante da busca apresentou sua visão para o futuro das pesquisas na web, nesta terça-feira (20), introduzindo uma série de atualizações que pretendem transformar o mecanismo de busca do Google, de uma simples ferramenta de palavras-chave para um sistema de “agentes digitais” que podem percorrer a web e fornecer respostas baseadas no ambiente e nas preferências reais do usuário.

Em um momento em que editores, especialmente os independentes, expressam preocupações sobre como a crescente presença de respostas geradas por IA pode impactar seus negócios, o Google apresentou essas novidades durante sua conferência anual de desenvolvedores. As atualizações ressaltam que o principal negócio do Google está enfrentando uma concorrência acirrada como nunca antes. Chatbots como o ChatGPT e mecanismos de busca baseados em IA, como o Perplexity, oferecem alternativas eficientes para encontrar informações e realizar tarefas, que são centrais no negócio tradicional do Google. As ferramentas apresentadas são vistas como uma tentativa de demonstrar que seu mecanismo de busca, que existe há quase 30 anos, ainda mantém relevância na era da IA.

Sundar Pichai, CEO do Google e da empresa controladora Alphabet, comentou em uma coletiva de imprensa: “Estamos adentrando em uma nova etapa de transformações na plataforma de IA, onde décadas de pesquisa finalmente se tornam realidade para pessoas, empresas e comunidades ao redor do mundo”.

O Google está ampliando o “Modo IA”, que antes estava disponível somente para usuários que se inscreveram para testar as funcionalidades iniciais através do programa Labs, agora para todos os usuários nos EUA pelo aplicativo Google. Este novo recurso vai além das Respostas de IA, que já aparecem no topo dos resultados de busca. A principal diferença é que o Modo IA processa as consultas de maneira mais detalhada, dividindo-as em subtópicos e realizando buscas complementares para proporcionar respostas mais precisas.

Além de abordar as perguntas, espera-se que o Modo IA ofereça duas novas abordagens principais de pesquisa. Uma delas realizará tarefas em nome do usuário, enquanto a outra permitirá que o Google mostre os arredores usando a câmera do celular. Embora o Modo IA já esteja acessível nos EUA, essas funcionalidades requererão inscrição adicional no Labs.

A tecnologia Project Mariner, que foi apresentada como um protótipo no ano passado, será capaz de executar algumas tarefas por conta do usuário e responder a perguntas que normalmente exigiriam múltiplas etapas. Por exemplo, o usuário pode solicitar “Encontre dois ingressos baratos para um jogo de futebol neste domingo no nível inferior”, e o Google irá procurar ingressos, analisar opções e preços, preencher formulários de forma autônoma e exibir as opções que atendem aos critérios estabelecidos.

Inicialmente, essa tecnologia estará disponível para compra de ingressos, reservas em restaurantes e agendamentos locais através de serviços como Ticketmaster, StubHub, Resy e Vagaro, e deve ser integrada ao aplicativo Google nos próximos meses. O Modo IA também incluirá um novo recurso que permitirá aos usuários fazer perguntas sobre o que está ao seu redor. A busca visual já existe no Google; a ferramenta Lens possibilita que os usuários consultem informações sobre fotos que clicaram, mas essa nova abordagem leva essa ideia ainda mais longe ao exigir que o Google reconheça o que uma pessoa está visualizando em tempo real.

O intuito é facilitar a resposta do Google a perguntas sobre tarefas complexas, como verificar se um determinado parafuso é do tamanho correto para um suporte de bicicleta, bastando apontar o celular para o objeto e perguntar. Já foi introduzida essa capacidade de busca visual no assistente Gemini do Android, que agora está se expandindo para o iPhone, e as recentes atualizações mostram que o Google considera essa funcionalidade essencial para o futuro do seu mecanismo de busca.

O Google enfrenta uma dura concorrência, principalmente pela crescente presença de serviços de IA de empresas como OpenAI e Perplexity, além de rivais do setor tecnológico, como Apple, Amazon e Microsoft, que estão aprimorando seus assistentes virtuais com recursos de IA avançados. A OpenAI, como concorrente direta do Google no espaço de assistentes de IA, lançou seu próprio mecanismo de busca. Essa competição se tornou mais evidente quando Eddy Cue, executivo da Apple, revelou que as buscas no Google através do navegador Safari apresentaram um declínio em abril, pela primeira vez desde 2002.

Embora o Google tenha contestado essa afirmação, alegando um crescimento geral nas buscas, incluindo aquelas originadas de dispositivos Apple, a empresa de pesquisa Gartner estimou que o volume de buscas pode diminuir em até 25% até 2026, à medida que mais consumidores adotem ferramentas de IA. No entanto, Pichai afirmou que as atualizações são reflexo das novas formas com que as pessoas estão interagindo com o mecanismo de busca da empresa. “Quando olho para o futuro, percebo vislumbres de um mundo proativo”, concluiu.

Referência da matéria: https://www.cnnbrasil.com.br/tecnologia/google-lanca-modelo-de-busca-com-ia-que-entende-e-executa-tarefas-veja/

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima