Experimentei os novos óculos inteligentes da Google e posso dizer: é um futuro que eu realmente gostaria de viver.

Na semana passada, nas instalações do escritório do Google ao longo do rio Hudson, experimentei um par de óculos Android XR e conversei com o Gemini enquanto caminhava pelo ambiente. Esses não eram os modelos da Warby Parker ou Gentle Monster que foram anunciados no Google I/O em maio, mas sim um kit de desenvolvimento que em breve ficará disponível para desenvolvedores Android em todo o mundo. Os testes, que variavam de assistência visual a navegação giroscópica, ocorreram de forma surpreendentemente eficiente. Em um momento, questionei o Gemini pedindo uma receita de salada de frutas, mas a resposta foi uma sugestão de molho de tomate mais tradicional, o que evidencia tanto a inteligência do Gemini quanto o hardware multimodal dos óculos.

Ao final da minha apresentação, troquei os óculos Android XR pelo headset Galaxy XR da Samsung e um par que está por vir, chamado Project Aura. Essa transição fluida entre os dispositivos vestíveis, que também utilizarão o seu celular Android e smartwatch para funcionalidades adicionais, é uma das grandes apostas do Google para 2026. Com o que observei, essa nova realidade não pode chegar logo o suficiente.

A visão do Google para os óculos de IA se divide em duas vertentes: uma com apenas áudio e câmera, semelhante aos Ray-Bans da Meta, e outra que integra uma tela para fornecer pistas visuais e interfaces flutuantes, como os Ray-Bans Display da Meta. Existe uma competição evidente nesse campo. Entretanto, o Google já possui uma grande vantagem antes mesmo de lançar seus produtos: um ecossistema de software bem consolidado, com a Developer Preview 3 do SDK Android XR (incluindo APIs) programada para ser lançada esta semana.

Não falamos apenas de serviços como Gmail, Meet e YouTube, como os produtos da Meta. A vasta quantidade de aplicativos Android de terceiros, widgets para a tela inicial e painéis de notificação, além de produtos de hardware, deverá, teoricamente, integrar-se de forma fluida ao sistema operacional Android XR. Obtive uma prévia disso ao solicitar um carro da Uber para o escritório do Google até a terceira pizzaria mais bem avaliada em Staten Island. Além de mostrar um caminho de navegação até o local do meu carro, a tela dos óculos projetou as informações do motorista quando cheguei perto. Essa funcionalidade é extraída diretamente do aplicativo nativo do Uber para Android, representando bem como será fácil desenvolver para essa plataforma vestível.

Outro aspecto interessante durante a demonstração foi como o Gemini ofereceu um contexto ambiental assim que coloquei os óculos. Em vez de perguntar ao assistente sobre a minha localização ou o clima, a experiência com Android XR começou com um resumo das informações contextuais e um convite para perguntas adicionais. Esse detalhe proporciona uma interação mais natural com o assistente.

Como mencionei anteriormente, também testei o headset Samsung Galaxy XR, mas desta vez com novos recursos, como o PC Connect, que se conecta a um PC ou laptop Windows para uma experiência de visualização mais imersiva; modo de viagem, que melhora a ancoragem durante os movimentos; e Likeness, um gerador de avatares digitais que lembra os Spatial Personas da Apple. Como usuário do Windows, fiquei principalmente interessado no recurso PC Connect, que me permitiu projetar uma tela muito maior (embora virtualmente) do jogo "Stray". Com um controle sem fio em mãos, a resposta aos comandos foi surpreendentemente ágil, e a qualidade da imagem manteve-se estável em termos de taxa de atualização.

Entretanto, o que realmente chamou a atenção foi um par de óculos Xreal, chamado Project Aura, que se mostrou mais portátil e confortável de usar. Este produto foi anunciado pela primeira vez no Google I/O meses atrás, e ao utilizar o modelo pela primeira vez percebi que o futuro dos computadores de rosto confortáveis não está tão distante. O Project Aura apresenta um campo de visão de 70 graus, complementado pela funcionalidade de tonalização da Xreal, que aumenta o brilho. Ele opera na mesma plataforma Android XR que o headset Galaxy XR, permitindo gestos de pinçar e arrastar, visualizar várias janelas flutuantes simultaneamente (inclusive através do PC Connect) e acessar diversos aplicativos Android no celular.

A grande dúvida em relação ao Project Aura é o preço. A linha atual de óculos de realidade estendida da Xreal varia de R$ 1.500 a R$ 3.200. Com o desempenho aprimorado e a inovação do Project Aura, eu esperaria que seu preço se aproximasse da faixa de R$ 5.000 no lançamento. O Google e a Xreal ainda não divulgaram uma data oficial de lançamento para os óculos, mas me sugeriram que eles devem chegar no final do próximo ano.

Em resumo, minha experiência com as demonstrações do Android XR do Google confirma que a competição no campo da computação vestível está se intensificando, impulsionada menos por conceitos especulativos e mais por integração funcional de hardware e software. A força central da estratégia do Google reside não apenas na inteligência do Gemini, mas em aproveitar o ecossistema Android já estabelecido. Isso deve ser uma boa notícia para os desenvolvedores.

Minhas demonstrações não foram isentas de problemas e falhas, como costuma ocorrer com a maioria dos produtos em beta, mas a ideia de transitar fluidamente entre diferentes dispositivos, de kits de desenvolvedores volumosos até os óculos Project Aura, sublinha o compromisso do Google com a flexibilidade. No final, isso sugere que a visão da empresa para 2026, com óculos inteligentes multifuncionais e integrados, não é apenas uma estratégia de marketing, mas uma realidade tecnicamente sólida e em rápida convergência que pode redefinir a forma como interagimos com informações e o mundo digital.

Referência: ZDNET

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima