Usuários do Gemini ganham uma grande atualização gratuita, além de uma nova vantagem ao vivo para assinantes pagos.

Como parte de sua contínua busca por aprimorar sua inteligência artificial, o Google está implementando algumas mudanças no Gemini, tornando uma função paga gratuita para todos e permitindo que o Gemini reconheça o ambiente ao seu redor.

Gemini está recebendo uma atualização de memória para todos os usuários. A partir de agora, a capacidade do Gemini de recordar suas preferências, interesses, trabalho e mais será disponibilizada para todos. Esse recurso foi introduzido no último mês de novembro como uma exclusividade do Gemini Avançado, enquanto já existe no ChatGPT há algum tempo. As informações salvas permitem que você forneça ao Gemini detalhes específicos da sua vida, como seu nome, o nome de sua família ou um projeto particular em que está utilizando o ChatGPT. Isso significa que você não precisará inserir essas informações toda vez e receberá respostas mais pertinentes.

O Google sugeriu algumas orientações adicionais para o uso desse recurso, como: usar uma linguagem simples e evitar jargões; “sou vegetariano, então não sugira receitas com carne”; incluir uma tradução em espanhol após as respostas; ao planejar viagens, incluir o custo por dia; “só consigo programar em JavaScript”; prefiro respostas curtas e objetivas. Para adicionar cada informação salva, você deve ir ao menu de configurações e procurar por “Informações salvas.” O lançamento dessa função parece estar ocorrendo primeiro na versão desktop, mas ela também estará disponível no aplicativo móvel.

Além disso, na última semana durante o Mobile World Congress, o Google anunciou que o Gemini Live agora pode “ver” – seja através da sua tela ou de um vídeo ao vivo. Essa função, que será disponibilizada ainda neste mês, por enquanto é exclusiva para usuários do Gemini Avançado.

Com essa funcionalidade, ao abrir o Gemini, você verá um botão chamado “Compartilhar tela com Live.” Toque nele e terá a opção de compartilhar sua tela ou iniciar um vídeo. Você pode fazer perguntas à IA sobre o que está ao seu redor ou sobre o que aparece na tela do seu telefone. Em um vídeo de demonstração, um usuário pediu sugestões de roupas usando uma calça exibida na tela. O Gemini recomendou uma blusa, e o usuário então perguntou sobre uma jaqueta. Em outra demonstração com vídeo ao vivo, um usuário pediu ajuda ao Gemini para escolher uma cor de esmalte para um vaso que ele acabou de criar. O Gemini acabou escolhendo “o primeiro à esquerda na segunda fila” quando mostrado um display de opções disponíveis – uma demonstração de contexto bastante impressionante.

Referência: Google/ZDNET

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima