Esqueça a nova Siri: Conheça a IA avançada que uso no meu iPhone

O lançamento do ChatGPT desencadeou uma onda de entusiasmo em torno da inteligência artificial generativa, impulsionando uma revolução tecnológica que obrigou as empresas a inovarem rapidamente para se manterem competitivas em um cenário em constante evolução. Embora a Apple tenha chegado atrasada à corrida da IA, seu lançamento da Apple Intelligence promete uma reformulação transformadora, colocando a Siri no centro do ecossistema Apple como uma assistente pessoal consciente do contexto. No entanto, a Apple confirma que essa visão pode levar mais tempo do que o esperado para se concretizar.

Quando podemos esperar pela Siri aprimorada com inteligência artificial? Na sexta-feira, um porta-voz da Apple revelou em uma declaração que as tão aguardadas atualizações para a Siri, como uma versão mais personalizada e consciente do seu contexto pessoal, levarão mais tempo do que o previsto para serem disponibilizadas ao público. O porta-voz acrescentou que a empresa espera iniciar a implementação dessas funcionalidades no próximo ano. A declaração mencionou: “A Siri ajuda nossos usuários a encontrar o que precisam e a realizar tarefas rapidamente e, apenas nos últimos seis meses, tornamos a Siri mais conversacional, introduzimos novos recursos como digitar para a Siri e conhecimento de produtos, além de uma integração com o ChatGPT. Também estamos trabalhando em uma Siri mais personalizada, conferindo-lhe maior consciência do seu contexto pessoal, assim como a capacidade de agir por você dentro e entre seus aplicativos. Levará mais tempo do que pensávamos para entregar essas funcionalidades, e esperamos lançá-las no próximo ano.”

Essa confirmação chega poucos dias após um novo relatório do repórter da Bloomberg, Mark Gurman, que revelou que pessoas dentro da divisão de IA da Apple acreditam que a versão totalmente atualizada e conversacional da Siri não estará disponível para os consumidores até o iOS 20, o que colocaria o lançamento em torno de 2027. Quando a Apple apresentou o conceito na WWDC do ano passado, foi promovido como uma assistente pessoal que se integra perfeitamente ao ecossistema de dispositivos do usuário para fornecer ajuda significativa nos bastidores. Além disso, prometia tornar a Siri mais conversacional, permitindo diálogos mais humanos, um upgrade altamente solicitado.

Contudo, desde então, a empresa lançou apenas algumas funcionalidades da Apple Intelligence, a maioria com pouco valor prático. Por exemplo, usuários com celulares elegíveis agora podem acessar o Genmoji, Image Playground, resumos de notificações, ferramentas de escrita, transcrições de mensagens de voz, Visual Intelligence e uma integração com o ChatGPT. No final, todas essas funcionalidades ficaram aquém das expectativas, não contribuindo significativamente para a experiência cotidiana de uso do smartphone.

A Apple Intelligence também continua a ficar atrás de seus concorrentes. Na semana passada, a Amazon lançou o Alexa+, um assistente de voz conversacional com capacidades agentes que permite realizar tarefas cotidianas para o usuário. Ele também utiliza seu contexto pessoal e hábitos para oferecer uma assistência mais eficaz e já está disponível em produtos habilitados para Alexa que muitas pessoas têm em casa.

Antes do lançamento do Alexa+, tanto o Google quanto o ChatGPT apresentaram seus próprios assistentes conversacionais baseados em IA, chamados Gemini Live e Advanced Voice Mode. Esses assistentes compreendem comandos em linguagem natural, permitindo que você converse com a IA como se estivesse dialogando com um amigo. Eles também possibilitam conversas contínuas, mantendo o contexto anterior intacto ao longo da interação.

Ambos os assistentes de voz têm opções que facilitam o acesso a partir de um iPhone, permitindo que os usuários de iOS optem por experiências mais conversacionais e enriquecidas por IA em vez da Siri. O modo de voz avançado do ChatGPT, por sua vez, possui recursos de percepção de tela e da câmera, tornando sua assistência multimodal e adicionando uma camada extra de suporte. Como usuário de iPhone, você pode facilmente acessar o assistente pelo aplicativo ChatGPT ou, se desejar ainda mais facilidade, pode mapeá-lo para o Botão de Ação do seu telefone para chamar o ChatGPT.

Todos os usuários têm acesso ao Modo de Voz Avançado, embora as limitações possam variar de acordo com o plano. A OpenAI não especifica os limites, mas informa que assinantes pagos têm acesso a mais funcionalidades. Eu utilizo o ChatGPT Plus, um plano que custa $20 por mês, e nunca excedi o limite. Encontrei numerosas aplicações cotidianas para o assistente e o utilizo constantemente.

Se você prefere usar o assistente conversacional do Google, pode baixar o aplicativo Gemini gratuitamente para seu iPhone e começar a interagir. Ativar esse recurso é tão simples quanto baixar o aplicativo, fazer login em sua conta Google e clicar no ícone de onda no canto inferior direito. Embora ainda não tenha consciência de tela, esse recurso será disponibilizado ainda este mês para usuários do Gemini Advanced pagos.

Conforme destacado pelo 9to5Google, o aplicativo Gemini para iPhone também foi atualizado recentemente para facilitar ainda mais o uso. Os novos widgets de tela de bloqueio incluem um que ativa o assistente de voz Gemini com um simples toque. Você também pode adicioná-lo ao seu Centro de Controle, tornando-o mais acessível a qualquer momento, apenas deslizando para baixo na tela.

Pronto para deixar o jardim murado da Apple? Muitos smartphones Android, incluindo o Google Pixel 9 e posteriores, assim como a linha Samsung Galaxy S25, tornaram o Gemini o assistente de voz padrão, permitindo que os usuários experimentem o assistente de voz conversacional aprimorado pela IA de forma nativa.

Referência: https://www.zdnet.com/article/siri-is-lagging-behind-new-ai-competitors-like-google-and-amazon/

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima