Este ano tem sido amplamente chamado de "o ano dos agentes de IA", dado que esses sistemas de inteligência artificial, capazes de realizar tarefas para os usuários, são particularmente úteis na otimização dos fluxos de trabalho empresariais. Durante a conferência anual Knowledge 2025 da ServiceNow, a empresa apresentou um novo modelo em colaboração com a Nvidia, com o objetivo de aprimorar os agentes de IA.
Apriel Nemotron 15B
Na terça-feira, a ServiceNow e a Nvidia lançaram o Apriel Nemotron 15B, um novo modelo de linguagem de raciocínio (LLM) de código aberto, projetado para proporcionar menor latência, redução nos custos de inferência e inteligência artificial de tipo agente. Conforme o comunicado, o modelo foi treinado usando o Nvidia Nemo, o conjunto de dados pós-treinamento Llama Nemotron da Nvidia e dados específicos do domínio da ServiceNow.
O principal destaque desse modelo é a sua capacidade avançada de raciocínio em um tamanho reduzido. Isso torna o modelo mais econômico e rápido para operar na infraestrutura de GPU da Nvidia como um microserviço NIM da Nvidia, ao mesmo tempo em que entrega a inteligência de nível empresarial que as organizações buscam. A empresa aponta que o Apriel Nemotron 15B apresentou resultados promissores em testes de benchmark, confirmando que o modelo pode ser adequado para apoiar fluxos de trabalho de IA agente.
Importância das capacidades de raciocínio
As capacidades de raciocínio desempenham um papel crucial no uso de IA agente, pois, nessas experiências automatizadas, a IA executa tarefas para o usuário final em diferentes contextos. Como a IA realiza tarefas sem direção humana, é necessário que ela faça algum processamento ou raciocínio de forma autônoma para determinar a melhor maneira de proceder.
Arquitetura de ciclo de feedback de dados
Além do modelo, as duas empresas também revelaram uma arquitetura conjunta de ciclo de feedback de dados — um loop de retroalimentação que coleta dados das interações para refinar ainda mais os modelos de IA. De acordo com o comunicado, a arquitetura integra o ServiceNow Workflow Data Fabric e microserviços selecionados da Nvidia NeMo.
Essa arquitetura conjunta permite que as empresas utilizem dados de fluxo de trabalho empresarial para aperfeiçoar seus modelos de raciocínio, ao mesmo tempo em que possuem os guardrails necessários para proteger os clientes, garantindo que os dados sejam processados de forma segura e eficiente, além de oferecer o controle desejado. Idealmente, isso contribuiria para a criação de agentes de IA altamente personalizados e cientes do contexto.
Referência: Elyse Betters Picaro / ZDNET
Posts relacionados:



