A gigante de armazenamento de dados Snowflake está realizando sua conferência anual de usuários e parceiros, o Snowflake Summit 2025, esta semana. Assim como muitos fornecedores de software de infraestrutura, a empresa destacou a crescente presença da inteligência artificial (IA) em sua plataforma.
Com um foco voltado para o setor corporativo, atendendo a quase 12.000 clientes, a mensagem das novas divulgações foi clara: os analistas de negócios, que utilizam principalmente o banco de dados da Snowflake para realizar suas tarefas, podem se tornar os protagonistas tanto no desenvolvimento de modelos de IA quanto na realização de previsões com esses modelos.
Entre as novidades, foi destacado um recurso em modo chat que permite aos usuários interagir com os dados utilizando comandos em linguagem natural. Essa funcionalidade, alimentada pelos modelos de linguagem da OpenAI e da Anthropic, além dos modelos próprios da Snowflake, simplifica a preparação e análise de dados com um novo recurso chamado Agente de Ciência de Dados, que pode automatizar diversas tarefas.
Um novo serviço, chamado Openflow, é a proposta da Snowflake para o clássico pipeline de integração de dados, conhecido na indústria como “extrair, transformar e carregar” (ETL). A empresa afirma que as funções do Openflow irão auxiliar na produção de agentes de IA, simplificando o processo complexo de limpeza dos dados necessários para esses agentes.
Além desses anúncios, a empresa reafirmou seu compromisso em tornar seus programas o local onde ocorre o desenvolvimento de IA generativa. Uma função denominada Cortex AISQL permite que os analistas de negócios incorporem as saídas dos modelos de IA dentro de comandos da linguagem SQL padrão. Por exemplo, um comando “JOIN”, uma das maneiras mais simples de manipular uma tabela de banco de dados relacional, pode agora ter um valor variável com base no que o modelo de IA determina sobre, por exemplo, o currículo de uma pessoa em relação a vagas de emprego abertas na empresa.
A empresa afirma que isso facilita a criação de consultas complexas e “multifásicas” com menos necessidade de codificação. Além disso, isso eleva o papel do analista de negócios, segundo a Snowflake. “Essa abordagem unificada transforma o que tradicionalmente exigiria expertise em ciência de dados e semanas de desenvolvimento em consultas SQL simples que os analistas de negócios podem construir e modificar em minutos.” E isso, afirmam, “transforma analistas em desenvolvedores de IA”.
A companhia afirma que ao integrar SQL no “pipeline” de IA, a ferramenta “eleva os analistas de dados a super-heróis da IA que podem trabalhar com todos os tipos de dados”. O domínio tradicional de observabilidade do DevOps ou DevSecOps está sendo aplicado a modelos de linguagem de grande escala, permitindo que os clientes da Snowflake avaliem continuamente o desempenho de um modelo de IA em relação a critérios de confiabilidade, entre outros. A empresa menciona que a ferramenta possui “conjuntos de dados de avaliação” para medir a saída do modelo, além de capacidades de registro para facilitar a depuração, aprimoramento de prompts e governança.
De certa forma, a Snowflake está fazendo uma afirmação com essa ferramenta, ao sugerir que o treinamento e manutenção da IA generativa estão, em certa medida, sob a responsabilidade dos analistas de negócios, e não dos tradicionalmente responsáveis pelo IT, que realizam o DevOps ou mesmo o AIOps.
Inovações também foram apresentadas no que toca à engenharia de modelos de IA, inovações que a Snowflake alega tornar o processo de construção desses modelos mais integrado com suas ferramentas, ampliando o que pode ser oferecido em produção. Uma delas permite executar código de aprendizado de máquina (ML) a partir de um ambiente de desenvolvimento ou de um notebook, usando o que se chama de ML Jobs dentro do serviço de contêiner da Snowflake. Isso significa que as tarefas do modelo de IA, como treinamento e demais, podem ser realizadas juntamente com o restante do trabalho de desenvolvimento na Snowflake. O ML Jobs deve estar “disponível em breve” na Amazon AWS e no Microsoft Azure.
Adicionalmente, há uma nova metodologia para capturar os modelos de IA com melhor desempenho durante o processo de treinamento, chamada rastreamento de experimentos, que permite que um desenvolvedor compartilhe e reproduza um modelo individual. Essa funcionalidade está atualmente em uma prévia privada.
Para oferecer modelos treinados, a Snowflake ampliou seu Registro de Modelos com a capacidade de servir aqueles desenvolvidos e organizados na Hugging Face. A empresa afirma que qualquer modelo na Hugging Face pode ser integrado ao serviço de contêiner da Snowflake “com um clique, sem a necessidade de baixar nenhum modelo do lado do cliente… apenas apontando para o identificador do modelo e tarefa para registro e serviço na Snowflake.”
Referência: [NurPhoto/Getty Images]
Posts relacionados:



