O colapso do mercado de ações em janeiro, impulsionado pela repentina empolgação em relação ao avanço da inteligência artificial (IA) chinesa, o DeepSeek AI, e sua abordagem de computação aparentemente mais econômica, pode levar à impressão de que as empresas estão reduzindo drasticamente seus gastos em chips e sistemas para IA. No entanto, uma conferência de IA generativa realizada na quarta-feira em Nova York, organizada pela unidade Bloomberg Intelligence, me deixou com uma visão oposta: a ânsia por expandir a utilização da IA generativa é tão intensa que os investimentos continuarão a crescer de forma significativa.
Intitulada “IA Generativa: Leis de Escala Pós-DeepSeek”, o evento de um dia apresentou constantes referências sobre como a demanda será motor de um aumento nos gastos. “Tivemos dez painéis hoje, e ninguém mencionou que temos mais capacidade do que precisamos”, comentou um analista sênior de tecnologia da Bloomberg Intelligence, que também foi um dos organizadores do evento. “E ninguém estava falando sobre uma bolha na infraestrutura”, acrescentou. “A questão mais importante que todos estão enfrentando agora é a construção da infraestrutura de IA. Onde estamos nesta ciclo?” disse um colega, analista sênior de serviços de TI e software da Bloomberg Intelligence. “Ninguém sabe” ao certo, respondeu. No entanto, a esperança despertada pelo DeepSeek AI é que muitos trabalhos possam ser realizados com menor custo.
“DeepSeek surpreendeu muitas pessoas”, afirmou. “Se não precisamos de tantas GPUs para rodar modelos, então por que precisamos de US$ 500 bilhões para o projeto Stargate?” referindo-se a um projeto planejado de IA nos EUA, conduzido pelo SoftBank Group do Japão, a OpenAI e a gigante de bancos de dados Oracle. Todos na indústria, segundo ele, esperam que os custos da IA diminuam rapidamente, assim como os custos da computação em nuvem caíram.
“Essa redução na curva de custo, que provavelmente levou seis, sete ou oito anos para armazenar um terabyte de dados na Amazon AWS, quando começou em comparação com hoje, foi vantajosa,” ele destacou. “E isso é o que todos esperam, que, no lado da inferência da IA, se a curva cair para esse nível, será espetacular a taxa de adoção da IA no lado do usuário final ou nas empresas.”
Singh concordou que o momento do DeepSeek AI “mudou a mentalidade de todos sobre a busca por eficiência”. Essa foi, sem dúvida, a impressão que tive ao longo do dia. Vários painéis discutiram projetos de IA empresarial, desde o estágio conceitual até a sua implementação. Contudo, os painelistas também abordaram a necessidade de reduzir dramaticamente os custos para o serviço de IA a fim de expandir o acesso. “Não acho que o DeepSeek tenha sido uma surpresa”, disse o principal tecnólogo da Bloomberg em uma entrevista, refletindo que seria ótimo se todos os modelos de IA pudessem ser executados com eficiência.
Uma das razões pelas quais muitos painelistas esperam mais investimentos em infraestrutura de IA, e não menos, é a proliferação de modelos de IA. Um tema recorrente ao longo do dia foi que não haverá um único modelo de IA para todas as tarefas. “Utilizamos uma família de modelos”, explicou um dos debatedores. “Não existe um modelo único que seja o melhor”.
Os painelistas concordaram que, embora modelos “fundacionais” ou “fronteiriços” de linguagem continuarão a ser desenvolvidos, empresas individuais poderão empregar centenas, ou até milhares, de modelos de IA. Esses modelos podem ser treinados com dados proprietários de uma empresa através de um processo de afinação, que consiste em re-treinar uma rede neural após seu “pré-treinamento” em dados genéricos.
“Ao lidar com IA, executivos exigem versatilidade entre os modelos”, observou o responsável pela estratégia da plataforma de uma empresa de ciência de dados. “Eles precisam da capacidade de controlar, criar e auditar” os modelos de IA. “Queremos fornecer as ferramentas para construir essas soluções nas mãos das pessoas”, declarou. “Não queremos que apenas dez PhDs desenvolvam todos os agentes.”
De forma semelhante, a fabricante de ferramentas de design, Adobe, aposta que modelos personalizados serão um uso chave na nova era criativa. “Podemos treinar extensões de modelos personalizados para sua marca que podem ajudar em uma nova campanha publicitária,” afirmou a líder de novos negócios da Adobe em uma conversa.
À medida que a demanda por modelos de IA dentro das empresas cresce, muitos palestrantes sugeriram que a necessidade de processamento aumentará. “Não se pode concentrar todo um processo em um único agente; é preciso dividi-lo em partes”, explicou um dos heads de agentes e automação. Através de uma interface única, como o Copilot, “interagiremos com centenas de agentes – eles são apenas aplicativos nesse novo mundo” da programação. “Daremos ao agente o processo de negócios e informaremos o que queremos realizar,” e o agente executará as tarefas. “Aplicativos agenciais são uma nova forma de fluxo de trabalho.”
Esses cenários cotidianos são “tecnicamente viáveis”, enfatizou, “é apenas uma questão da velocidade com a qual construímos isso”. Essa tendência de disponibilização de agentes de IA para mais pessoas dentro de uma organização aumenta a demanda por redução de custos, de acordo com o responsável pela gestão de produtos de uma fabricante de microprocessadores. “Como podemos fornecer acesso em mais dispositivos?”, ponderou.
Mesmo os modelos de base genérica estão proliferando em um ritmo incrível. A Amazon AWS possui 1.800 modelos diferentes de IA disponíveis, contou o chefe de computação e rede da AWS. A empresa está “fazendo muito para reduzir o custo” de execução dos modelos, mencionou, incluindo o desenvolvimento de chips de IA personalizados. A AWS “está utilizando mais processadores próprios do que de outras empresas”, referindo-se a Intel, AMD, Nvidia e outros fornecedores de chips de propósito geral.
“Os clientes fariam mais se o custo fosse menor”, disse ele. A AWS trabalha diariamente com a Anthropic, criadora da família de modelos de linguagem Claude, que notou que “modelos de raciocínio estão consumindo muita capacidade”, referindo-se a tendências de modelos que, como o DeepSeek R1, geram declarações longas sobre os argumentos que sustentam suas respostas finais. A Anthropic está colaborando de perto com a AWS em maneiras de cortar o orçamento de computação, como “armazenamento em cache de prompts”.
Apesar dessa tendência, a Anthropic ainda precisa de centenas de milhares de aceleradores, isto é, chips de silício focados em IA, “em muitos data centers” para rodar seus modelos. Além disso, os custos de energia crescentes para alimentar a IA não mostram sinais de desaceleração, observou. Data centers atuais estão consumindo centenas de megawatts e, num futuro próximo, precisarão de gigawatts. “O consumo de energia,” referindo-se à IA, “é elevado e a pegada é grande em muitos data centers.”
Apesar dos cenários ambiciosos, uma condição pode reverter todos os casos de uso e planos de investimento: a economia. No final da conferência, painelistas e convidados acompanharam a queda após o horário de funcionamento do mercado de ações. O presidente dos EUA, em uma cerimônia no Rose Garden, acabara de anunciar uma série global de tarifas que eram maiores e mais abrangentes do que a maioria em Wall Street antecipava.
Áreas tradicionais de investimento em tecnologia, como servidores e armazenamento, e não a IA, podem ser as primeiras a sofrer em uma possível contração econômica, destacou um analista. “A outra grande questão que estamos analisando são os gastos com tecnologia que não são relacionados à IA,” ele declarou sobre as tarifas. “Quando olhamos para empresas como IBM, Accenture e Microsoft, e deixamos a IA de lado por um momento, isso será um desafio durante esta temporada de resultados”. É possível que CFOs de grandes empresas priorizem a IA e redirecionem fundos, mesmo se precisarem cortar seus orçamentos em meio à incerteza econômica e recessão, se isso ocorrer. No entanto, essa visão otimista não é garantida.
“A coisa que mais me interessa saber é se todas essas grandes empresas manterão intactos os seus alvos de gastos de capital,” disse ele, incluindo centros de dados de IA, “ou se irão dizer: Sabe de uma coisa? É muito incerto.”
Referência: Bloomberg
Posts relacionados:



