Em janeiro, o surgimento do programa de inteligência artificial R1 da DeepSeek provocou uma reação negativa no mercado de ações. Sete semanas depois, a gigante dos chips Nvidia, uma das principais forças no processamento de IA, busca se posicionar no epicentro da economia da IA mais acessível que a DeepSeek representa. Na terça-feira, no SAP Center em San Jose, Califórnia, Jensen Huang, co-fundador e CEO da Nvidia, falou sobre como os chips Blackwell da empresa podem acelerar dramaticamente o DeepSeek R1.
A Nvidia afirma que suas GPUs podem processar uma quantidade 30 vezes maior de dados do que o DeepSeek R1 normalmente processaria em um data center, medido pelo número de tokens por segundo, utilizando um novo software de código aberto chamado Nvidia Dynamo. “O Dynamo pode capturar esse benefício e entregar um desempenho 30 vezes maior na mesma quantidade de GPUs na mesma arquitetura para modelos de raciocínio como o DeepSeek,” explicou Ian Buck, responsável por hyperscale e computação de alto desempenho da Nvidia, em uma coletiva de imprensa antes da palestra de Huang na conferência GTC da empresa.
O software Dynamo, disponível atualmente no GitHub, distribui o trabalho de inferência entre até 1.000 chips GPU da Nvidia. Isso permite um maior volume de trabalho por segundo, ao dividir as tarefas para execução em paralelo. O resultado: para uma tarefa de inferência avaliada em $1 por milhão de tokens, mais tokens podem ser processados a cada segundo, aumentando a receita por segundo para serviços que disponibilizam as GPUs.
Buck mencionou que os prestadores de serviços podem então optar por realizar mais consultas de clientes no DeepSeek ou dedicar mais processamento a um único usuário, cobrando mais por um serviço “premium”. “Fábricas de IA podem oferecer um serviço premium a um preço elevado por milhão de tokens,” disse Buck, “e também aumentar o volume total de tokens de toda a sua fábrica.” O termo “fábrica de IA” é uma invenção da Nvidia para serviços em larga escala que realizam um alto volume de trabalho em IA utilizando os chips e softwares da empresa.
A perspectiva de usar mais chips para aumentar a capacidade de processamento (e, consequentemente, os negócios) para a inferência em IA é a resposta da Nvidia às preocupações dos investidores de que menos poder computacional seria utilizado, uma vez que a DeepSeek pode reduzir a quantidade de processamento necessária para cada consulta. Ao utilizar o Dynamo com a Blackwell, o modelo atual da GPU de destaque da Nvidia, o software pode fazer com que esses centros de dados de IA gerem 50 vezes mais receita do que com o modelo anterior, conhecido como Hopper.
A Nvidia também disponibilizou sua própria versão modificada do DeepSeek R1 no HuggingFace. Esta versão da Nvidia reduz o número de bits usados pelo R1 para manipular variáveis para o que é conhecido como “FP4”, ou ponto flutuante de quatro bits, que é uma fração da computação necessária para o ponto flutuante padrão de 32 ou B-float 16. “Isso aumenta significativamente o desempenho de Hopper para Blackwell,” afirmou Buck. “Fizemos isso sem quaisquer mudanças ou reduções significativas na precisão do modelo. Ele continua sendo um excelente modelo que produz tokens de raciocínio inteligente.”
Além do Dynamo, Huang apresentou a mais recente versão da Blackwell, chamada “Ultra”, que segue o primeiro modelo apresentado no ano passado. A nova versão aprimora vários aspectos do Blackwell 200 existente, como o aumento da memória DRAM de 192GB de HBM3e para até 288GB. Quando combinada com o chip de CPU Grace da Nvidia, um total de 72 Blackwell Ultras pode ser montado no computador em rack NVL72 da empresa, que aumentará o desempenho de inferência operando em FP4 em 50% em relação ao NVL72 existente baseado nos chips Grace-Blackwell 200.
Entre os outros anúncios feitos na GTC estava o pequeno computador pessoal para desenvolvedores de IA, revelado na CES em janeiro como Project Digits, agora formalmente chamado de DGX Spark. O computador utiliza uma versão da combinação Grace-Blackwell chamada GB10. A Nvidia começou a aceitar reservas para o Spark a partir de hoje. Um novo modelo do computador de mesa DGX “Station”, lançado pela primeira vez em 2017, foi apresentado. O novo modelo utiliza a Grace-Blackwell Ultra e vem com 784 gigabytes de DRAM, uma grande mudança em relação ao DGX Station original, que dependia de CPUs da Intel como processador principal. O computador será fabricado por empresas como Asus, BOXX, Dell, HP, Lambda e Supermicro, e estará disponível “mais tarde neste ano”.
Huang também mencionou uma adaptação dos modelos de linguagem de código aberto da Meta, chamada Llama Nemotron, que possui capacidades de “raciocínio”; ou seja, produzir uma sequência de saídas que itemizam os passos até uma conclusão. A Nvidia afirma que os modelos Nemotron “otimizam a velocidade de inferência em 5 vezes em comparação com outros modelos de raciocínio abertos líderes”. Os desenvolvedores podem acessar os modelos no HuggingFace.
Como amplamente esperado, a Nvidia ofereceu pela primeira vez uma versão de seu switch de rede “Spectrum-X” que coloca o transceptor de fibra óptica dentro do mesmo pacote que o chip do switch, em vez de usar transceptores externos padrão. A Nvidia afirma que os switches, que vêm com velocidades de porta de 200 ou 800GB/s, melhoram os switches existentes com “3,5 vezes mais eficiência energética, 63 vezes maior integridade de sinal, 10 vezes melhor resiliência de rede em larga escala e 1,3 vezes mais rápida implementação.” Os switches foram desenvolvidos em parceria com a Taiwan Semiconductor Manufacturing, fabricantes de lasers Coherent e Lumentum, fabricante de fibra Corning e montadora Foxconn.
A Nvidia está construindo um centro de pesquisa em computação quântica em Boston que integrará hardware quântico de ponta com supercomputadores de IA, em parceria com Quantinuum, Quantum Machines e QuEra. O local permitirá que os parceiros da Nvidia acessem os racks NVL72 Grace-Blackwell. A Oracle está tornando o software de microserviços “NIM” da Nvidia “disponível nativamente” no console de gerenciamento do serviço de computação OCI para seus clientes em nuvem.
Huang anunciou novos parceiros que estão integrando o software Omniverse da empresa para colaboração em design de produtos virtuais, incluindo Accenture, Ansys, Cadence Design Systems, Databricks, Dematic, Hexagon, Omron, SAP, Schneider Electric com ETAP e Siemens. A Nvidia revelou o Mega, um “blueprint” de design de software que se conecta ao software Cosmos da Nvidia para simulação, treinamento e teste de robôs. Entre os primeiros clientes, Schaeffler e Accenture estão usando o Meta para testar frotas de mãos robóticas para tarefas de manuseio de materiais.
A General Motors agora está colaborando com a Nvidia em “veículos de próxima geração, fábricas e robôs”, utilizando Omniverse e Cosmos. A Nvidia atualizou sua linha de placas gráficas RTX. A RTX Pro 6000 Blackwell Workstation Edition fornece 96GB de DRAM e pode acelerar tarefas de engenharia, como simulações no software Ansys, em 20%. Uma segunda versão, Pro 6000 Server, é destinada a ser executada em racks de data centers. Uma terceira versão atualiza as RTX para laptops.
Continuando o foco em “modelos fundamentais” para robótica, que Huang discutiu pela primeira vez na CES ao apresentar o Cosmos, ele revelou na terça-feira um modelo fundamental para robôs humanoides chamado Nvidia Isaac GROOT N1. Os modelos GROOT são pré-treinados pela Nvidia para alcançar raciocínio “Sistema 1” e “Sistema 2”, uma referência ao livro “Rápido e Devagar” do cientista cognitivo Daniel Kahneman. O software pode ser baixado do HuggingFace e GitHub.
A gigante de dispositivos médicos GE está entre os primeiros a usar a versão Isaac for Healthcare da Nvidia Isaac. O software cria um ambiente médico simulado que pode ser utilizado para treinar robôs médicos, com aplicações que incluem a realização de testes de raio-X e ultrassom em regiões do mundo que carecem de técnicos qualificados para essas tarefas.
A Nvidia atualizou sua tecnologia Nvidia Earth para previsão do tempo com uma nova versão, Omniverse Blueprint for Earth-2. Essa versão inclui “fluxos de trabalho de referência” para ajudar empresas a prototipar serviços de previsão do tempo, bibliotecas de aceleração GPU, “uma estrutura de física-I.A., ferramentas de desenvolvimento e microserviços”. Os fornecedores de equipamentos de armazenamento poderão integrar agentes de IA em seus dispositivos através de uma nova parceria chamada Nvidia AI Data Platform. Isso significa que os fornecedores poderão optar por incluir GPUs Blackwell em seus equipamentos. Entre os fornecedores de armazenamento com quem a Nvidia está colaborando estão DDN, Dell, Hewlett Packard Enterprise, Hitachi Vantara, IBM, NetApp, Nutanix, Pure Storage, VAST Data e WEKA. As primeiras ofertas dos fornecedores devem estar disponíveis este mês.
A Nvidia afirmou que este é o maior evento GTC até o momento, com 25.000 participantes esperados presencialmente e 300.000 online.
Referência: https://www.nvidia.com/en-us/
Posts relacionados:



