Robôs com IA: Do Simulado ao Real

🤖 Robôs do Futuro: A NVIDIA Acabou de Revelar o Segredo dos "Faz-Tudo Especialistas"! Prepare-se!

Olá, pessoal! Aqui é o Lucas Tech e preparem-se, porque a NVIDIA acabou de balançar o mundo da robótica com uma visão que vai mudar tudo que a gente pensa sobre máquinas! Esqueçam os robôs que só fazem uma coisa. A nova geração que está vindo por aí são os "generalistas-especialistas" – tipo aqueles amigos que manjam de tudo, mas que se dedicam e viram mestres em algo específico! Parece ficção científica, mas a NVIDIA está transformando isso em realidade e eu vim te contar todos os detalhes.

Começando pela ideia: Robôs que entendem instruções, aprendem habilidades amplas, mas também podem ser treinados para tarefas super específicas. Imaginem um "faz-tudo" que, de repente, vira um mestre em uma arte!

Para isso, a NVIDIA criou um workflow completo, do cloud ao robô, que facilita coletar e gerar dados, treinar e implantar tudo com segurança. E o coração desses robôs são os modelos VLA (Visão, Linguagem e Ação), que permitem que eles percebam, entendam e ajam de forma inteligente em diversas tarefas.

A plataforma aberta NVIDIA Isaac é a "caixa de ferramentas" para os desenvolvedores, com tudo que precisam: modelos, pipelines de dados, frameworks de simulação e bibliotecas de runtime. E a NVIDIA ainda oferece um modelo VLA aberto, o NVIDIA Isaac GR00T N, que dá aos desenvolvedores uma base poderosíssima para iniciar e pós-treinar sua própria inteligência robótica.

Esses modelos, bibliotecas e frameworks podem rodar tanto na nuvem quanto em infraestruturas de IA de ponta (edge AI) e agora podem ser ainda mais acelerados com a integração de agentes de longa duração como o OpenClaw.

Com os últimos modelos NVIDIA Isaac GR00T, os frameworks de simulação e aprendizado de robôs Isaac, além dos sistemas de IA de ponta anunciados esta semana na NVIDIA GTC, a NVIDIA está dando aos desenvolvedores novas e poderosas ferramentas para a era da autonomia "generalista-especialista".

Esses workflows são abertos e modulares, ou seja, os desenvolvedores podem misturar e combinar componentes, trazer suas próprias ferramentas e dados, e acelerar seu pipeline do protótipo à implantação no mundo real.

A Agility usa os frameworks abertos da NVIDIA Isaac para levar seus robôs da simulação para o mundo real.

Transformando Computação em Dados

Tudo começa com dados, né? Antigamente, era tudo na base da coleta manual – o robô precisava "viver" pra aprender. Mas a NVIDIA virou o jogo! Agora, eles misturam dados do mundo real (registros de sensores e demonstrações de teleoperação) com dados gerados por simulação. Isso transforma computação em toneladas de dados úteis!

E por que simulação é tão importante? Ela nos permite criar dados sintéticos de alta fidelidade e fisicamente precisos, ajudando os desenvolvedores a superar as limitações da coleta física, onde é difícil ou impossível reunir informações suficientes sobre casos raros e extremos. Esses "edge cases" podem ser difíceis ou inseguros de capturar fisicamente, mas são essenciais para um robô dominar antes de ser implantado em escala em ambientes imprevisíveis do mundo real.

Sabiam que dados sintéticos, que hoje representam apenas 20% do treinamento de IA para cenários de edge, devem chegar a mais de 90% dos dados para cenários de edge até 2030? É o que diz um relatório da Gartner!

A NVIDIA está impulsionando essa mudança com bibliotecas e frameworks abertos que alimentam uma verdadeira "fábrica" de dados sintéticos realistas, baseados no mundo físico.

Usando NVIDIA Omniverse NuRec e os modelos de base para robôs da FieldAI, a empresa permite que clientes industriais implementem robótica e IA física em seus fluxos de trabalho sem esforço.

As bibliotecas NVIDIA Omniverse NuRec (3D Gaussian splatting aceleradas), agora em disponibilidade geral, transformam dados de sensores do mundo real em simulações interativas baseadas em OpenUSD dentro do NVIDIA Isaac Sim, um framework de simulação robótica open source. Isso permite que os desenvolvedores escaneiem e recriem mundos reais a partir de dados de sensores, facilitando o teste seguro de robôs em simulações baseadas em interações físicas reais.

Dados reais também podem ser trazidos de outros dispositivos usando teleoperação. O NVIDIA Isaac Teleop, também em disponibilidade geral, permite que os desenvolvedores aproveitem dados coletados através de dispositivos de teleoperação — como headsets de realidade estendida, rastreadores corporais e luvas — para criar dados de demonstração no mundo real e em simulação, que podem ser usados para treinar robôs em ambientes de simulação como o NVIDIA Isaac Lab.

Esses datasets são então amplificados usando o novo NVIDIA Physical AI Data Factory Blueprint, que unifica aumento de dados, avaliação e orquestração em um único pipeline.

Alimentado pelos modelos de fundação de mundo aberto NVIDIA Cosmos e pelo NVIDIA OSMO, um orquestrador agêntico open source, esse workflow de referência oferece um motor de dados escalável e pronto para produção em robótica. Usando o blueprint, os desenvolvedores podem transformar um único cenário do mundo real em novas e variadas possibilidades sintéticas em uma fração do tempo que levaria para coletar dados semelhantes no mundo real.

Além de simular o ambiente e os dados, os construtores de robôs precisam simular o próprio robô. Usando o NVIDIA Isaac Sim, os desenvolvedores podem escolher entre uma variedade de humanoides, robôs móveis autônomos e braços robóticos, e configurar o modelo virtual para especificações do mundo real.

O Isaac Sim se integra com o PTC Onshape para que os desenvolvedores possam configurar e modificar seus robôs facilmente na simulação.

O robô é renderizado em OpenUSD, para que possa interagir perfeitamente com os dados e o ambiente gerados. Movimentos e trajetórias do robô podem ser gravados, reproduzidos e usados para treinar modelos de IA — tudo com segurança na simulação, antes mesmo de tocar em hardware real.

Treinando a IA: Políticas de Controle

Com os "materiais de estudo" prontos (os datasets!), é hora do robô aprender coisas novas. O cérebro do robô, com os modelos VLA como o GR00T, é a chave. Depois, ele passa por um "pós-treinamento" usando dados específicos para a tarefa pretendida.

Por exemplo, um robô que dobra roupas deve ser treinado para agarrar uma peça de roupa, identificar sua forma, dobrá-la corretamente e empilhá-la de forma organizada. Um robô de cozinha pode precisar se tornar um especialista em fatiar, mexer e refogar ingredientes. E um robô de hospital deve aprender a navegar por um corredor, encontrar um elevador e entregar itens a clínicos ou pacientes.

Um braço robótico aprende a dobrar uma camisa no NVIDIA Isaac Sim usando dados de simulação da Lightwheel.

Uma vez que o VLA é pós-treinado, os desenvolvedores podem colocar a política do robô à prova. Treinar robôs como esses no mundo real seria proibitivamente lento, caro e arriscado. Então, os desenvolvedores treinam em simulação com frameworks como o recém-anunciado Isaac Lab 3.0, que oferece aos robôs milhares de ambientes de simulação leves e fisicamente baseados rodando em paralelo. Assim, eles podem praticar muitos cenários de uma vez com segurança — aprendendo em dias o que levaria anos no mundo real!

O humanoide AEON da Hexagon Robotics aprende a subir e descer escadas em paralelo no NVIDIA Isaac Lab.

O Isaac Lab é integrado com Newton, um motor de física open source para aprendizado de robôs. Com Newton, os desenvolvedores podem acoplar diferentes tipos de resolvedores de física — que aplicam leis como gravidade e inércia, além de restrições de colisão para calcular como os objetos se movem, garantindo que as simulações se comportem de forma realista. Isso ajuda os desenvolvedores a simular como um robô interage com objetos macios, como tecido, ou atravessa terrenos como neve ou cascalho.

Os desenvolvedores de robótica também podem usar as bibliotecas e modelos de IA da NVIDIA Isaac que fornecem os blocos de construção principais para tarefas de manipulação e mobilidade, otimizados para implantação em tempo de execução na ponta (edge).

  • Isaac for Manipulation: Permite que os robôs percebam objetos, entendam sua geometria e pose, e os agarrem. Os desenvolvedores combinam esses modelos de percepção com geração de movimento acelerada por GPU para que seus robôs possam planejar e replanejar rapidamente em cenas desordenadas e em constante mudança.
  • Isaac for Mobility: Fornece a base para os robôs se localizarem, mapearem e navegarem com segurança. Os desenvolvedores usam odometria visual e SLAM acelerados por GPU para um posicionamento robusto, juntamente com reconstrução 3D em tempo real para navegar em torno de obstáculos e mudanças no ambiente.

Os robôs NEO da 1X aprendem a andar em diferentes tipos de terreno no NVIDIA Isaac Lab.

Para garantir que as lições baseadas em simulação se traduzam para o mundo real, o Newton — assim como os motores de física NVIDIA PhysX e Mujoco do Google DeepMind — são suportados no Isaac Sim e no Isaac Lab. Isso facilita para os desenvolvedores a transição entre frameworks sem precisar ajustar seus robôs.

Treinar uma única habilidade não é suficiente — os desenvolvedores precisam ter certeza de que a habilidade de um robô pode ser transferida para diferentes ambientes e tarefas. A última versão do Isaac Lab-Arena permite a configuração de tarefas em larga escala e a avaliação de políticas, simplificando a composição do ambiente e acelerando a criação de tarefas complexas para ajudar os desenvolvedores a avaliar várias tarefas em paralelo. O Isaac Lab-Arena se conecta a benchmarks industriais e acadêmicos como LIBERO, RoboTwin e NIST, para que os desenvolvedores possam facilmente avaliar seu progresso.

Testando, Testando – Um Passo Crítico Antes da Implantação

Antes de serem implantados, os robôs devem testar o que aprenderam repetidamente em diversas condições. Cada detalhe — desde o movimento e a manipulação do robô até a forma como a dinâmica do robô reage a cada tarefa — deve ser avaliado antes de operar no mundo real.

A Cyngn testa a dinâmica dos pneus de uma empilhadeira no NVIDIA Isaac Sim enquanto ela se move em várias inclinações.

Os testes abrangentes incluem tanto o "software-in-the-loop" (SIL), onde apenas a pilha de software de robótica é testada, quanto o "hardware-in-the-loop" (HIL), que testa como a pilha roda em um cérebro robótico (a computação de ponta).

O Isaac Sim permite testes tanto de hardware-in-the-loop quanto de software-in-the-loop, para que os desenvolvedores possam alternar facilmente entre ambientes reais e simulados enquanto testam e iteram.

A Wandelbots testa robôs de automação de fábrica em ambientes de simulação de alta fidelidade usando NVIDIA Isaac Sim.

A última versão do Isaac Sim foi projetada para ajudar os desenvolvedores a se moverem perfeitamente entre os workflows. Ele suporta renderização NuRec para fácil entrada de dados, enquanto múltiplos backends de física permitem que os robôs transitem entre Isaac Sim e Isaac Lab sem grandes modificações.

Ele também se conecta diretamente ao Mega, um Blueprint da NVIDIA para desenvolver, testar e otimizar IA física e frotas de robôs em escala em um gêmeo digital. Isso permite que os desenvolvedores de robótica escalem os testes de um robô para alguns ou para uma frota inteira.

A Idealworks testa múltiplos robôs ao mesmo tempo em um cenário de fábrica baseado em física, usando NVIDIA Isaac Sim e Mega.

Rodando no Mundo Real com Workflows NVIDIA Isaac e Módulos Jetson

Uma vez prontos para a implantação, os desenvolvedores precisam de computação de alto desempenho que execute modelos de forma fluida, processe diversos dados de sensores de alta velocidade e suporte uma ampla variedade de formas e tamanhos de robôs na ponta.

A família NVIDIA Jetson — incluindo Jetson Thor e Jetson Orin — suporta toda a gama de robôs com IA, com sensoriamento em tempo real e raciocínio de IA, desde pequenos manipuladores até humanoides completos.

Além disso, as bibliotecas de runtime da NVIDIA Isaac otimizam como a política de robótica roda na ponta. A última biblioteca open source cuVSLAM ajuda os robôs a "ver" onde estão e construir um mapa em tempo real, usando um computador embarcado com Jetson para rastrear o movimento de forma precisa e confiável.

Pesquisando Novas Fronteiras

À medida que os robôs se tornam generalistas-especialistas, os pesquisadores precisam de workflows evolutivos que facilitem a iteração em habilidades existentes, em vez de precisar reconstruir do zero.

O SOMA-X, um novo framework de pesquisa aberto da NVIDIA, ajuda a padronizar como esqueletos, movimento e identidade são representados em IA, simulação e robôs reais.

À medida que novos modelos de corpo, conjuntos de dados ou hardware surgem, os desenvolvedores podem usar a mesma representação compartilhada do SOMA-X sem quebrar ferramentas existentes ou agentes de longa duração, como o OpenClaw, que estão constantemente treinando, avaliando e implementando novos comportamentos.

Com o SOMA-X, as equipes podem trocar diferentes modelos de corpo ou plataformas de robôs sem refazer constantemente o trabalho de rigging, retargeting de movimento ou integração — mantendo os pipelines baseados em Isaac Sim, Isaac Lab e GR00T estáveis à medida que o hardware e o software avançam.

Por cima dessa camada corporal compartilhada, um novo modelo fundamental chamado GEAR-SONIC, agora disponível para pesquisadores, oferece capacidades poderosas para humanoides.

Treinado com dados de movimento humano em larga escala no Isaac Lab, o SONIC ensina aos robôs uma vasta gama de habilidades naturais de corpo inteiro – como andar, engatinhar e manipular objetos – usando uma única política unificada em vez de múltiplos controladores específicos para cada tarefa.

Ferramentas de Segurança e Recursos para Começar

E pra fechar com chave de ouro: a NVIDIA não esquece da segurança! O ecossistema robótico deles é complementado por ferramentas e recursos para ajudar as equipes a ir da experimentação à implantação segura e em escala.

  • NVIDIA Halos: Este é um sistema de segurança abrangente e completo, projetado para garantir o desenvolvimento, treinamento e implantação seguros de robótica com proteções de segurança de ponta a ponta, da nuvem ao robô.
  • NVIDIA GR00T X-Embodiment: Este dataset inclui os mesmos dados usados para o pós-treinamento do NVIDIA GR00T. Já foi baixado mais de 10 milhões de vezes do Hugging Face!
  • A Bones Studio está lançando o BONES-SEED, uma biblioteca massiva de 140.000 animações de movimento humano projetadas para treinar robôs humanoides. Cada movimento é ricamente rotulado com descrições e timestamps, dando às equipes de robótica uma base pronta para construir robôs mais inteligentes e realistas — disponível através da coleção de Datasets Abertos de IA Física da NVIDIA no Hugging Face.
  • Recursos Educacionais: Para novos desenvolvedores de robótica, trilhas de aprendizado do Isaac Sim e Isaac Lab estão disponíveis para guiar o desenvolvimento. E o NVIDIA Deep Learning Institute oferece cursos autônomos e ministrados por instrutor para iniciar a jornada de desenvolvimento em robótica.

Querem se aprofundar mais? Vale a pena conferir a keynote do CEO da NVIDIA, Jensen Huang, no GTC, e explorar as sessões de IA física, robótica e IA de visão!

Minha Visão

Gente, o que a NVIDIA está construindo aqui não é só mais um avanço tecnológico; é a fundação para uma nova era da robótica! A ideia de robôs "faz-tudo especialistas" é genial, e o uso massivo de simulação e dados sintéticos é a chave para acelerar isso de uma forma segura e escalável. Imagine o impacto disso na indústria, na medicina, e até nas nossas casas! Não estamos falando mais de robôs isolados, mas de um ecossistema completo onde a inteligência artificial ganha corpo e aprende a viver e a agir no nosso mundo de forma incrivelmente autônoma e útil. É um futuro onde a linha entre o digital e o físico se dissolve ainda mais, e eu estou super animado pra ver a NVIDIA nos levar nessa jornada!

E vocês, o que acham dessa revolução? Qual tarefa super específica vocês dariam para um robô generalista-especialista aprender? Contem pra mim nos comentários!

Referência: Matéria Original

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima
Tutorial Elevenlabs