OpenAI realizou seu evento DevDay 2025 esta semana, no dia 6 de outubro, e a empresa trouxe diversas novidades sobre como os desenvolvedores podem interagir com sua plataforma de IA e os diferentes modelos disponíveis. A grande novidade deste ano foi como a OpenAI está transformando o ChatGPT em uma plataforma mais integrada, funcionando como um sistema operacional em vez de um serviço isolado.
Por meio de parcerias com marcas como Canva e Zillow, os usuários do ChatGPT agora podem se comunicar diretamente com serviços vinculados a partir da caixa de chat. A OpenAI também lançou um novo SDK para aplicativos, chamado AgentKit, além do ChatKit e do Codex, oferecendo uma variedade de templates para que os desenvolvedores aproveitem sua inteligência artificial. Confira todas as atualizações do evento abaixo.
Tudo Anunciado no OpenAI Dev Day 2025
E assim chegou ao fim
Sam Altman encerrou o evento com uma nota positiva. Eu participarei de diferentes sessões ao longo do dia, incluindo uma conversa com Jony Ive e Altman, então fique atento para mais atualizações e cobertura aqui.
Sora 2 e GPT-5 Pro na API
Sam Altman voltou ao palco para compartilhar as atualizações dos modelos. O GPT-5 Pro já está disponível na API para desenvolvedores, sendo ideal para obter alta precisão e profundidade de raciocínio. Ele também anunciou o lançamento do gpt-realtime-mini na API, ressaltando que a inteligência artificial será uma das principais formas de interação das pessoas com a tecnologia.
O Sora 2, que foi apresentado ao público na semana passada, também foi integrado à API. Altman demonstrou como os resultados de vídeo são realistas através de gerações de vídeo provocadas por diferentes prompts. Através da API, os desenvolvedores podem criar vídeos de alta qualidade em seus produtos.
O que o Codex pode fazer agora
Romain Huet, chefe de Experiência do Desenvolvedor na OpenAI, realizou uma demonstração da experiência com Codex. Ele utilizou o Codex para controlar os movimentos de uma câmera, conectando-a a um controle do Xbox 360. Em poucos minutos, com a assistência do Codex, ele conseguiu mover a câmera e mostrar o público.
Paralelamente, ele desenvolveu um assistente de voz capaz de controlar as luzes. O assistente se envolveu em uma conversa verbal e conseguiu iluminar a plateia. A demonstração foi bastante impressionante, levando os participantes a registrarem o momento com seus celulares. O Codex também ajudou a construir uma sobreposição de créditos, destacando todos os participantes do DevDay, além de iniciar uma contagem regressiva e tirar uma foto do público.
Codex está disponível para todos
Altman voltou ao palco para falar sobre o desenvolvimento de software. Ele observou que o uso do agente de codificação da OpenAI, Codex, cresceu 10 vezes desde o início de agosto, impulsionado por muitas atualizações, incluindo sua disponibilização em mais plataformas e uma atualização do modelo subjacente. A partir de hoje, ele está disponível para uso geral.
Construindo agentes com AgentKit
A seguir, a apresentação focou na construção de agentes. A OpenAI lançou o AgentKit, contendo "tudo que você precisa para desenvolver, implantar e otimizar fluxos de trabalho agentes", segundo Altman. Ele é construído em cima da API de Respostas e possui novos recursos para avaliar o desempenho dos agentes. O registro de Conectores continua a conectar usuários a dados. O AgentKit já está disponível para todos a partir de hoje.
Durante a demonstração ao vivo, Christina Huang, da equipe de experiência da plataforma na OpenAI, criou um agente que convertia a agenda do DevDay em uma experiência prática. Ela se deu oito minutos para desenvolver e implantar o agente, com um cronômetro visível. Para iniciar, utilizou o Criador de Agentes na plataforma da OpenAI. Após alguns passos e comandos, finalizou a criação do agente de Sessão com cinco minutos restantes. Em seguida, Huang desenvolveu o Agente DevDay, que levou menos de um minuto. Por último, ela adicionou restrições e um agente PII para enforce-las. Todo o fluxo de trabalho foi concluído com 3 minutos e 52 segundos restantes. Ela testou o fluxo de trabalho e publicou com dois minutos e 37 segundos sobrando. Com o ID do fluxo, adicionou os agentes ao site, o que exigiu alguns ajustes de código. Uma vez integrado ao site, ela conseguiu testar o agente, que funcionou perfeitamente e estava pronto para uso com 49 segundos de sobra. Huang observou que poderia ajustar os agentes ainda mais dentro do criador.
Demonstrações do Apps SDK
Alexi Christakis, engenheiro de software da OpenAI, conduziu uma demonstração ao vivo de um aplicativo em ação na interface do ChatGPT. Ele abriu o aplicativo Coursera, que exibiu um vídeo da plataforma de aprendizado diretamente no chat. A partir daí, os usuários podem fazer perguntas complementares, em um processo que a OpenAI chama de "dialogar com aplicativos".
Em outro exemplo, ele pediu à Canva ajuda para criar um cartaz – na interface, a Canva conseguiu gerar quatro exemplos de cartazes de uma vez. Estes foram acompanhados por uma explicação do que o ChatGPT havia feito. O Apps SDK também concede acesso à tela cheia dentro do ChatGPT. Para expandir ainda mais, Christakis pediu ao ChatGPT que criasse um pitch deck a partir do cartaz, o que surpreendeu o público.
Após isso, ele solicitou a ajuda da Zillow para encontrar casas na área onde deveria levar seu projeto fictício, e a experiência da Zillow tornou-se disponível dentro do ChatGPT. Para filtrar os resultados da Zillow, Alexi apenas precisava digitar um prompt em linguagem natural, demonstrando como os usuários podem restringir resultados utilizando texto, ao invés de mexer em filtros no site da Zillow. Já com o slide deck finalizado e com uma aparência bastante polida, Christakis pôde visualizá-lo em tela cheia. A partir daí, os usuários poderiam ajustar ainda mais os slides através de outros prompts e abri-los na Canva. O Apps SDK está disponível em prévia a partir de hoje para desenvolvedores. Mais tarde, neste ano, os desenvolvedores poderão submeter aplicativos para revisão e inclusão.
Aplicativos dentro do ChatGPT
Sam Altman iniciou o DevDay apresentando uma visão geral dos anúncios que seriam feitos, organizando-os em quatro categorias: aplicativos dentro do ChatGPT, construção de agentes, escrita de código e atualizações na API. Começamos com os aplicativos que estão dentro do ChatGPT. A OpenAI está simplificando o processo para os desenvolvedores criarem no ChatGPT ao lançar o Apps SDK. Isso dá aos desenvolvedores acesso ao stack completo, permitindo que eles construam aplicativos reais, em vez dos métodos anteriores, como GPTs, utilizando também o Modelo Contextual de Antropicos (MCP). A animada reação dos desenvolvedores na plateia evidenciou o entusiasmo pela oportunidade de monetização.
Preparativos para o Keynote
Estamos ao vivo na sala do keynote. O evento começará em poucos minutos.
Abertura das portas
Estamos ao vivo no evento, prontos para cobrir as últimas novidades.
O que esperar do OpenAI DevDay
Como o evento é voltado para desenvolvedores, é esperado muitas notícias especificamente para esse público, como atualizações sobre como construir. Sam Altman postou em X que a empresa "tem novidades para ajudar você a construir com a IA". Relatos apontam que a OpenAI lançará um Criador de Agentes. Além disso, também esperamos algumas novidades para o consumidor, seguindo a tendência dos últimos anos e a magnitude deste evento. A programação inclui um bate-papo com Jony Ive, portanto, é provável que tenhamos uma atualização sobre o aguardado wearable de IA que a OpenAI está desenvolvendo. Este é o maior DevDay da empresa até agora, com a presença de 1.500 participantes além da cobertura da mídia, que foi incluída pela primeira vez. O evento ocorre no Fort Mason, em San Francisco.
Agenda do dia do evento
O dia começará com um keynote transmitido ao vivo com Sam Altman às 10h PT. A seguir, haverá conversas com Greg Brockman, presidente da OpenAI; Brad Lightcap, COO da OpenAI; e Jony Ive, um ex-designer da Apple que está trabalhando no produto de hardware da OpenAI.
Como assistir ao OpenAI DevDay 2025
O principal keynote com Sam Altman terá início na segunda-feira, 6 de outubro, às 10h PT, 13h ET. A transmissão ao vivo estará disponível no YouTube, caso você queira acompanhar em tempo real.
Posts relacionados:



