Open AI e Anthropic convidam cientistas dos EUA para experimentar modelos de ponta

As parcerias entre empresas de IA e o governo dos Estados Unidos estão em expansão, mesmo com a incerteza em torno do futuro da segurança e regulação em IA. Na sexta-feira, Anthropic, OpenAI e outras empresas de IA reuniram mil cientistas para testar seus modelos mais recentes. O evento, organizado pela OpenAI e denominado AI Jam Session, proporcionou a cientistas de nove laboratórios um dia inteiro para utilizar vários modelos — incluindo o o3-mini da OpenAI e o Claude 3.7 Sonnet, o mais recente lançamento da Anthropic — para avançar em suas pesquisas.

Em seu próprio comunicado, a Anthropic destacou que a sessão "oferece uma avaliação mais autêntica do potencial da IA para gerenciar as complexidades e nuances da investigação científica, assim como avaliar a capacidade da IA para resolver desafios científicos complexos que normalmente exigem tempo e recursos significativos." O AI Jam Session faz parte de acordos existentes entre o governo dos EUA, a Anthropic e a OpenAI. Em abril, a Anthropic se juntou ao Departamento de Energia (DOE) e à Administração Nacional de Segurança Nuclear (NNSA) para testar o Claude 3 Sonnet, verificando se ele poderia revelar informações nucleares perigosas. No dia 30 de janeiro, a OpenAI anunciou uma parceria com os Laboratórios Nacionais do DOE para "potencializar suas pesquisas científicas utilizando nossos mais recentes modelos de raciocínio."

Os Laboratórios Nacionais, uma rede de 17 locais de pesquisa e testes científicos espalhados pelo país, investigam temas que vão desde segurança nuclear até soluções para mudanças climáticas. Os cientistas participantes também foram convidados a avaliar as respostas dos modelos e fornecer "feedback para melhorar futuros sistemas de IA, de modo que sejam desenvolvidos com foco nas necessidades dos cientistas", afirmou a OpenAI em seu anúncio do evento. A empresa observou que compartilharia as descobertas da sessão sobre como os cientistas podem usar melhor os modelos de IA.

Em seu comunicado, a OpenAI incluiu uma declaração do secretário de Energia, Chris Wright, que comparou o desenvolvimento de IA ao Projeto Manhattan, qualificado como o próximo "esforço patriótico" da ciência e tecnologia do país. A parceria mais ampla da OpenAI com os Laboratórios Nacionais visa acelerar e diversificar o tratamento e prevenção de doenças, melhorar a segurança cibernética e nuclear, explorar energias renováveis e avançar na pesquisa em física. O AI Jam Session e a parceria com os Laboratórios Nacionais estão acompanhados de várias outras iniciativas entre empresas de IA privadas e o governo, incluindo o ChatGPT Gov, um chatbot personalizado da OpenAI para agências locais, estaduais e federais, e o Project Stargate, um plano de investimento de US$ 500 bilhões em data centers.

Esses acordos oferecem indícios de como a estratégia de IA dos EUA está rebaixando a ênfase em segurança e regulação sob a administração Trump. Embora ainda não tenham sido implementadas, demissões no Instituto de Segurança em IA, parte das demissões mais amplas do DOE, têm sido rumores por semanas, e o chefe do Instituto já deixou seu cargo. O plano de ação em IA da administração atual ainda não foi anunciado, deixando o futuro da supervisão em IA em uma situação indefinida.

Parcerias desse tipo, que colocam os mais recentes desenvolvimentos em IA diretamente nas mãos de iniciativas governamentais, podem se tornar mais comuns à medida que a administração Trump se aproxima mais das empresas de IA e prioriza menos a participação de organismos de fiscalização independentes. O risco é a redução da supervisão sobre como novas tecnologias poderosas e seguras são introduzidas — a regulação já é incipiente nos EUA — à medida que a implementação acelera.

Link de referência: inputmag.com

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima