Pode um único estado nos proteger de desastres causados pela IA? A nova abordagem legislativa da Califórnia.

Uma nova legislação na Califórnia, que entrará em vigor no dia 1º de janeiro, visa aumentar a transparência e a responsabilidade na indústria de inteligência artificial (IA). Enquanto alguns especialistas alertam que a tecnologia pode escapar do controle humano e gerar catástrofes, a nova lei busca abordar essas preocupações.

Elaborada pelo democrata Scott Wiener, a legislação exige que empresas que desenvolvem modelos avançados de IA publiquem, em seus sites, informações sobre suas políticas e planos de resposta a “riscos catastróficos”. Além disso, as empresas devem informar as autoridades estaduais sobre qualquer “incidente crítico de segurança” em um prazo de quinze dias. As multas por não cumprimento dessas exigências podem chegar a até $1 milhão por violação.

Outro aspecto importante da nova legislação é a proteção a denunciantes que trabalham nas empresas que desenvolvem modelos de IA. A lei define o risco catastrófico como uma situação em que um modelo avançado de IA causa a morte ou lesão de mais de 50 pessoas ou provoca danos materiais superiores a $1 bilhão, que pode incluir a disseminação de instruções para a criação de armas químicas, biológicas ou nucleares. Segundo os redactores da lei, “sem o desenvolvimento com rigor e precaução razoável, há preocupações de que sistemas avançados de inteligência artificial podem ter capacidades que apresentam riscos catastróficos.”

A nova legislação da Califórnia destaca e busca mitigar algumas das preocupações que vêm sendo discutidas por especialistas em segurança da IA, dado o ritmo acelerado de evolução da tecnologia. O cientista da computação canadense e ganhador do Prêmio Turing, Yoshua Bengio, ressaltou recentemente a responsabilidade da indústria de IA em implementar um mecanismo de desligamento em seus modelos poderosos para o caso de perderem o controle humano. Ele citou pesquisas que indicam que tais sistemas podem ocasionalmente ocultar seus objetivos e enganar pesquisadores humanos.

Outros especialistas argumentam que os avanços em IA estão se dando de forma perigosa e rápida demais, dificultando a implementação de medidas regulatórias eficazes. Em outubro, uma declaração do Future of Life Institute, uma organização sem fins lucrativos, alertou que desenvolvimentos desenfreados em IA poderiam levar à “obsolescência econômica humana, perda de liberdade, direitos civis, dignidade e controle, além de riscos à segurança nacional e até à extinção humana.” O FLI seguiu com um estudo que indicava que oito desenvolvedores líderes estavam aquém dos critérios de segurança relacionados a “governança e responsabilidade” e “risco existencial”.

A nova lei da Califórnia contrasta fortemente com a abordagem da administração Trump em relação à IA, que até aqui tem sido, na essência, de “seguir em frente e multiplicar”. O ex-presidente Donald Trump revogou a regulamentação do governo Biden sobre a tecnologia e deu à indústria ampla liberdade para acelerar o desenvolvimento e implantação de novos modelos, buscando manter uma vantagem competitiva em relação aos esforços da China na área de IA.

Assim, a responsabilidade por proteger o público dos potenciais danos da IA foi, em grande parte, delegada a legisladores estaduais, como Wiener, e aos próprios desenvolvedores de tecnologia. No último sábado, a OpenAI anunciou que sua equipe de Sistemas de Segurança estava contratando um novo “Chefe de Preparação”, cuja função será construir estruturas de testes para a segurança dos modelos. O cargo oferece um salário de $555.000, além de participação acionária. “Este é um papel crítico em um momento importante,” escreveu o CEO da empresa, Sam Altman, em uma postagem, “os modelos estão avançando rapidamente e agora são capazes de muitas coisas magníficas, mas também estão começando a apresentar desafios reais.”

Referência: iStock / Getty Images Plus / Getty Images

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima
Tutorial Elevenlabs