Como atores globais estão utilizando a IA como arma atualmente

As ferramentas de inteligência artificial generativa têm se disseminado nos últimos anos, levantando preocupações sobre seu uso inadequado e abusivo. Aplicativos como o ChatGPT podem produzir textos, imagens, vídeos e áudios com grande realismo. Os criadores dessas tecnologias prometem avanços na produtividade das empresas e uma criatividade humana ampliada, enquanto muitos especialistas em segurança e formuladores de políticas temem o crescimento iminente da desinformação e outros riscos que esses sistemas podem trazer.

A OpenAI — considerada líder nessa competição pelo desenvolvimento de IA — publica anualmente um relatório que destaca as diversas maneiras pelas quais seus sistemas de IA são explorados por atores mal-intencionados. No documento mais recente, a empresa destacou que "investigações sobre IA são uma disciplina em evolução". "Cada operação que conseguimos interromper nos fornece uma compreensão mais clara de como os agentes de ameaça tentam explorar nossos modelos, permitindo que aprimoramos nossas defesas."

O novo relatório traz 10 exemplos de abusos ocorridos no último ano, dos quais quatro parecem ter origem na China.

O que o relatório revelou

Em cada um dos 10 casos mencionados, a OpenAI descreveu como detectou e tratou os problemas. Um dos casos que provavelmente se originou na China, por exemplo, envolveu contas do ChatGPT gerando postagens em redes sociais em inglês, chinês e urdu. Uma "conta principal" publicava um post, e outras seguiam com comentários, todos com o objetivo de criar a ilusão de um engajamento humano autêntico e atrair atenção para temas politicamente sensíveis.

De acordo com o relatório, assuntos como Taiwan e a desmantelação da USAID estão "todos intimamente alinhados aos interesses geoestratégicos da China".

Outro exemplo de abuso, que, segundo a OpenAI, tinha vínculos diretos com a China, envolvia o uso do ChatGPT para atividades cibernéticas ilícitas, como o "brute-forcing" de senhas — a tentativa de uma grande quantidade de senhas geradas por IA para acessar contas online — e a pesquisa de registros disponíveis publicamente sobre o militar e a indústria de defesa dos EUA. O ministério das Relações Exteriores da China negou qualquer envolvimento com as atividades mencionadas no relatório da OpenAI, conforme noticiado pela Reuters.

Outras utilizações ameaçadoras da IA descritas no relatório estão supostamente ligadas a atores da Rússia, Irã, Camboja e de outros lugares.

Um jogo de gato e rato

Modelos de geração de texto, como o ChatGPT, podem ser apenas o começo do problema da desinformação promovido pela IA. Modelos de texto para vídeo, como o Veo 3 do Google, estão cada vez mais aptos a produzir vídeos realistas a partir de comandos em linguagem natural. Enquanto isso, modelos de texto para fala, como o novo v3 da ElevenLabs, conseguem gerar vozes humanas com facilidade similar.

Embora os desenvolvedores geralmente implementem algum tipo de restrições antes de lançar seus modelos, os agentes mal-intencionados — como o novo relatório da OpenAI deixa claro — estão se mostrando cada vez mais criativos em seu uso inadequado. As duas partes estão engajadas em um jogo de gato e rato, especialmente considerando que atualmente não existem políticas federais robustas de supervisão nos EUA.

Link de referência: Fonte Original

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima