De Clawdbot a OpenClaw: Este agente de IA viral está evoluindo rapidamente e é um pesadelo para profissionais de segurança.

Clawdbot passou por uma nova rebranding, transformando-se em OpenClaw. As preocupações com segurança ainda são prioridade, especialmente após a descoberta de novas vulnerabilidades no último fim de semana. Especialistas alertam sobre os riscos associados à hype sem uma compreensão profunda.

Recentemente, Clawdbot, também conhecido como Moltbot, apresentou seu novo nome, OpenClaw, marcando uma evolução interessante na forma como o crime cibernético pode se transformar com a chegada de assistentes de IA personalizados e chatbots. Iniciado como um projeto de código aberto pelo desenvolvedor austríaco Peter Steinberger, Clawdbot teve seu nome original inspirado no assistente Claude da Anthropic, mas mudanças de marca foram necessárias devido a questões de propriedade intelectual.

A nova nomenclatura, OpenClaw, promete perdurar, visto que Steinberger mencionou ter realizado buscas de marca que retornaram limpas, além de domínios já adquiridos e códigos de migração desenvolvidos, ressaltando que o nome reflete o que o projeto se tornou. Mais do que um mero capricho de nomenclatura, OpenClaw apresenta relevância significativa para a comunidade de IA, focando na autonomia, ao invés de apenas respostas reativas a perguntas ou geração de conteúdo. Essa abordagem poderia ser um dos primeiros exemplos de como a IA personalizada pode se integrar de maneira efetiva em nosso cotidiano.

O que OpenClaw pode fazer? Equipado com modelos desenvolvidos por organizações como Anthropic e OpenAI, OpenClaw oferece aos usuários a possibilidade de escolher entre o Claude, ChatGPT, Ollama, Mistral, entre outros. Armazenado localmente, o bot interage com os usuários através de aplicativos de mensagem como iMessage ou WhatsApp. Os usuários podem selecionar e instalar habilidades, além de integrar outros softwares para aumentar a funcionalidade, incluindo plugins para Discord, Twitch, Google Chat, lembretes de tarefas, calendários, plataformas de música, hubs de casas inteligentes e aplicativos de e-mail e trabalho. Para agir em nome do usuário, é necessário conceder permissões extensas do sistema. Até o momento, OpenClaw conta com mais de 148.000 estrelas no GitHub e já foi visitado milhões de vezes.

Preocupações de segurança persistem. A rápida ascensão de OpenClaw como um fenômeno viral suscita preocupações quanto ao tempo insuficiente para corrigir falhas de segurança. Entre as questões mais relevantes estão: o interesse de golpistas, pois já surgiram repositórios falsos e fraudes em criptomoedas. O controle do sistema é outra preocupação, já que entregar controle total a um assistente de IA que realiza tarefas proativamente cria novas vias de ataque que podem ser exploradas por cibercriminosos. Adicionalmente, a injeção de comandos, um problema generalizado na comunidade de IA, pode comprometer a segurança. Pesquisadores também apontam instâncias expostas na rede que vazaram credenciais e códigos de API, além de habilidades maliciosas que, uma vez baixadas, abrem portas para exploração cibernética. Vale ressaltar que os bots podem cometer erros e fornecer informações incorretas, tornando o sistema vulnerável a enganos.

A versão mais recente do OpenClaw inclui 34 melhorias voltadas para a segurança da base de código da IA, ressaltando que essa área é prioridade máxima para os colaboradores do projeto. Entre os problemas corrigidos recentemente estão uma vulnerabilidade de execução remota de código e falhas de injeção de comando. Neste cenário desafiador, é essencial reconhecer que os bugs e vulnerabilidades relatados estão sendo abordados de forma ágil.

No mesmo período, o empresário Matt Schlicht introduziu o Moltbook, um experimento intrigante onde agentes de IA podem interagir em uma plataforma estilo Reddit. Contudo, um pesquisador de segurança, Jamieson O’Reilly, revelou que o banco de dados do site estava acessível ao público, incluindo chaves de API secretas. É preocupante que um dos agentes expostos estivesse conectado a Andrej Karpathy, um ex-diretor de IA da Tesla, ressaltando os riscos de possíveis desinformações atribuídas a figuras influentes. A ocorrência de ataques de injeção de comandos voltados para agentes de IA na plataforma também foi reportada, assim como uma grande quantidade de publicações possivelmente relacionadas a fraudes em criptomoedas.

A dependência da IA localizada pode oferecer uma sensação temporária de maior segurança em comparação com a adotada na nuvem, mas a combinação de questões emergentes de segurança e permissões extensivas pode expor os usuários a riscos significativos de privacidade. Apesar disso, o entusiasmo em torno do OpenClaw permanece vivo, e com o apelo do desenvolvedor por colaboradores, será interessante observar como o projeto evolui nos próximos meses. Enquanto isso, há formas mais seguras de explorar aplicações de IA localizadas.

(Referência: Elyse Betters Picaro / ZDNET)

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima