Moltbot, anteriormente conhecido como Clawdbot, ganhou destaque como uma "IA que realmente faz coisas". Especialistas em segurança alertaram sobre os perigos de seguir essa tendência e usar o assistente de IA sem precaução. Se você está pensando em experimentar o Moltbot, é importante estar ciente dessas questões de segurança.
O que é Moltbot? Moltbot, representado como um crustáceo simpático, se apresenta como uma "IA que realmente realiza tarefas". Criado pelo desenvolvedor austríaco Peter Steinberger, este assistente de IA de código aberto foi projetado para gerenciar aspectos da sua vida digital, incluindo o gerenciamento de emails, envio de mensagens e até mesmo a realização de ações em seu nome, como o check-in em voos e outros serviços. O assistente, armazenado em computadores individuais, se comunica com os usuários através de aplicativos de mensagens como iMessage, WhatsApp e Telegram. Com mais de 50 integrações e habilidades, memória persistente e funcionalidades de controle do sistema, o Moltbot rapidamente se popularizou.
Em questão de dias, Moltbot se tornou viral. No GitHub, já conta com centenas de colaboradores e cerca de 100 mil estrelas, configurando-se como um dos projetos de IA de código aberto de crescimento mais rápido na plataforma até o momento.
Qual é o problema?
-
O interesse viral gera oportunidades para golpistas
A popularidade do software de código aberto está ligada à transparência do código, permitindo que qualquer um faça auditorias em busca de vulnerabilidades. No entanto, a rápida ascensão pode permitir que desenvolvimentos maliciosos se infiltrem, com relatos de repositórios falsos e fraudes de criptomoedas já em circulação. Aproveitando a mudança repentina de nome, golpistas lançaram um token falso de IA Clawdbot que conseguiu arrecadar 16 milhões de dólares antes de desmoronar. Portanto, se você planeja experimentar, é fundamental usar apenas repositórios confiáveis. -
Entregando as chaves do seu reino digital
Caso decida instalar o Moltbot e utilizá-lo como um assistente pessoal autônomo, será necessário conceder acesso às suas contas e ativar controles em nível de sistema. Não há uma configuração totalmente segura, como reconhecido pela documentação do Moltbot, e pesquisadores de segurança o descrevem como um "pesadelo absoluto" em termos de segurança. A autonomia do bot depende de permissões para executar comandos, ler ou gravar arquivos, executar scripts e realizar tarefas computacionais, o que pode expor seus dados a riscos se estiverem mal configurados ou se malware infectar sua máquina. -
Credenciais expostas
O pesquisador de segurança ofensiva Jamieson O’Reilly monitorou o Moltbot e identificou instâncias expostas e mal configuradas conectadas à internet sem qualquer proteção de autenticação. Em centenas de casos, algumas não dispunham de nenhuma proteção, o que resultou no vazamento de chaves de API da Anthropic, tokens de bot do Telegram, credenciais OAuth do Slack e segredos de assinatura, além de históricos de conversas. Embora os desenvolvedores tenham se mobilizado rapidamente para introduzir novas medidas de segurança, é essencial que você saiba como configurá-lo corretamente. -
Ataques de injeção de comandos
Os ataques de injeção de comandos geram preocupações significativas para especialistas em cibersegurança que trabalham com IA. Esse vetor de ataque exige que um assistente de IA leia e execute instruções maliciosas, que podem estar escondidas em material da web ou URLs. Um agente de IA pode, então, vazar dados sensíveis, enviar informações para servidores controlados por atacantes ou executar tarefas em sua máquina — desde que tenha as permissões para tal. Especialistas alertam que ao operar qualquer IA, é crucial ter consciência de que você não está apenas permitindo acesso a um bot, mas a um sistema que pode acessar conteúdos de fontes externas que não estão sob seu controle. - Habilidades e conteúdos maliciosos
Pesquisadores de cibersegurança já descobriram instâncias de habilidades maliciosas adequadas para uso com Moltbot surgindo online. Um exemplo foi uma nova extensão do VS Code chamada "ClawdBot Agent", que foi identificada como maliciosa e se revelou um Trojan completo, utilizando software de acesso remoto provavelmente para vigilância e roubo de dados. Embora o Moltbot não possua uma extensão para o VS Code, esse caso evidencia como a popularidade do assistente pode abrir espaço para uma variedade de extensões maliciosas que precisarão ser detectadas e gerenciadas.
Embora eu recomende cautela ao adotar assistentes de IA que possuem altos níveis de autonomia e acesso às suas contas, isso não significa que esses modelos e ferramentas inovadoras não tenham seu valor. O Moltbot pode representar a primeira edição de como os agentes de IA se integrarão em nossas vidas futuras, mas ainda assim devemos exercer extrema cautela e evitar priorizar a conveniência em detrimento da segurança pessoal.
Referência: zdnet.com
Posts relacionados:
Papa Francisco faz alerta sobre os riscos da inteligência artificial; conheça sua perspectiva
IA multimodal apresenta novos riscos à segurança e gera informações sobre CSEM e armamentos.
FBI alerta sobre site de denúncias de fraudes sendo falsificado – dicas para não cair em golpes
A OpenAI pode enfrentar dificuldades? Especialista alerta sobre a ameaça dos modelos de código aberto.