Os cibercriminosos estão utilizando a inteligência artificial (IA) como arma em cada fase dos ataques. Modelos de linguagem de grande escala criam e-mails de phishing hiperpersonalizados ao coletar informações dos perfis em redes sociais e redes profissionais das vítimas. Redes neurais adversariais geram áudios e vídeos falsificados para contornar a autenticação em múltiplas etapas. Ferramentas automatizadas como o WormGPT permitem que indivíduos menos experientes lancem malware polimórfico que evolui para escapar da detecção baseada em assinaturas. Esses ataques cibernéticos não são apenas teorias; as organizações que não desenvolverem suas estratégias de segurança correm o risco de serem dominadas por uma enxurrada de ameaças cibernéticas hiperinteligentes nos próximos anos.
Para entender melhor como a IA afeta a segurança empresarial, conversei com um veterano em cibersegurança na nuvem e empresas, sobre essa nova era de segurança digital, detecção precoce de ameaças e como preparar sua equipe para ataques potencializados por IA. Mas primeiro, é importante entender o que esperar.
As ameaças cibernéticas impulsionadas por IA são diferentes porque dotam os atores maliciosos de ferramentas sofisticadas que tornam os ataques mais precisos, persuasivos e difíceis de detectar. Sistemas modernos de IA generativa conseguem analisar enormes conjuntos de dados de informações pessoais, comunicações empresariais e atividades em redes sociais, criando campanhas de phishing altamente direcionadas que imitam de maneira convincente contatos de confiança e organizações legítimas. Essa capacidade, combinada com malware automatizado que se adapta em tempo real às medidas de defesa, aumentou drasticamente tanto a escala quanto as taxas de sucesso dos ataques.
A tecnologia deepfake permite que invasores gerem conteúdos de vídeo e áudio muito convincentes, facilitando fraudes de impersonação de executivos e campanhas de desinformação em larga escala. Incidentes recentes incluem um roubo de 25 milhões de dólares de uma empresa com sede em Hong Kong por meio de videoconferência deepfake e vários casos de clipes de voz gerados por IA usados para enganar funcionários e familiares a transferirem fundos para criminosos.
As invasões cibernéticas automatizadas por IA resultaram na inovação de sistemas de ataque do tipo “configurar e esquecer”, que continuamente exploram vulnerabilidades, se adaptam a medidas defensivas e exploram fraquezas sem intervenção humana. Um exemplo disso é a violação de dados em 2024 de um grande provedor de serviços em nuvem. O malware impulsionado por IA mapeou sistematicamente a arquitetura da rede, identificou vulnerabilidades potenciais e executou uma cadeia de ataque complexa que comprometeu milhares de contas de clientes.
Esses incidentes ressaltam como a IA não só está ampliando as ameaças cibernéticas existentes, mas também criando novas categorias de riscos à segurança. Abaixo, estão as sugestões para enfrentar esse desafio.
1. Implementar uma arquitetura de zero confiança
O perímetro de segurança tradicional não é mais suficiente diante das ameaças ampliadas por IA. Uma arquitetura de zero confiança opera sob o princípio de “nunca confiar, sempre verificar”, garantindo que cada usuário, dispositivo e aplicativo seja autenticado e autorizado antes de acessar recursos. Essa abordagem minimiza o risco de acesso não autorizado, mesmo que um invasor consiga contornar a rede.
“As empresas devem verificar cada usuário, dispositivo e aplicativo – incluindo a IA – antes que tenham acesso a dados ou funções críticas”, ressalta um especialista, observando que essa estratégia é a “melhor opção para uma organização”. Ao verificar continuamente identidades e impor controles rigorosos de acesso, as empresas podem reduzir a superfície de ataque e limitar os danos potenciais de contas comprometidas.
Apesar dos desafios impostos pela IA, também existem ferramentas poderosas para defesa. Soluções de segurança impulsionadas por IA podem analisar grandes volumes de dados em tempo real, identificando anomalias e ameaças potenciais que métodos tradicionais poderiam perder. Esses sistemas podem se adaptar a padrões emergentes de ataque, proporcionando uma defesa dinâmica contra ciberataques impulsionados por IA. O especialista acrescenta que a IA – assim como os sistemas de defesa cibernética – nunca deve ser tratada como um recurso embutido. “Agora é o momento para os líderes de segurança construírem sistemas com IA desde a base”, afirma. Ao integrar a IA em sua infraestrutura de segurança, as organizações podem aprimorar sua capacidade de detectar e responder a incidentes rapidamente, reduzindo a janela de oportunidade para invasores.
2. Educar e treinar funcionários sobre ameaças impulsionadas por IA
As organizações podem reduzir o risco de vulnerabilidades internas ao cultivar uma cultura de conscientização sobre segurança e fornecer diretrizes claras sobre o uso de ferramentas de IA. A complexidade humana exige soluções simples, que frequentemente se mostram as mais eficazes.
“Não se trata apenas de mitigar ataques externos. Trata-se também de fornecer diretrizes para os colaboradores que utilizam a IA como seu ‘código secreto para produtividade'”, afirma o especialista. O erro humano continua sendo uma vulnerabilidade significativa em cibersegurança. À medida que ataques de phishing e engenharia social gerados por IA se tornam mais convincentes, a educação dos funcionários sobre essas ameaças em evolução se torna ainda mais crucial. Sessões de treinamento regulares podem ajudar a equipe a reconhecer atividades suspeitas, como e-mails inesperados ou solicitações que fogem dos procedimentos habituais.
3. Monitorar e regular o uso de IA pelos funcionários
A acessibilidade das tecnologias de IA levou a uma adoção generalizada em várias funções empresariais. No entanto, o uso não autorizado ou não monitorado de IA – frequentemente chamado de “IA oculta” – pode introduzir riscos de segurança significativos. Funcionários podem utilizar inadvertidamente aplicações de IA que carecem de medidas de segurança adequadas, resultando em potenciais vazamentos de dados ou problemas de conformidade.
“Não podemos permitir que dados corporativos circulem livremente em ambientes de IA não autorizados, portanto, um equilíbrio deve ser alcançado”, explica o especialista. Implementar políticas que regulem as ferramentas de IA, realizar auditorias regulares e garantir que todas as aplicações de IA estejam em conformidade com os padrões de segurança da organização são essenciais para mitigar esses riscos.
4. Colaborar com especialistas em IA e cibersegurança
A complexidade das ameaças impulsionadas por IA exige colaboração com especialistas em IA e cibersegurança. Parcerias com empresas externas podem fornecer às organizações acesso às mais recentes inteligências sobre ameaças, tecnologias defensivas avançadas e habilidades especializadas que podem não estar disponíveis internamente.
Ataques impulsionados por IA requerem contramedidas sofisticadas que frequentemente faltam nas ferramentas de segurança tradicionais. Plataformas de detecção de ameaças aprimoradas por IA, navegadores seguros e controles de acesso de zero confiança analisam o comportamento dos usuários, detectam anomalias e evitam que agentes maliciosos ganhem acesso não autorizado. O especialista destaca que as soluções inovadoras para as empresas “são um elo faltando na estrutura de segurança de zero confiança. [Essas ferramentas] fornecem controles de segurança profundos e granulares que protegem de maneira contínua qualquer aplicativo ou recurso em redes públicas e privadas.” Essas ferramentas utilizam aprendizado de máquina para monitorar continuamente a atividade da rede, sinalizar padrões suspeitos e automatizar a resposta a incidentes, reduzindo o risco de ataques gerados por IA infiltrando-se nos sistemas corporativos.
Referência: ebrublue10/Getty Images
Posts relacionados:



