Como agentes de IA auxiliam hackers a roubar seus dados confidenciais – e o que fazer a respeito

Como muitas pessoas, criminosos cibernéticos estão aproveitando a inteligência artificial para aumentar sua eficiência. Utilizando bots automatizados, apropriação de contas e engenharia social, um golpista astuto sabe como aprimorar suas táticas tradicionais com um toque de AI. Um novo relatório da Gartner mostra como essa prática já está acontecendo e como pode piorar nos próximos anos.

As apropriações de contas se tornaram uma área de ataque persistente, em grande parte devido à autenticação fraca, de acordo com Jeremy D’Hoinne, analista da Gartner. Os atacantes têm diversas maneiras de obter senhas de contas, incluindo vazamentos de dados e técnicas de engenharia social. Assim que uma senha é comprometida, a inteligência artificial entra em ação. Os criminosos cibernéticos utilizam bots de AI para gerar várias tentativas de login em diferentes serviços, visando descobrir se as mesmas credenciais estão sendo utilizadas em várias plataformas, preferencialmente em locais que possam resultar em lucros.

Ao identificar o tipo certo de site, o criminoso pode coletar todos os dados necessários para realizar uma apropriação total da conta. Se o hacker não quiser executar o ataque diretamente, sempre há a opção de vender as informações na dark web, onde compradores interessados podem adquiri-las. “A apropriação de contas (ATO) continua a ser um vetor de ataque persistente devido às credenciais de autenticação fracas, como senhas, que podem ser adquiridas por diversas vias, incluindo vazamentos de dados, phishing, engenharia social e malware”, afirmou D’Hoinne no relatório. “Os atacantes utilizam bots para automatizar uma série de tentativas de login em vários serviços, na esperança de que as credenciais sejam reutilizadas em diferentes plataformas.”

Com a adição da AI em seu arsenal, os atacantes conseguem automatizar mais facilmente os passos requeridos para uma apropriação de conta. Com o crescimento dessa tendência, a Gartner prevê que o tempo necessário para assumir uma conta cairá em 50% nos próximos dois anos. Além de facilitar a apropriação de contas, a inteligência artificial também pode ajudar os criminosos a realizar campanhas de deepfake. Atualmente, os atacantes estão combinando táticas de engenharia social com áudio e vídeo deepfake. Ao telefonar para um funcionário desavisado e simular a voz de um contato ou executivo confiável, o golpista tenta induzir a vítima a transferir dinheiro ou revelar informações confidenciais.

Até o momento, apenas alguns casos de alto perfil foram registrados, mas resultaram em grandes perdas financeiras para as empresas afetadas. Detectar uma voz deepfake ainda é uma dificuldade, especialmente em chamadas de voz e vídeo entre pessoas. Com essa tendência crescente, a Gartner espera que 40% dos ataques de engenharia social visem executivos, além da força de trabalho geral, até 2028. “As organizações precisarão se manter atualizadas sobre o mercado e adaptar procedimentos e fluxos de trabalho na tentativa de resistir melhor a ataques que utilizem técnicas de realidade falsificada”, disse Manuel Acosta, diretor analista da Gartner. “Educar os funcionários sobre o panorama de ameaças em evolução, com treinamentos específicos sobre engenharia social e deepfakes, é um passo crucial.”

Como indivíduos e organizações podem combater esses tipos de ataques impulsionados por inteligência artificial? “Para enfrentar os desafios emergentes trazidos por ataques baseados em AI, as organizações devem utilizar ferramentas de AI que proporcionem visibilidade em tempo real e alertas para reforçar as equipes de segurança”, explicou Nicole Carignan, vice-presidente sênior de segurança e estratégia de AI da fornecedora de segurança Darktrace. “Quando apropriado, as organizações devem se antecipar a novas ameaças integrando respostas automatizadas, seja de modo autônomo ou com a intervenção humana, para acelerar a reação das equipes de segurança”, acrescentou Carignan. “Por meio dessa abordagem, a adoção de tecnologias de inteligência artificial — como soluções com capacidades de detecção de anomalias que podem identificar e responder a ameaças nunca antes vistas — pode ser fundamental para garantir a segurança das organizações.”

Outras ferramentas que podem ajudar a proteger contra a violação de contas incluem a autenticação multifatorial e a verificação biométrica, como reconhecimento facial ou impressões digitais. “Criminosos cibernéticos não contam apenas com credenciais roubadas, mas também com manipulação social para infringir as proteções de identidade”, disse James Scobey, diretor de segurança da informação da Keeper Security. “Deepfakes são uma preocupação particular nesse domínio, pois modelos de AI tornam esses métodos de ataque mais rápidos, baratos e convincentes. À medida que os atacantes se tornam mais sofisticados, a necessidade de métodos de verificação de identidade mais robustos e dinâmicos — como autenticação multifatorial (MFA) e biometria — será vital para se defender contra essas ameaças cada vez mais sutis. A MFA é essencial para evitar apropriações de contas.”

Em seu relatório, a Gartner também ofereceu algumas dicas para lidar com ataques de engenharia social e deepfakes.

Eduque os funcionários. Ofereça treinamentos relacionados à engenharia social e deepfakes, mas não dependa exclusivamente da habilidade deles em detectá-los.
Estabeleça outras medidas de verificação para interações potencialmente arriscadas. Por exemplo, qualquer solicitação de informações confidenciais, durante uma ligação, deve ser verificada em outra plataforma.
Implemente uma política de retorno de chamada. Crie um número de telefone que um funcionário possa ligar para confirmar uma solicitação sensível ou confidencial.
Vá além da política de retorno de chamada. Minimize o risco de que uma única ligação ou solicitação possa causar problemas. Por exemplo, se um chamador que se diz o CFO pede para transferir uma quantia alta de dinheiro, assegure-se de que essa ação não possa ser realizada sem consultar o CFO ou outro executivo de alto escalão.
Mantenha-se atualizado sobre a detecção em tempo real de deepfakes. Esteja informado sobre novos produtos ou ferramentas que possam detectar deepfakes utilizados em chamadas de áudio e vídeo. Essa tecnologia ainda está em desenvolvimento, portanto, é fundamental complementá-la com outros métodos de identificação do chamador, como um ID único.

Fonte: https://www.gartner.com/en/information-technology/insights/cybersecurity

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima