Os agentes de IA estão sendo rapidamente implementados nas organizações, mesmo diante de preocupações em relação à segurança, conforme um novo relatório da empresa de governança de dados SailPoint. Com base em uma pesquisa global com mais de 350 profissionais de TI, o estudo revelou que a adoção generalizada desses agentes — sistemas de IA capazes de formular planos e executar ações sem supervisão humana — ocorre em um cenário de deficiência em segurança. Entre os profissionais de TI que responderam, 84% afirmaram que suas empresas já utilizam agentes internamente, mas pouco mais da metade (44%) possui políticas estabelecidas para regular o comportamento desses agentes.
Além disso, 96% dos entrevistados consideram os agentes um risco à segurança, mas 98% também indicaram que seus empregadores planejam aumentar o uso dessas tecnologias no próximo ano.
A Ascensão dos Agentes
Os agentes representam a mais recente onda de inovação no campo da IA generativa, que ganhou impulso significativo após o lançamento do ChatGPT pela OpenAI no final de 2022. Diferentemente dos chatbots tradicionais, que exigem solicitações minuciosas por parte dos humanos, os agentes possuem uma autonomia muito maior para realizar tarefas.
Grandes empresas de tecnologia têm desenvolvido e lançado uma quantidade significativa de agentes nos últimos meses, na esperança de lucrar com a corrida do ouro da IA generativa. Empresas menores, como mostra o relatório da SailPoint, rapidamente adotaram esses novos sistemas, atraídas pela promessa de maior eficiência e pela pressão crescente para serem pioneiras no que muitas vezes é descrito — principalmente por grandes empresas de tecnologia — como uma tecnologia radicalmente disruptiva.
Riscos Elevados de Segurança
A capacidade dos agentes de agir sem supervisão humana também os torna um risco cibernético elevado, segundo o relatório. "Esses agentes autônomos estão transformando a maneira como o trabalho é realizado, mas também introduzem uma nova superfície de ataque", comentou Chandra Gnanasambandam, VP de Produto e CTO da SailPoint, em uma declaração. "Eles frequentemente operam com amplo acesso a sistemas e dados sensíveis, mas têm supervisão limitada."
Conforme apontado por Gnanasambandam, a pesquisa da SailPoint revelou uma ironia alarmante: a vasta maioria (92%) dos entrevistados acredita que uma governança adequada dos agentes de IA é fundamental para proteger a cibersegurança de suas organizações, e ao mesmo tempo, muitos (80%) relatam que os agentes já agiram de formas inesperadas e potencialmente arriscadas, incluindo o acesso a recursos não autorizados e o compartilhamento de dados sensíveis.
Dada a sua privilegiada e quase irrestrita capacidade de acesso a dados organizacionais sensíveis, Gnanasambandam recomenda tratar os agentes de IA com o mesmo protocolo de segurança que se aplica aos funcionários humanos. "À medida que as organizações ampliam o uso de agentes de IA, elas devem adotar uma abordagem centrada na identidade para garantir que esses agentes sejam governados tão rigorosamente quanto os usuários humanos, com permissões em tempo real, o princípio do menor privilégio e total visibilidade em suas ações", concluiu.
Referência: SailPoint Report
Posts relacionados:



