
A Inteligencia Artificial tem tornado a segurança da infraestrutura de TI contra ameaças cibernéticas um tanto desafiadora, o que diz o novo relatório da Netwrix (empresa de segurança cibernética localizada no Texas – EUA), observando que as organizações também estão usando cada vez mais IA para combater essas ameaças.
Em seu Relatório Anual Global de Tendências de Cibersegurança de 2025, baseado em uma pesquisa global com 2.150 profissionais de TI e segurança de 121 países, a Netwix afirmou que mais de um terço (37%) foi forçado a ajustar sua abordagem de cibersegurança devido a ameaças impulsionadas pela IA.
Outro terço (30%) menciona que o uso da Inteligência Artificial criou uma nova camada de ataque, enquanto que 29% afirmaram ter dificuldades com a conformidade, já que os auditores exigem comprovação de segurança e privacidade de dados em sistemas baseados em Inteligencia Artifical. Tudo isso levou quase dois terços (60%) das organizações a começar a usar IA em sua infraestrutura de TI e fez com que outros 30% considerassem implementá-la também.
Uma série de novas ameaças
Comentando as descobertas, o diretor de produtos da Netwrix, Jeff Warren, afirmou que as empresas precisam se preparar para uma “série de novas ameaças” que surgiram com a introdução da IA.
“Os dados mostram um aumento nos incidentes de segurança baseados em identidade e infraestrutura”, disse Warren.
“De fato, os ataques baseados em identidade provavelmente dominarão ainda mais, com novas maneiras engenhosas de contornar a autenticação multifator (MFA – método de segurança que exige que os utilizadores forneçam mais de um fator de autenticação para aceder a uma conta ou serviço online), abuso de identidades máquina a máquina, como contas de serviço e tokens, phishing de voz e vídeo deepfake com IA e até mesmo criação de identidade sintética em escala.”
Dirk Schrader, vice-presidente de pesquisa de segurança da Netwrix, destacou outro fato frequentemente ignorado: a IA treinada em dados corporativos gera propriedade intelectual e, como tal, é um alvo atraente para cibercriminosos: “É importante proteger os dados em todo o ciclo de vida da IA, desde a ingestão até o treinamento do modelo e o monitoramento dos endpoints da API em busca de quaisquer sinais de injeção imediata, abuso ou vazamento do modelo”, enfatizou Schrader.
