Na era da IA, treinamentos de Conscientização em Segurança NÃO funcionam mais

Na era da inteligência artificial, treinamentos tradicionais de conscientização em segurança não são mais suficientes para proteger empresas contra ameaças digitais. Com o avanço de deepfakes e do phishing hiperpersonalizado, ataques se tornaram altamente sofisticados, personalizados e difíceis de detectar. Em 2025, crimes envolvendo IA cresceram exponencialmente, com prejuízos bilionários e alta taxa de sucesso. O artigo mostra como esses ataques funcionam, por que o fator humano deixou de ser a principal defesa e quais estratégias práticas — incluindo tecnologia e novos processos — são essenciais para mitigar riscos no cenário atual.

Jose Luiz, AAISMEscrito por Jose Luiz, AAISM
Compartilhe
Ilustração dividida em dois cenários: de um lado, um treinamento corporativo tradicional de segurança com pessoas em uma sala de reunião; do outro, uma inteligência artificial operando múltiplas telas com ameaças digitais avançadas. Uma faixa vermelha cruza a imagem, simbolizando a ruptura entre métodos antigos e a nova realidade da cibersegurança baseada em IA.

Phishing com IA e deepfakes estão tornando treinamentos de segurança obsoletos. Entenda os riscos e como se proteger na nova era da cibersegurança.

Isso mesmo, apenas treinamentos em conscientização de segurança não são suficientes. Eles devem continuar sendo parte essencial da estratégia, mas precisam ser complementados com tecnologia e processos mais robustos. Trago neste artigo pontos de atenção sobre deepfakes e um cofo maior no phishing hiperpersonalizado. 

Estava lendo um artigo na FORTUNE (Boards aren’t ready for the AI age: What happens when your CEO gets deepfaked?) e algo me chamou a atenção. Como vamos nos proteger dos deepfakes? Aquele phishing que conhecemos, aquele e-mail suspeito que não podemos clicar, que pode causar roubo de informações, baixar vírus, comprometer dados corporativos, está desaparecendo. Não porque as ameaças diminuíram, mas porque evoluíram para algo muito pior: e-mails quase impossíveis de detectar que não são verdadeiros! 

Em 2025, criminosos clonaram a voz do Ministro da Defesa da Itália e ligaram para a elite empresarial. Uma vítima transferiu quase €1 milhão antes de descobrir o golpe. Meses antes, uma empresa de publicidade global quase caiu em uma armadilha quando criminosos criaram uma conta falsa do CEO no WhatsApp e encenaram uma chamada do Microsoft Teams com uma voz clonada treinada em vídeos do YouTube. Esses não são incidentes isolados, eles representam uma tendência que explodiu em 2025: deepfake fraud drenou US$ 1,1 bilhão de contas corporativas americanas, triplicando em relação a 2024. 

Esses casos representam apenas a ponta do iceberg. O phishing hiperpersonalizado potencializado por inteligência artificial está se tornando a ameaça corporativa mais sofisticada. 85% das organizações experimentaram pelo menos um ataque de deepfake em 2025. Os dias dos e-mails genéricos com erros de gramática acabaram. A nova geração de ataques é tão sofisticada que está tornando o treinamento de funcionários (a principal defesa das empresas) obsoleto. 

Realidade de Custos:

Tipo de campanha Custo Nível de personalização Velocidade 
Human Spear Phishing $50-200/hora 10-50 alvos 1-2 emails/hora 
AI Mass Personalization Próximo a zero  10,000+ alvos 100+ emails/hora 

Como funciona o ataque? 

Um bot de IA seleciona uma empresa-alvo e varre a internet. Encontra no LinkedIn a estrutura organizacional, funcionários e projetos. Depois, cruza informações de múltiplas redes sociais, por exemplo: Descobrir que um gerente financeiro viajou para a Itália, que torce para o Flamengo, que um analista participou de uma conferência específica. 

Com esse dossiê digital, a IA cria a isca automaticamente. O gerente não recebe um e-mail genérico, mas uma mensagem que menciona a viagem, o time, e pede aprovação de uma fatura de um fornecedor real. Gramaticalmente perfeita. Contexto impecável. 

Os números confirmam a eficácia devastadora: e-mails de phishing com IA alcançam 54% de taxa de cliques, contra apenas 12% dos e-mails de controle. Desde 2023, ataques de phishing com IA aumentaram 1.265%. Em 2025, ataques de phishing com IA cresceram 5x, sendo 14x mais frequentes em campanhas de dezembro de 2025, e 75% mais efetivos em contornar filtros de e-mail tradicionais. 

Por que o treinamento não funciona mais? 

Historicamente, as pessoas eram ensinadas a identificar phishing por erros de ortografia, gramática ruim ou contexto inconsistente. Mas a IA generativa eliminou todos esses sinais. Ela gera e-mails gramaticalmente perfeitos, imita estilos de comunicação autênticos e personaliza profundamente cada ataque. 

Pesquisadores da IBM demonstraram que a IA constrói uma campanha de phishing sofisticada em 5 minutos, o que demoraria em média 16 horas para especialistas humanos em segurança. Exigir que um funcionário, no meio de um dia agitado, identifique uma isca tão bem elaborada é uma aposta perdida! 

O desafio mais significativo é que a IA produz conteúdo altamente sofisticado, contextualmente preciso e personalizado que efetivamente imita comunicações legítimas. Essa capacidade mina diretamente os métodos tradicionais usados pelos sistemas de segurança de e-mail para identificar ameaças. 

Se o fator humano é o elo mais fraco, a solução deve ser fortalecer as defesas tecnológicas. As abordagens tradicionais, baseadas em assinaturas e filtros de palavras-chave, são ineficazes contra ataques “polimórficos”, onde cada e-mail é único

Dicas Práticas para Se Proteger 

Se a defesa puramente humana não funciona mais, o que fazer? Aqui estão dicas práticas para profissionais em contextos corporativos e pessoais: 

No Contexto Profissional: 

1.Verifique por canal alternativo: Se receber um e-mail ou chamada de seu chefe ou colega pedindo uma ação urgente (transferência de dinheiro, dados sensíveis), não responda pelo mesmo canal. Ligue ou envie mensagem por outro meio para confirmar a autenticidade. 

2.Desconfie de urgência: Ataques de phishing com IA criam pressão temporal. “Preciso disso agora”, “Isso é confidencial”, “Não mencione para ninguém”. Essas são bandeiras vermelhas. 

3.Estabeleça palavras-chave de segurança: Com seus colegas e chefes, defina uma palavra ou frase que será sempre usada em comunicações sensíveis. Se não estiver lá, é suspeito. 

4.Não confie apenas em voz ou vídeo: Deepfakes de voz e vídeo são cada vez mais realistas. Se alguém o chama para autorizar uma transação financeira, insista em confirmar pessoalmente ou por vídeo chamada com verificação de identidade adicional. 

No Contexto Pessoal: 

1.Limpe suas redes sociais: Quanto menos informação pessoal disponível publicamente (viagens, hobbies, relacionamentos), mais difícil é para criminosos personalizar ataques. 

2.Desconfie de reconexões inesperadas: Se alguém que não fala com você há anos de repente entra em contato com informações muito pessoais, pode ser um ataque. 

3.Nunca clique em links de e-mails não solicitados: Mesmo que pareçam vir de amigos ou família. Acesse o site diretamente pelo navegador. 

4.Use autenticação de dois fatores: Em contas bancárias, e-mail e redes sociais. Isso adiciona uma camada de proteção mesmo se suas credenciais forem comprometidas. 

Conclusão 

A era do phishing amador acabou. A IA colocou nas mãos de qualquer criminoso a capacidade de criar ataques personalizados em escala industrial. Continuar depositando a responsabilidade principalmente na vigilância dos funcionários é uma estratégia de segurança falha. 

As organizações precisam aceitar a nova realidade: a guerra contra o phishing agora é uma batalha de algoritmos. Investir em defesas de e-mail baseadas em IA que detectem anomalias comportamentais e contextuais não é mais um luxo, é uma necessidade crítica para a sobrevivência! 

O predador digital evoluiu. Sua armadura também precisa evoluir. 

Descomplicando a Cibersegurança 

Quer saber mais sobre Cibersegurança de uma forma simples e direta, construindo uma base de conhecimento que suporte os desafios da IA? 

Conheça meu livro: “Descomplicando a Cibersegurança” e tenha acesso a um conteúdo essencial para gestores e profissionais que precisam de clareza para navegar no cenário de riscos digitais. 

Link para Amazon: https://a.co/d/00y4w0we    

Referências 

[1] “Boards aren’t ready for the AI age: What happens when your CEO gets deepfaked?” 

https://fortune.com/2026/03/03/boards-arent-ready-for-the-ai-age-what-happens-when-your-ceo-gets-deepfaked

[2] “AI-Generated Phishing vs Human Attacks: 2025 Risk Analysis”

https://www.brside.com/blog/ai-generated-phishing-vs-human-attacks-2025-risk-analysis

  

Jose Luiz, AAISM

Jose Luiz, AAISM

Executivo de Segurança da Informação e Privacidade, é autor do livro “Descomplicando a Cibersegurança”. Combina uma vasta experiência em Governança de TI e Gerenciamento de Riscos com uma sólida formação, incluindo programas Master em Governança para Conselheiros, pós- graduação em administração de empresas, MBA em Engenharia e Arquitetura em Cloud. Detentor de certificações globais de destaque, como CISSP e CIPM, José Luiz está atualmente se especializando ativamente em segurança aplicada à Inteligência Artificial, dedicando-se a orientar empresas na proteção de seus ativos no cenário de riscos da IA.

Ver mais artigos desse autor

Recomendadas para você

Agente de IA invade sistema LLM da McKinsey em duas horas

Agente de IA invade sistema LLM da McKinsey em duas horas

Um experimento conduzido pela CodeWall demonstrou como vulnerabilidades tradicionais podem comprometer sistemas modernos baseados em modelos de linguagem. Um agente de IA conseguiu explorar uma falha de SQL injection na plataforma interna de IA da McKinsey e obter acesso completo ao banco de dados do sistema em cerca de duas horas. O caso expõe riscos crescentes na integração de LLMs com dados corporativos, APIs e sistemas críticos, além de levantar preocupações sobre ataques automatizados conduzidos por inteligência artificial.

Cezar Taurion
13 DE MARÇO
Background newsletter

Inscreva-se na nossa newslleter

Na era da IA, treinamentos de Conscientização em Segurança NÃO funcionam mais | AI Brasil