No campo da segurança da informação, estamos acostumados com o termo Engenharia Social: a arte de manipular pessoas para que elas realizem ações ou divulguem informações confidenciais. É um ataque que explora a psicologia e as falhas humanas.
Hoje, com a ascensão da Inteligência Artificial generativa, vemos um padrão de ataque muito semelhante, mas com um alvo diferente. Em vez de enganar um humano com um e-mail de phishing, os atacantes agora criam “prompts” maliciosos para enganar as IAs. Esses ataques, conhecidos como prompt injection, visam contornar as barreiras de segurança dos modelos de linguagem para extrair dados sensíveis, gerar conteúdo inadequado ou forçar a IA a executar ações não autorizadas.
A semelhança é notável:
• Engenharia Social: Explora vieses e a confiança humana para enganar uma pessoa.
• Ataques a IAs: Exploram o modo como o modelo processa a linguagem e segue instruções para enganar a máquina.
Isso me leva a uma reflexão importante: se o alvo não é mais a “sociedade” ou o indivíduo humano, mas sim um sistema artificial, será que o termo “Engenharia Social” ainda se aplica?
Acredito que estamos diante de uma nova disciplina de ataque, que merece um nome próprio.
Proponho o termo: Engenharia Artificial.
A “Engenharia Artificial” seria, então, o conjunto de técnicas focadas em manipular sistemas de IA, explorando suas arquiteturas e mecanismos de processamento para induzi-los a comportamentos indesejados. Não estamos mais explorando a psicologia humana, mas sim a “psicologia” da máquina.
Essa tática é a versão moderna do SQL Injection, mas em vez de atacar um banco de dados, ela manipula a própria lógica de processamento da IA. A OWASP, uma das maiores autoridades em segurança, já classifica o prompt injection como a vulnerabilidade top 1 para aplicações de LLMs, o que reforça a urgência do tema.
Os ataques podem ser diretos, como quando um usuário convence o chatbot a ignorar suas regras, ou indiretos e muito mais perigosos. Imagine um prompt malicioso escondido em um site ou num PDF que a IA analisa. Sem que o usuário perceba, o comando oculto pode instruir a IA a vazar dados confidenciais para um invasor.
Essa distinção não é apenas semântica. Ela é crucial para o futuro da cibersegurança. Ao nomear e categorizar corretamente essa nova classe de ameaças, podemos:
1. Desenvolver defesas especializadas: Criar mecanismos de segurança focados nas vulnerabilidades específicas dos modelos de IA, em vez de apenas adaptar conceitos de segurança tradicionais.
2. Criar conscientização: Educar desenvolvedores, empresas e usuários sobre os riscos únicos associados à manipulação de IAs.3. Direcionar pesquisas: Fomentar estudos para entender e mitigar a “Engenharia Artificial” de forma proativa.
A Engenharia Social não vai desaparecer. Mas, à medida que delegamos mais tarefas e decisões às IAs, a Engenharia Artificial emergirá como um dos vetores de ataque mais críticos do nosso tempo.
Quer saber mais sobre Cibersegurança de uma forma simples e direta, construindo uma base de conhecimento que suporte os desafios da IA?
Conheça meu livro: “Descomplicando a Cibersegurança” e tenha acesso a um conteúdo essencial para gestores e profissionais que precisam de clareza para navegar no cenário de riscos digitais.









