Agente de IA invade sistema LLM da McKinsey em duas horas

Um experimento conduzido pela CodeWall demonstrou como vulnerabilidades tradicionais podem comprometer sistemas modernos baseados em modelos de linguagem. Um agente de IA conseguiu explorar uma falha de SQL injection na plataforma interna de IA da McKinsey e obter acesso completo ao banco de dados do sistema em cerca de duas horas. O caso expõe riscos crescentes na integração de LLMs com dados corporativos, APIs e sistemas críticos, além de levantar preocupações sobre ataques automatizados conduzidos por inteligência artificial.

Cezar TaurionEscrito por Cezar Taurion
Compartilhe
Agente de IA invade sistema LLM da McKinsey em duas horas

Esse experimento publicado pela CodeWall trouxe um alerta importante sobre segurança em sistemas baseados em LLMs. No teste, um agente de IA foi direcionado contra a plataforma interna de IA da consultoria McKinsey, chamada Lilli. O resultado foi que em cerca de duas horas o agente conseguiu acesso completo de leitura e escrita ao banco de dados do sistema, sem credenciais, sem acesso interno e sem assistência humana durante o ataque.

O detalhe que chama atenção não é apenas o acesso em si, mas o que estava exposto. Segundo o relatório, o sistema continha 46,5 milhões de mensagens de chat, centenas de milhares de arquivos internos e dezenas de milhares de contas de usuários, além de prompts que controlavam o comportamento do próprio modelo.

Segurança em Sistemas de IA Corporativa

O ataque não explorou uma técnica futurista. Pelo contrário, a porta de entrada foi uma SQL injection, uma vulnerabilidade conhecida há décadas. A falha surgiu porque campos de uma requisição JSON estavam sendo concatenados diretamente em consultas SQL. A partir daí, o agente foi capaz de extrair dados gradualmente a partir de mensagens de erro e, eventualmente, acessar informações do ambiente de produção.

Esse episódio revela algo mais profundo sobre a segurança de sistemas baseados em LLMs. Muitas organizações tratam essas plataformas como uma camada “inteligente” sobre dados corporativos, mas na prática elas introduzem novas superfícies de ataque. Quando um modelo é conectado a bases de conhecimento, APIs e documentos internos, ele passa a fazer parte da infraestrutura crítica da empresa, e qualquer vulnerabilidade tradicional pode se transformar em um vetor de impacto muito maior.

System prompts

Outro ponto particularmente preocupante é que os system prompts que governavam o comportamento da IA estavam armazenados no mesmo banco de dados. Com acesso de escrita, um atacante poderia simplesmente modificar esses prompts e alterar silenciosamente o comportamento do sistema, influenciando respostas, recomendações e consultas feitas por milhares de usuários. Tudo isso sem alterar código ou fazer um novo deploy.

Esse caso também mostra uma tendência emergente: IA atacando IA. O agente usado no experimento foi capaz de mapear a superfície de ataque, testar hipóteses, explorar vulnerabilidades e encadear passos de forma autônoma, operando em velocidade de máquina.

Vulnerabilidades

A lição aqui não é que uma empresa específica tenha falhado. Vulnerabilidades desse tipo aparecem em muitos sistemas complexos. O problema é que a adoção de IA corporativa está avançando muito mais rápido do que a maturidade das práticas de segurança para esse novo tipo de arquitetura.

LLMs estão sendo integrados a dados estratégicos, conhecimento interno e fluxos operacionais críticos. Mas, ao mesmo tempo, continuam dependentes da mesma infraestrutura de software tradicional, com as mesmas falhas de configuração, APIs expostas e bugs clássicos.

Cezar Taurion

Cezar Taurion

Cézar Taurion é referência em TI no Brasil desde fins da década de 70. Sócio e líder de operação da Kick Ventures, organização criada para conectar startups com o mercado a partir da busca de investidores-anjo e parcerias de inovação corporativa. Foi, por 12 anos, Diretor de Novas Tecnologias Aplicadas e Chief Evangelist da IBM Brasil.

Ver mais artigos desse autor

Recomendadas para você

Na era da IA, treinamentos de Conscientização em Segurança NÃO funcionam mais

Na era da IA, treinamentos de Conscientização em Segurança NÃO funcionam mais

Na era da inteligência artificial, treinamentos tradicionais de conscientização em segurança não são mais suficientes para proteger empresas contra ameaças digitais. Com o avanço de deepfakes e do phishing hiperpersonalizado, ataques se tornaram altamente sofisticados, personalizados e difíceis de detectar. Em 2025, crimes envolvendo IA cresceram exponencialmente, com prejuízos bilionários e alta taxa de sucesso. O artigo mostra como esses ataques funcionam, por que o fator humano deixou de ser a principal defesa e quais estratégias práticas — incluindo tecnologia e novos processos — são essenciais para mitigar riscos no cenário atual.

Jose Luiz, AAISM
19 DE MARÇO
Background newsletter

Inscreva-se na nossa newslleter

Agente de IA invade sistema LLM da McKinsey em duas horas | AI Brasil