A obsessão atual por obrigar desenvolvedores a usar IA para escrever código me lembra um fenômeno antigo no meio acadêmico: medir pesquisadores pela quantidade de artigos publicados, e não pela qualidade do que produzem. O resultado foi inflação de Papers, mas não necessariamente de conhecimento relevante.
Quando universidades passaram a valorizar volume acima de profundidade, criaram incentivos previsíveis. Publicar virou meta em si mesmo. Fragmentaram-se ideias em múltiplos artigos menores, repetiram-se temas, multiplicaram-se textos que pouco acrescentavam. A métrica moldou o comportamento.
Algo semelhante começa a surgir em algumas empresas com a adoção compulsória de IA para codificação. O discurso é eficiência. A promessa é produtividade. Mas, quando o uso da ferramenta deixa de ser opcional e passa a ser indicador de desempenho, tipo “quantas sugestões aceitou?”, “quanto código foi gerado por IA?”, a métrica começa a dirigir o processo técnico.
E assim como medir programadores por linhas de código gerou excesso de código desnecessário, medir produtividade por “uso de IA” tende a gerar excesso de código gerado, nem sempre necessário, nem sempre plenamente compreendido.
Há um problema estrutural aqui. Código não é apenas entrega funcional. É compreensão, intenção arquitetural e clareza para manutenção futura. Quando o desenvolvedor terceiriza sistematicamente a geração para um modelo, sem internalizar as decisões, cria-se uma assimetria perigosa: os sistemas crescem mais rápido do que a capacidade humana de entendê-los.
No curto prazo, pode parecer ganho de velocidade. No médio prazo, o custo aparece na manutenção. Código gerado em excesso, com abstrações pouco refletidas ou padrões inconsistentes, aumenta a complexidade cognitiva. Refatorar se torna mais difícil. Debugar exige mais tempo. O time pode passar a depender da própria IA para interpretar o que foi produzido, criando uma dependência circular.
Há também implicações na formação de habilidades. Desenvolvedores aprendem escrevendo, errando, revisando, entendendo trade-offs. Se a prática deliberada é substituída por aceitação automática de sugestões, o aprendizado tende a se tornar mais superficial. Forma-se alguém capaz de operar a ferramenta, mas não necessariamente de projetar sistemas.
Nada disso significa rejeitar IA. Como toda ferramenta, ela pode ampliar produtividade quando usada com critério. O problema começa quando o uso vira obrigação e métrica de valor profissional.
Na engenharia de software, a métrica correta não é quantidade de código nem percentual gerado por modelo. É qualidade arquitetural, clareza, sustentabilidade do sistema e evolução de competências humanas. Ferramentas devem ampliar capacidade. Não substituir pensamento.
Uso obrigatório de IA na programação pode comprometer qualidade e aprendizado
O uso obrigatório de IA na programação vem sendo adotado por algumas empresas como métrica de produtividade. No entanto, a imposição da ferramenta pode gerar excesso de código, aumentar a complexidade técnica e enfraquecer o desenvolvimento de habilidades. Assim como no meio acadêmico, quando métricas substituem qualidade, o comportamento se adapta ao indicador — nem sempre para melhor.
Escrito por Cezar Taurion
Escrito por Cezar Taurion
O uso obrigatório de IA na programação pode gerar excesso de código, dependência tecnológica e perda de qualidade arquitetural. Entenda os riscos dessa métrica.

Cezar Taurion
Cézar Taurion é referência em TI no Brasil desde fins da década de 70. Sócio e líder de operação da Kick Ventures, organização criada para conectar startups com o mercado a partir da busca de investidores-anjo e parcerias de inovação corporativa. Foi, por 12 anos, Diretor de Novas Tecnologias Aplicadas e Chief Evangelist da IBM Brasil.
Ver mais artigos desse autorRecomendadas para você

Tokens de IA revelam o alto custo físico da inteligência artificial
O crescimento da inteligência artificial expõe uma nova realidade para o setor: tokens de IA dependem de infraestrutura física cara, incluindo GPUs, energia e datacenters. Após anos de subsídios e planos ilimitados, empresas começam a restringir consumo e reajustar preços diante do aumento do custo de inferência.

Tokens de IA revelam o alto custo físico da inteligência artificial
O crescimento da inteligência artificial expõe uma nova realidade para o setor: tokens de IA dependem de infraestrutura física cara, incluindo GPUs, energia e datacenters. Após anos de subsídios e planos ilimitados, empresas começam a restringir consumo e reajustar preços diante do aumento do custo de inferência.

Infraestrutura de IA que programa é o verdadeiro diferencial

O que é Backpropagation: como o algoritmo impulsiona o deep learning e a IA

Agente de IA invade sistema LLM da McKinsey em duas horas

Hype Cycle for Generative AI 2025 expõe riscos da IA corporativa

Infraestrutura de IA que programa é o verdadeiro diferencial

O que é Backpropagation: como o algoritmo impulsiona o deep learning e a IA

Agente de IA invade sistema LLM da McKinsey em duas horas

Hype Cycle for Generative AI 2025 expõe riscos da IA corporativa

Infraestrutura de IA que programa é o verdadeiro diferencial

O que é Backpropagation: como o algoritmo impulsiona o deep learning e a IA

Agente de IA invade sistema LLM da McKinsey em duas horas

Hype Cycle for Generative AI 2025 expõe riscos da IA corporativa
Infraestrutura de IA que programa é o verdadeiro diferencial

O que é Backpropagation: como o algoritmo impulsiona o deep learning e a IA

Agente de IA invade sistema LLM da McKinsey em duas horas

Hype Cycle for Generative AI 2025 expõe riscos da IA corporativa


