O New York Times reportou que a adoção em massa de ferramentas de programação com IA permitiu gerar volumes enormes de código, deixando as empresas às voltas para revisar e proteger o que essas ferramentas produziram. Em janeiro, a Anthropic publicou uma pesquisa mostrando que a maior queda de performance com o uso de ferramentas de IA acontece justamente em debugging — a habilidade que o code review exige. As mesmas ferramentas que criaram o volume degradaram a capacidade de revisá-lo.
O Projeto Original
O problema que essas ferramentas foram criadas para resolver era real. Desenvolvedor gasta tempo demais com código de rotina — boilerplate, testes, documentação, padrões que todo mundo repete. É trabalho factível, só que lento. A solução foi o autocomplete na escala de funções inteiras, depois arquivos, depois projetos. O GitHub Copilot entrou em junho de 2021. Em meses, 30% do código novo no GitHub já era escrito com sua ajuda. A lógica era simples: encurtar o caminho da ideia até a implementação. Escrever o código. O resto se beneficiaria.
A lógica se confirmou. Os desenvolvedores adotaram ferramentas de IA mais rápido do que qualquer tecnologia anterior na área. Em 2025, 84% usava ou pretendia usar assistentes de IA. Startups inteiras foram construídas em torno do desenvolvimento assistido por IA. As ferramentas viraram infraestrutura. E o código continuou chegando.
O Aviso
Em dezembro de 2022, um estudo da Stanford mostrou que desenvolvedores usando GitHub Copilot produziam código menos seguro do que os que não usavam. Não levemente — sistematicamente. A IA sugeria padrões plausíveis que introduziam vulnerabilidades reais. O aviso foi publicado, amplamente citado e não freou a adoção. As ferramentas eram úteis demais para alguém parar.
Em junho de 2023, o Wall Street Journal trouxe executivos de TI preocupados com um problema diferente: a IA generativa "abaixa a barreira para criação de código", o que poderia "resultar em níveis crescentes de complexidade, dívida técnica e confusão na tentativa de gerenciar uma pilha de software em expansão." A preocupação com o volume apareceu dois anos antes do volume em si.
Dois anos de aviso. Ninguém parou.
O Gargalo Muda de Endereço
Na metade de 2025, a pilha havia chegado. A Ox Security, que escaneia código em busca de vulnerabilidades, reportou que varria mais de 100 milhões de linhas por dia — não só mais código, mas uma categoria nova de código com um perfil de segurança sistematicamente diferente do que desenvolvedores humanos escrevem. Revisão e produção corriam juntas, mas a produção estava sempre na frente.
O relatório da Bloomberg de março de 2026 nomeou o que estava acontecendo: agentes de programação com IA haviam deflagrado um "pânico de produtividade" entre executivos. Um estudo da UCB citado no relatório descobriu que desenvolvedores usando ferramentas de IA trabalhavam mais horas, não menos. A ferramenta que deveria reduzir a carga de trabalho dos desenvolvedores a havia aumentado.
A trajetória da Amazon conta essa história: quatro meses incentivando o uso de ferramentas de IA, seguidos de um memorando interno restringindo engenheiros júnior e de nível médio de fazer mudanças de código com assistência de IA, depois de uma "tendência de incidentes." No mesmo dia — 10 de março de 2026 — a Anthropic lançou o Code Review para o Claude Code: um agente de IA que revisa pull requests em busca de bugs. Uma revisão típica custa entre 15 e 25 dólares em uso de tokens. IA para revisar o que a IA escreveu.
O Skill que Caiu
Em janeiro de 2026, a Anthropic publicou pesquisa sobre como as ferramentas de programação com IA afetam os skills dos desenvolvedores. O resultado: a IA pode acelerar algumas tarefas em 80%. E a maior queda de performance entre desenvolvedores que usam ferramentas de IA ocorre em debugging — ler código, rastrear falhas, entender o que um sistema está realmente fazendo, em contraste com o que deveria fazer.
O volume de código aumentou. A capacidade de revisar esse código — o skill de debugging que o code review exige — diminuiu. As ferramentas não só moveram o gargalo. Degradaram a capacidade humana que o novo gargalo demanda.
As ferramentas tornaram os desenvolvedores mais rápidos na produção e mais lentos na compreensão. A dívida que se acumulou não está no código. Está no entendimento.
O que É a Dívida Cognitiva
O termo surgiu em fevereiro de 2026, da pesquisa de Margaret-Anne Storey: conforme a IA e os agentes aceleram o desenvolvimento, "carga cognitiva e dívida cognitiva tendem a se tornar ameaças maiores para os desenvolvedores do que a dívida técnica." Dívida técnica é código escrito para funcionar, não para durar — atalhos que acumulam juros. Dívida cognitiva é outra coisa: código que foi escrito, revisado e entregue, mas que ninguém entende completamente. A dívida está no gap entre o que o sistema faz e o que o time sabe que ele faz.
O desenvolvedor que escreve uma função entende aquela função — os casos extremos, as premissas embutidas na lógica, a razão de um caminho específico em vez do óbvio. Uma IA que gera uma função não tem esse conhecimento. Produz output sintaticamente correto e, na maioria das vezes, funcionalmente correto. O desenvolvedor que faz o deploy — com prazo no pescoço e revisão automatizada — herda um sistema que funciona mas cujo interior não consegue reconstituir.
Essa é a dívida que não aparece no sprint board. Aparece quando algo quebra e ninguém sabe por quê. Aparece nos incidentes.
O Gargalo Volta
O GitHub Copilot foi criado para eliminar o desenvolvedor como gargalo na produção de software. Conseguiu. O gargalo saiu de escrever e foi para revisar. Os code reviewers de IA moveram de novo — de revisar para entender. E entender é o único passo que não dá pra delegar sem custo, porque é o que torna o debugging possível quando o sistema falha.
O desenvolvedor voltou a ser o gargalo — não para gerar código, mas para compreender o que as ferramentas produziram. Uma base de código onde o conhecimento institucional não mora na cabeça de ninguém, mas num histórico de prompts revisado por sistemas automatizados a 25 dólares por pull request.
As ferramentas cumpriram a promessa. Ficou mais fácil produzir software. Ficou mais difícil entendê-lo.
Em 2022, um estudo da Stanford descobriu que usuários do Copilot escreviam código menos seguro. Três anos depois, a Anthropic constatou que eles haviam perdido o skill para depurá-lo. O aviso não estava errado. A adoção continuou assim mesmo.