El New York Times reporta que la adopción masiva de herramientas de programación con IA ha permitido a los trabajadores generar volúmenes enormes de código, dejando a las empresas luchando por revisar y asegurar lo que las herramientas produjeron. En enero, Anthropic publicó investigación que muestra que la mayor caída de habilidades provocada por el uso de herramientas de IA ocurre en la depuración — exactamente la habilidad que la revisión de código exige. Las herramientas que crearon el volumen degradaron la capacidad para revisarlo.
El Diseño
El problema que las herramientas de programación con IA fueron construidas para resolver era real. Los desarrolladores gastaban demasiado tiempo en código rutinario: estructura base, pruebas, documentación, patrones estándar. El trabajo era manejable pero lento. La solución fue el autocompletado a la escala de funciones enteras, luego archivos, luego proyectos. GitHub Copilot se lanzó en junio de 2021. En cuestión de meses, el 30% del código nuevo en GitHub se escribía con su asistencia. La premisa era directa: reducir el tiempo entre concepción e implementación. Escribir el código. Todo lo que viniera después se beneficiaría.
Y la promesa se cumplió: los desarrolladores adoptaron las herramientas de IA más rápido que cualquier tecnología anterior en el campo, de modo que para 2025 el 84% las usaba o planeaba usarlas, startups construyeron empresas enteras alrededor del desarrollo asistido por IA, las herramientas se convirtieron en infraestructura. El código siguió llegando.
La Advertencia
En diciembre de 2022, un estudio de Stanford encontró que los desarrolladores que usaban GitHub Copilot producían código menos seguro que quienes no lo hacían. No marginalmente menos seguro — sistemáticamente. La IA sugería patrones plausibles que introducían vulnerabilidades reales. La advertencia se publicó, se citó ampliamente, y no frenó la adopción. Las herramientas eran demasiado útiles como para detenerse.
En junio de 2023, el Wall Street Journal reportó que ejecutivos de tecnología advertían sobre un problema diferente: la IA generativa "baja la barrera para la creación de código", lo que podría "resultar en niveles crecientes de complejidad, deuda técnica y confusión al intentar gestionar una pila creciente de software." La preocupación por el volumen precedió al volumen en dos años.
El Cuello de Botella Se Desplaza
Para mediados de 2025, la pila había llegado. Ox Security, que escanea código en busca de vulnerabilidades, reportó que escaneaba más de 100 millones de líneas por día — no solo más código, sino una nueva categoría de código con un perfil de seguridad sistemáticamente diferente al que escriben los desarrolladores humanos. La infraestructura de revisión se construía en paralelo a la infraestructura de producción, pero el lado de producción era más rápido.
El informe de Bloomberg de marzo de 2026 nombró lo que estaba ocurriendo: los agentes de programación con IA habían desatado un "pánico de productividad" entre los ejecutivos. El estudio de UCB que citó encontró que los desarrolladores que usaban herramientas de IA trabajaban más horas, no menos. La herramienta que supuestamente debía reducir la carga de los desarrolladores la había incrementado.
La trayectoria de Amazon cuenta la historia: cuatro meses dirigiendo a los desarrolladores hacia herramientas de IA, seguidos de un memorándum interno que restringía a los ingenieros junior y de nivel medio de realizar cambios de código asistidos por IA tras una "tendencia de incidentes." El mismo día — 10 de marzo de 2026 — Anthropic lanzó Code Review para Claude Code: un agente de IA que revisa los pull requests de los desarrolladores en busca de errores. Una revisión típica cuesta entre 15 y 25 dólares en uso de tokens. IA para revisar lo que la IA escribió.
La Habilidad que Declinó
En enero de 2026, Anthropic publicó investigación sobre cómo las herramientas de programación con IA afectan las habilidades de los desarrolladores. El hallazgo: la IA puede acelerar algunas tareas un 80%. Y la mayor caída de rendimiento para los desarrolladores que usan herramientas de IA ocurre en la depuración — leer código, rastrear fallos, entender qué hace realmente un sistema en contraposición a lo que debería hacer.
El volumen de código aumentó. La capacidad para revisar ese código — la habilidad de depuración que la revisión exige — disminuyó. Las herramientas no solo movieron el cuello de botella. Degradaron la capacidad humana que el nuevo cuello de botella demanda.
Las herramientas hicieron a los desarrolladores más rápidos en producción y más lentos en comprensión. La deuda que se acumuló no está en el código. Está en el entendimiento.
Qué Es la Deuda Cognitiva
El patrón que describe esa investigación tiene un nombre, y el nombre importa. El término surgió en febrero de 2026 de la investigación de Margaret-Anne Storey: a medida que la IA y los agentes aceleran el desarrollo, "la carga cognitiva y la deuda cognitiva probablemente se convertirán en amenazas más grandes para los desarrolladores que la deuda técnica." La deuda técnica es código que fue escrito para funcionar pero no para durar — atajos que acumulan intereses. La deuda cognitiva es algo diferente: código que fue escrito, revisado y desplegado, pero que nadie comprende del todo. La deuda está en la brecha entre lo que hace el sistema y lo que el equipo sabe que hace.
Un desarrollador que escribe una función la comprende — los casos extremos, los supuestos incorporados en la lógica, la razón por la que se eligió un enfoque particular en lugar del obvio. Una IA que genera una función no tiene ese conocimiento. Produce resultados que son sintácticamente correctos y a menudo funcionalmente correctos. Y el desarrollador que los despliega, bajo presión por entregar, en un entorno donde la revisión está automatizada, hereda un sistema cuya lógica interna no puede reconstruir del todo.
La deuda que nadie ve en el tablero de sprints se manifiesta cuando algo falla y nadie sabe por qué — en los incidentes.
El Cuello de Botella Regresa
GitHub Copilot fue diseñado para eliminar al desarrollador como cuello de botella en la producción de software. Lo logró. El cuello de botella se desplazó de escribir a revisar. Los revisores de código con IA lo desplazaron de nuevo — de revisar a comprender. Y comprender es el paso que no puede delegarse sin costo, porque es lo que hace posible la depuración cuando el sistema falla.
El desarrollador es el cuello de botella otra vez — no para generar código, sino para comprender lo que produjeron las herramientas — en una base de código donde el conocimiento institucional ya no vive en la cabeza de ningún desarrollador sino en un registro de prompts revisados por sistemas automatizados a 25 dólares por pull request. Las herramientas cumplieron su promesa: hicieron más fácil producir software, y más difícil entenderlo.
En 2022, un estudio de Stanford encontró que los usuarios de Copilot escribían código menos seguro. Tres años después, Anthropic encontró que habían perdido la habilidad para depurarlo. La advertencia no estaba equivocada. La adopción continuó de todas formas — lo cual no es irracionalidad, sino la lógica de cualquier tecnología que ofrece un beneficio inmediato y difiere el costo. La deuda cognitiva se paga cuando el sistema falla, no cuando se despliega.