En marzo de 2026, la Linux Foundation recaudó 12,5 millones de dólares de Anthropic, Amazon, Google, Microsoft y OpenAI para ayudar a los mantenedores de código abierto a defenderse del código de baja calidad generado por IA. Tres semanas después, el kernel de Linux — el proyecto que esos mantenedores mantienen, la base de código de la que esas empresas dependen — aceptó contribuciones generadas por IA.
Ambas cosas son ciertas. El dinero para la defensa y la puerta abierta llegaron el mismo mes, del mismo ecosistema, para la misma base de código.
La Máquina
En junio de 2021, Microsoft y OpenAI anunciaron GitHub Copilot. El argumento de venta era "programación en pareja asistida por IA." El titular de The Register ese mismo día era más preciso: "GitHub Copilot es programación en pareja con IA donde tú, el humano, sigues haciendo el trabajo." Para octubre, GitHub reportaba que el 30% del código nuevo en su plataforma se escribía con ayuda de Copilot. un número que en 2021 nadie sabía cómo interpretar.
Lo que significaba: la barrera para generar código había caído prácticamente a cero. No la barrera para escribir buen código — la barrera para producir código sintácticamente válido y funcionalmente plausible que pudiera enviarse como pull request. La distinción entre "generado" y "bueno" tardaría cinco años en resolverse. La política del kernel del 12 de abril es esa resolución.
El Rechazo
En enero de 2024, Daniel Stenberg — fundador de curl, uno de los programas más utilizados del planeta — publicó una entrada en su blog sobre lo que las contribuciones generadas por IA le estaban haciendo a su proyecto. El título: "La I en LLM es de Inteligencia." La queja era específica: los LLMs habían hecho trivialmente fácil generar reportes de bugs que parecían plausibles pero eran incorrectos. Cada uno requería tiempo del mantenedor para evaluarlo, reproducirlo y rechazarlo. El costo de rechazar había superado al costo de enviar. La asimetría era insostenible.
Ese abril, Linus Torvalds habló en el Open Source Summit. Calificó la IA de "hype" — pero añadió que era un "optimista respecto a la IA" y que esperaba que eventualmente produjera mejores herramientas. Un titular de PC Gamer resumió su posición: "La IA de hoy puede ser solo autocorrector." El encuadre importaba. Torvalds no dijo que el código generado por IA fuera inaceptable. Dijo que la generación actual no era suficientemente buena todavía. La palabra "todavía" contenía el futuro en sí misma.
La Inundación
A principios de 2026, la inundación había llegado. Proyectos como VLC y Blender reportaron un descenso medible en la calidad promedio de las contribuciones — probablemente, según TechCrunch, porque las herramientas de programación con IA habían bajado tanto la barrera de entrada que contribuyentes que antes no podían escribir un parche del kernel ahora generaban unos que parecían correctos pero no lo eran. El ecosistema se adaptaba, proyecto por proyecto, a un volumen de envíos para el que no había sido diseñado.
En abril, el New York Times reportó que las empresas se apresuraban a revisar y asegurar el enorme volumen de código generado por IA que sus propios desarrolladores estaban produciendo. El problema había dejado de ser exclusivo de los proyectos de código abierto y había penetrado en las bases de código empresariales. La inundación ya no venía de fuera. Venía desde dentro del edificio.
Y entonces, el 18 de marzo, llegó el dinero para la defensa. La Linux Foundation anunció que cinco empresas de IA — Anthropic, Amazon, Google, Microsoft y OpenAI — habían contribuido con 12,5 millones de dólares en subsidios para ayudar a los mantenedores de software libre a gestionar los problemas de seguridad generados por IA. Las empresas que construyeron las herramientas financiaban ahora la infraestructura para gestionar lo que esas herramientas producían. El encuadre, según The Register: "defensa contra el código chatarra de IA."
La Política
Tres semanas después, el kernel dijo que sí.
La Linux Kernel Organization anunció el 12 de abril que los desarrolladores podían enviar código generado por IA — siempre que cumpliera con las directrices existentes del proyecto, los requisitos de licencia y los estándares de atribución. La comunidad, declaraba la política, trataría el código generado por IA como contribución propia del que lo envía. No de la IA. No de la empresa de IA. Del humano.
La política no menciona la confianza. No dice que el código de IA sea suficientemente bueno. No comenta la calidad en absoluto. Lo que dice es más simple: si envías código, es tuyo. Si rompe algo, tú lo rompiste. Si viola una licencia, tú la violaste. La IA es una herramienta. Tú eres el autor.
El Estándar
Este es el movimiento estructural que importa. El estándar de calidad del kernel — el proceso de revisión, los requisitos de prueba, el certificado "Signed-off-by" que cada contribuyente firma — no cambió el 12 de abril. La vara está exactamente donde estaba el 11 de abril. Lo que cambió es quién puede acercarse a ella.
Durante 33 años, el supuesto implícito fue que "contribuyente" significaba "humano que escribió este código." La nueva definición: "humano que es responsable de este código." La distancia entre esas dos definiciones es toda la revolución del código con IA. Un desarrollador que usa Claude Code para generar un parche del kernel y lo envía con su Signed-off-by es, en el modelo de gobernanza del kernel, el autor. La herramienta no existe en la capa de gobernanza. El humano la absorbe por completo.
El kernel absorbió la IA haciéndola invisible para el modelo de gobernanza — no confiando en la herramienta, sino extendiendo la responsabilidad de quien la usa.
De ahí que esta no sea una decisión aislada. Es la misma adaptación estructural que todas las instituciones están realizando ahora mismo. El Tesoro de Estados Unidos no reguló Claude Mythos directamente — convocó a los CEO de los bancos y les dijo que lo probaran ellos mismos. Francia no está regulando la IA en el gobierno — está migrando a Linux para que los humanos franceses controlen el stack. Los reguladores del Reino Unido no están prohibiendo Mythos — están advirtiendo a los bancos que se preparen. En cada caso, la institución gobierna la IA gobernando a los humanos que la despliegan. La IA desaparece del modelo de responsabilidad. El humano permanece.
El kernel es el caso más puro porque su modelo de gobernanza es el más explícito. Cada contribución desde 2004 ha llevado una línea "Signed-off-by" — una certificación legal bajo el Developer Certificate of Origin de que el contribuyente tiene derecho a enviar el código y acepta sus términos de licencia. Cuando ese contribuyente usó Copilot o Claude Code, el Signed-off-by sigue llevando su nombre. El modelo de gobernanza ya gestionaba esto. Simplemente no lo había dicho en voz alta.
Lo Que Cambió
En 2021 la pregunta era si el código de IA era suficientemente bueno. En 2024, cuando el mantenedor de curl se ahogaba en reportes basura, era si los proyectos podían sobrevivir a la inundación. A principios de 2026, cuando llegaron los 12,5 millones, era quién pagaba la infraestructura.
El 12 de abril, el kernel respondió una pregunta completamente distinta. No "¿es el código de IA suficientemente bueno?" — el proceso de revisión se encarga de eso. No "¿podemos sobrevivir a la inundación?" — los 12,5 millones se encargan de eso. La pregunta que respondió el kernel es: "¿Quién es el autor?"
La respuesta: tú. Si lo enviaste, lo escribiste. La herramienta que usaste es asunto tuyo. El código que produces pertenece al proyecto. La distancia entre los dos — entre la herramienta y el producto, entre el proceso y el resultado — es donde el humano está de pie, y siempre ha estado, y ahora también está para el código generado por IA.
El estándar no se movió. La palabra "autor" se agrandó. Y la base de código más conservadora del planeta es la que lo dijo primero.
Más sobre código abierto e código generado por IA. Explora la cobertura de entidades a través de la API Pulse.