Em março de 2026, a Linux Foundation arrecadou US$12,5 milhões de Anthropic, Amazon, Google, Microsoft e OpenAI para ajudar mantenedores de código aberto a se defenderem de código de baixa qualidade gerado por I.A. Três semanas depois, o kernel do Linux — o projeto que esses mantenedores mantêm, a base de código da qual essas empresas dependem — aceitou contribuições geradas por I.A.
As duas coisas são verdadeiras. O dinheiro da defesa e a porta aberta chegaram no mesmo mês, do mesmo ecossistema, para a mesma base de código.
A Máquina
Em junho de 2021, Microsoft e OpenAI anunciaram o GitHub Copilot. O argumento de venda era "programação em par assistida por I.A." A manchete do The Register no mesmo dia era mais precisa: "GitHub Copilot é programação em par com I.A. onde você, o humano, ainda tem que fazer o trabalho." Em outubro, o GitHub informou que 30% do código novo na plataforma era escrito com auxílio do Copilot. O número era assombroso em 2021. Ninguém sabia o que significava.
O que significava: a barreira para gerar código havia caído a quase zero. Não a barreira para escrever código bom — a barreira para produzir código sintaticamente válido, plausível funcionalmente, pronto para ser enviado como pull request. Levou cinco anos para o mundo separar "gerado" de "bom". A política do kernel de 12 de abril separou.
O Recuo
Em janeiro de 2024, Daniel Stenberg — criador do curl, um dos softwares mais utilizados do planeta — publicou um post sobre o que as contribuições geradas por I.A. estavam fazendo ao seu projeto. O título: "O I em LLM é de Inteligência." A reclamação era específica: os LLMs tornaram trivialmente fácil gerar relatórios de bug que pareciam plausíveis mas estavam errados. Cada um exigia tempo do mantenedor para avaliar, reproduzir e rejeitar. Rejeitar custava mais do que enviar. Isso não se sustenta.
Naquele abril, Linus Torvalds falou na Open Source Summit. Chamou a I.A. de "hype" — mas acrescentou que era um "otimista em relação à I.A." que esperava que ela eventualmente produzisse ferramentas melhores. Uma manchete do PC Gamer resumiu sua posição: "A I.A. de hoje pode ser apenas autocorretor." O enquadramento importava. Torvalds não disse que código de I.A. era inaceitável. Disse que a geração atual ainda não era boa o suficiente. A palavra "ainda" carregava o futuro dentro dela.
A Enchente
No início de 2026, a enchente havia chegado. Projetos como VLC e Blender reportaram um declínio mensurável na qualidade média das contribuições — provavelmente, segundo o TechCrunch, porque as ferramentas de programação com I.A. haviam baixado tanto a barreira de entrada que contribuidores que antes não conseguiam escrever um patch para o kernel passaram a gerar patches que pareciam corretos mas não eram. O ecossistema se virava como podia, projeto por projeto, com um volume de envios que ninguém tinha previsto.
Em abril, o New York Times noticiou que empresas estavam correndo para revisar e proteger o enorme volume de código gerado por I.A. que seus próprios desenvolvedores produziam. O problema havia migrado dos projetos de código aberto para as bases de código corporativas. A enchente não vinha mais de fora. Vinha de dentro do prédio.
Então, em 18 de março, chegou o dinheiro da defesa. A Linux Foundation anunciou que cinco empresas de I.A. — Anthropic, Amazon, Google, Microsoft e OpenAI — haviam contribuído com US$12,5 milhões em subsídios para ajudar mantenedores de software livre a lidar com problemas de segurança gerados por I.A. As empresas que fizeram as ferramentas passavam a financiar a infraestrutura para gerenciar o que essas ferramentas produziam. O enquadramento, segundo The Register: "defesa contra I.A. lixo."
A Política
Três semanas depois, o kernel disse sim.
A Linux Kernel Organization anunciou em 12 de abril que desenvolvedores poderiam enviar código gerado por I.A. A condição: seguir as mesmas regras de sempre — diretrizes, licenciamento, atribuição. A comunidade trataria esse código como contribuição do próprio remetente. Não da I.A. Não da empresa de I.A. Do humano.
A política não menciona confiança. Não diz que o código de I.A. é bom o suficiente. Não comenta qualidade em nenhum momento. O que diz é mais simples: se você enviou o código, ele é seu. Se quebrou algo, foi você que quebrou. Se violou uma licença, foi você que violou. A I.A. é uma ferramenta. Você é o autor.
O Padrão
É aqui que a coisa muda de verdade. O padrão de qualidade do kernel — o processo de revisão, os requisitos de teste, o "Signed-off-by" que todo contribuidor assina — não mudou em 12 de abril. A barra está exatamente onde estava em 11 de abril. O que mudou é quem pode se aproximar dela.
Por 33 anos, o pressuposto implícito era que "contribuidor" significava "humano que escreveu este código." A nova definição: "humano que é responsável por este código." Nesse espaço entre "escrever" e "responder por" cabe toda a revolução do código com I.A. Um desenvolvedor que usa Claude Code para gerar um patch do kernel e o envia com o seu Signed-off-by é, no modelo de governança do kernel, o autor. A ferramenta não existe na camada de governança. O humano a absorve por completo.
O kernel absorveu a I.A. tornando-a invisível ao modelo de governança — não confiando na ferramenta, mas estendendo a responsabilidade de quem a usa.
Me parece a melhor resposta possível. E é o que toda instituição está fazendo agora. O Tesouro dos Estados Unidos não regulou o Claude Mythos diretamente — convocou os C.E.Os dos bancos e mandou que testassem por conta própria. A França não está regulando I.A. no governo — está migrando para Linux para que humanos franceses controlem o stack. Os reguladores britânicos não estão proibindo o Mythos — estão alertando os bancos para se prepararem. Em cada caso, a instituição governa a I.A. governando os humanos que a implantam. A I.A. desaparece do modelo de responsabilidade. O humano permanece.
O kernel é o caso mais puro porque seu modelo de governança é o mais explícito. Toda contribuição desde 2004 carrega uma linha "Signed-off-by" — uma certificação legal sob o Developer Certificate of Origin de que o contribuidor tem o direito de enviar o código e concorda com seus termos de licenciamento. Quando esse contribuidor usou o Copilot ou o Claude Code, o Signed-off-by ainda carrega o nome dele. O modelo de governança já lidava com isso. Só não tinha dito em voz alta.
O Que Mudou
Em 2021, quando 30% do novo código do GitHub envolvia auxílio de I.A., a pergunta era: "O código gerado por I.A. é bom o suficiente?" Em 2024, quando o mantenedor do curl se afogava em relatórios de bug inúteis, a pergunta era: "Os projetos de código aberto conseguem sobreviver à enchente?" No início de 2026, quando chegou o dinheiro da defesa, a pergunta era: "Quem paga pela infraestrutura para gerenciar tudo isso?"
Em 12 de abril, o kernel respondeu a uma pergunta completamente diferente. Não "o código de I.A. é bom o suficiente?" — o processo de revisão resolve isso. Não "conseguimos sobreviver à enchente?" — os US$12,5 milhões resolvem isso. A pergunta que o kernel respondeu é: "Quem é o autor?"
A resposta: você. Se enviou, escreveu. A ferramenta que usou é seu problema. O código que você produz é do projeto. O espaço entre a ferramenta e o resultado é onde o humano está. Sempre esteve. Agora também está quando a ferramenta é I.A.
O padrão não se moveu. A palavra "autor" ficou maior. E a base de código mais conservadora do planeta foi a primeira a dizer isso.
Mais sobre código aberto e código gerado por IA. Explore a cobertura de entidades pela API Pulse.