机の上の台帳に署名する手。背後には装飾的な鉄製の検査ゲートと、琥珀色の光の中に延びる工場のコンベアが広がる

2026年3月、Linux FoundationはAnthropicとAmazon、Google、Microsoft、OpenAIから1,250万ドルを調達した。目的は、オープンソースメンテナーが低品質なAI生成コードから身を守る支援だ。その3週間後、Linuxカーネル——それらのメンテナーが保守し、それらの企業が依存するコードベース——がAI生成の貢献を受け入れた。

どちらも事実だ。防衛資金と開かれた扉が、同じ月に、同じエコシステムから、同じコードベースに届いた。

機械の登場

2021年6月、MicrosoftOpenAIGitHub Copilotを発表した。売り文句は「AIペアプログラミング」だった。同日のThe Registerの見出しはより正確だった。「GitHub CopilotはAIペアプログラミングだが、人間のあなたが依然として作業しなければならない」。10月までに、GitHubはプラットフォーム上の新規コードの30%がCopilotの支援で書かれていると報告した。2021年当時、この数字は驚異的だった。誰もその意味を理解していなかった。

「生成された」と「優れた」は同じではない。その区別を解消するのに5年かかった。優れたコードを書く障壁ではなく、構文的に正しく、機能的に妥当で、プルリクエストとして送れるコードを量産する障壁がほぼゼロになった——それがCopilotの意味するところだった。4月12日のカーネルの方針がその解消だ。

反発

2024年1月、地球上で最も使われているソフトウェアの一つであるcurlの創設者・Daniel Stenbergは、AI生成の貢献が自分のプロジェクトに何をもたらしているかについてブログ記事を公開した。タイトルは「LLMのIはIntelligenceのI」。訴えは具体的だった——LLMがもっともらしく見えるが誤ったバグレポートを量産することを極めて容易にした。それぞれを評価し、再現し、却下するためにメンテナーの時間が必要になる。却下のコストが提出のコストを上回ったのだ。この非対称性は持続不可能だった。

2024年1月
curlのDaniel Stenberg:AI生成のバグレポートがオープンソースメンテナーの時間を浪費している
daniel.haxx.se

同年4月、Linus TorvaldsはOpen Source Summitで発言した。AIを「ハイプ」と呼んだが、最終的にはより良いツールを生み出すと期待している「AIオプティミスト」であるとも付け加えた。PC Gamerの見出しが彼の立場を要約した——「今のAIは単なる自動補完かもしれない」。この言い方が重要だった。Torvaldsはオープンソース AIコードが受け入れられないとは言わなかった。現世代がまだ十分でないと言ったのだ。「まだ」という言葉の中に未来が宿っていた。

洪水

2026年初頭、洪水が到来していた。VLCやBlenderのようなプロジェクトは貢献の平均品質に測定可能な低下を報告しました——AIコーディングツールが参入障壁をそこまで下げた結果、以前はカーネルパッチを書けなかった貢献者たちが、正しそうに見えても実際にはそうでないパッチを生成するようになったからです。エコシステムは設計していなかった投稿量に、プロジェクトごとに適応していた。

4月にはNew York Timesが、自社の開発者が生成した大量のAIコードのレビューと保護に企業が追われていると報じた。問題はオープンソースプロジェクトから企業のコードベースへと移行していた。洪水はもはや外部からではなく、建物の内側から来ていた。

そして3月18日、防衛資金が届いた。Linux FoundationはAI企業5社——Anthropic、Amazon、Google、Microsoft、OpenAI——がFOSSメンテナーのAI生成セキュリティ問題への対処を支援するために1,250万ドルの助成金を拠出したと発表しました。ツールを作った企業が、そのツールが生み出した問題を管理するためのインフラを資金援助している——構造的な責任の移転だ。The Registerの表現によれば——「AIスロップ防衛」。

2026年3月
Linux FoundationがAI企業5社から1,250万ドルを調達——オープンソースメンテナーのAI生成セキュリティ問題対応を支援
The Register

方針

3週間後、カーネルはイエスと言った。

2026年4月
Linuxカーネル、AI生成コードの投稿を許可——ガイドライン・ライセンス・帰属要件への準拠が条件
XDA Developers

Linux Kernel Organizationは4月12日、既存のプロジェクトガイドライン、ライセンス要件、帰属基準に準拠する限り、開発者がAI生成コードを投稿できると発表しました。コミュニティはAI生成コードを投稿者自身の貢献として扱うと方針は述べています。AIの貢献ではない。AI企業の貢献でもない。人間の貢献だ。

この方針は信頼については触れていない。AIコードが十分に良いとも言っていない。品質については一切コメントしていない。言っていることはより単純だ——コードを投稿したなら、それはあなたのものだ。何かを壊したなら、あなたが壊した。ライセンスに違反したなら、あなたが違反した。AIはツールだ。あなたが著者だ。著者の定義を変えることで、カーネルはAIコーディングツールのリスク全体を開発者のアイデンティティに接合した。

基準

カーネルの品質基準——レビュープロセス、テスト要件、すべての貢献者が署名する「Signed-off-by」認証——は4月12日に変わっていない。基準は4月11日とまったく同じ場所にある。変わったのは、誰がその基準に近づけるかだ。これが重要な構造的移行だ。

33年間、暗黙の前提は「貢献者」とは「このコードを書いた人間」を意味するというものだった。新しい定義——「このコードに責任を持つ人間」。この二つの定義の差こそが、AIコーディング革命のすべてだ。Claude Codeを使ってカーネルパッチを生成し、自分のSigned-off-byで投稿する開発者は、カーネルのガバナンスモデルにおいて著者だ。ツールはガバナンス層には存在しない。人間がそれを完全に吸収する。

カーネルはAIをガバナンスモデルに対して不可視にすることで吸収した——ツールを信頼するのではなく、それを使う人間の説明責任を拡張することによって。

これは今、すべての組織が行っている同じ構造的適応だ。米国財務省はClaude Mythosを直接規制しなかった——銀行のCEOを召喚し、自分たちでテストするよう告げた。フランスはAIを政府内で規制していない——フランス人がスタックを管理できるようLinuxに移行している。英国の規制当局はMythosを禁止していない——銀行に準備するよう警告している。いずれの場合も、組織はAIを展開する人間を統治することでAIを統治する。説明責任モデルはAIを見えなくする。人間だけが残る。

カーネルが最も純粋なケースなのは、そのガバナンスモデルが最も明示的だからだ。2004年以降のすべての貢献に「Signed-off-by」の行がある——貢献者がコードを提出する権利を有し、ライセンス条件に同意することを示すDeveloper Certificate of Originに基づく法的認証だ。その貢献者がCopilotやClaude Codeを使っていたとしても、Signed-off-byには依然として彼らの名前が載っている。ガバナンスモデルはすでにこれを処理していた。ただ、声に出していなかっただけだ。

何が変わったか

2021年、GitHubの新規コードの30%がAI支援を含んでいたとき、問いは「AI生成コードは十分に良いか?」だった。2024年、curlのメンテナーがジャンクなAIバグレポートに溺れていたとき、問いは「オープンソースプロジェクトは洪水を生き延びられるか?」だった。2026年初頭、防衛資金が届いたとき、問いは「これを管理するインフラに誰が支払うか?」だった。

4月12日、カーネルはまったく別の問いに答えた。「AIコードは十分に良いか?」ではない——レビュープロセスがそれを扱う。「洪水を生き延びられるか?」でもない——1,250万ドルがそれを扱う。カーネルが答えた問いは「誰が著者か?」だ。

答え——あなただ。投稿したなら、書いたのだ。使ったツールはあなた自身のことだ。生み出したコードはプロジェクトのものだ。その二つの間の差——ツールと成果物の間、プロセスと出力の間——に人間が立っている。常にそこに立ってきた。そして今、AI出力に対しても同じ場所に立っている。

基準は動いていない。「著者」という言葉が大きくなった。そして、地球上で最も保守的なコードベースがそれを最初に言った。

オープンソースAIコードについてさらに読む。Pulse APIでエンティティの取り上げ状況を探索する。