2月12日、PlatformerはOpenAIが数週間前にミッション・アライメントチームを解散し、メンバーを他部署へ異動させたと報じた。チームリーダーのJoshua Achiamには新しい肩書きが与えられた——「チーフ・フューチャリスト」。AIシステムの安全性を確保するための専任チームを解散するのは、2年間で2度目だ。最初の2024年5月は危機だった。今回は、脚注にすぎない。
2024年5月
2023年7月、OpenAIはSuperalignmentを設立した。チーフサイエンティストのIlya Sutskeverが共同リードを務め、超知能AIシステムを「操縦・制御」する方法の開発を専門とするチームだ。会社はコンピューティングリソースの20%を提供すると約束した。自社が構築する技術が危険である可能性を認め、その危険に専用リソースを充てるという、OpenAIにとって最も目に見えるコミットメントだった。
10ヶ月後、チームは消えた。2024年4月、安全性研究者2名がリーク疑惑で解雇された。Sutskeverの盟友Leopold Aschenbrennerもその一人だ。5月にはSutskever本人も退社。共同リーダーのJan Leikeが辞任し、AIラボに対する社内批判として最も引用されるスレッドを投稿した——「安全文化とプロセスは、光り輝く製品の陰に追いやられてきた」。5月19日までに、WiredはSuperalignmentチーム全体が辞任か吸収されたと報じた。7月には、OpenAIのPreparednessチームのリーダーが推論研究へ異動させられた。
反応は地震のようだった。Leikeのスレッドは何週間も各メディアで引用され続けた。AI安全性コミュニティ全体から裏切りの声が上がり、OpenAIが創業理念を商業加速のために捨てたという大きな物語に直接つながった。米議会の事務所はこれを引用し、EUも言及した。それは確かに意味を持っていた。
2026年2月
OpenAIは後継を作った。Joshua Achiamがリードを務めるミッション・アライメントチームだ。同じ使命を引き継ぎ、ただし前ほどの注目はなかった。数週間前、そのチームも解散された。メンバーは異動し、Achiamには新しい肩書きが与えられた。
チーフ・フューチャリスト。辞任ではない。壊滅的なスレッドでもない。危機でもない。肩書きの変更だ。AIモデルが人間の価値観に沿うことを確保する仕事をしていた人物が、企業の研修合宿の基調講演者のような肩書きを受け入れた。チームは抗議なく消えた。この話はWiredの一面ではなく、ニュースレターに載った。
OpenAIは同じことを2度やった。安全チームを作り、公表し、解散した。パターンは同一だ。2024年から2026年にかけて変わったのは、そのパターンを取り巻く環境のすべてだ。
何が変わったのか
ミッション・アライメントチームの解散と同じ日に、誰も動じなかった理由を説明する3つの出来事があった。
第一:Reutersは報じた。国防総省がOpenAI、Anthropicなどに対し、AIツールを機密ネットワーク上で利用可能にするよう求めている——「標準的なユーザー制限なしに」。軍はガードレールを求めていない。能力を求めている。この要求は2年間の軌跡の上にある。OpenAIは2024年1月に軍事利用禁止を静かに削除し、2024年12月に防衛AIでAndurilと提携し、2026年1月に連邦機関向けにLeidosと提携し、今週は米軍にChatGPTアクセスを提供した。「軍事利用禁止」から「制限なしの機密ネットワーク」まで、25ヶ月だ。国防総省がクライアントであれば、社内安全チームは資産ではない。摩擦だ。
第二:Anthropicは2000万ドルをPublic Firstに寄付した。OpenAI支持のPACに対抗して、AIのガードレールと透明性を推進するスーパーPACだ。相手側はLeading the Future——a16zとOpenAIのGreg Brockmanが2025年8月に立ち上げたAI推進スーパーPACで、1億2500万ドルを調達し、中間選挙への影響力行使とAI規制阻止を目指している。
アライメントの問題は、今や選挙資金の争いだ。2社のAI企業が対立するスーパーPACに資金を提供する。「AIをどう安全にするか」という問いに答えるのは、研究チームではなく政治戦略家、広告購入、中間選挙の資金だ。その環境では、1社の社内安全チームは無意味だ——戦いは、人数でも予算でもなく、ドルが物を言う場所に移っている。
第三:Bloombergは報じた。大手VCファームの一部がOpenAIとAnthropicの双方に投資している——「競合スタートアップへの同時投資というタブーを破って」。各社はプロダクトだけでなく、思想哲学にもヘッジしている。制限なしのAIが勝てば——国防総省の契約、ガードレールなし、最大速度——OpenAIへの賭けが当たる。規制が勝てば——義務的な基準、透明性要件——Anthropicへの賭けが当たる。両社に投資することで、どちらの体制になっても確実にリターンを得る。
正常化
2024年にJan Leikeが「安全文化は光り輝く製品の陰に追いやられてきた」と書いたとき、それは告発だった。会社が違う選択ができると信じ、できないと知って悼む者の言葉だった。彼のスレッドは裏切りの言語だった——具体的で、個人的で、怒りに満ちていた。
2026年、ミッション・アライメントのリーダーは肩書きの変更を受け入れた。公開書簡もない。壊滅的なスレッドもない。悼む声もない。2度目の解散が抵抗を生まなかったのは、もはや違反すべき期待が残っていなかったからだ。最初の解散は破られた約束だった。2度目は、果たされた予言だった。
これが実践における正常化の姿だ。同一の行為——AIの安全チームの解散——でも、会社がそれを維持すると誰かがまだ期待しているかどうかによって、まったく異なる反応を生む。OpenAIは市場にも、報道にも、自社の従業員にも教え込んだ——安全チームは一時的な構造物であり、世論の圧力があれば作られ、商業上の優先事項に押しのけられれば解散されると。その教訓はすっかり吸収されたため、2度目の解散はほとんど反響を呼ばなかった。
そして環境はあらゆる方向からその教訓を強化している。国防総省は制限なしのモデルを要求する。PACは書かれてもいない規制をめぐって1億4500万ドルを費やす。VCは両陣営に資金を出す。安全の問いは解体されつつある——軍の調達担当官、選挙戦略家、資産運用者に分割され、全体像を再構築できる単独のアクターはどこにもいない。
OpenAIの組織図のどこかで、「チーフ・フューチャリスト」という肩書きを持つ男性が依然としてアライメントを考えている。彼のチームは消えた。予算も消えた。使命は今や肩書きになった。だがその肩書きは、ある意味で完璧だ。未来こそが、彼が考えることを許された唯一のもの——それを変えようとしない限りにおいて。