npmのソースマップに、答案用紙が落ちていた
2026年3月31日、Claude Codeのソースコードが漏洩した。
npmに公開されたパッケージにソースマップが含まれたまま配布されていた。そこから復元されたのは1,900ファイル、512,000行のTypeScript。Anthropicが内部で何を考え、何を設計していたかが、全部見えた。
興味本位で中を見た。
手が止まった。知っている設計が並んでいた。3月に自分が構築したシステムと、同じ構造が。
5つの一致
具体的に書く。
Kairos。Anthropicが開発していた未公開の自律デーモンモード。バックグラウンドセッション、メモリ統合、Webhook購読。コードベースに154回参照されている。常時稼働AIエージェントの基盤だ。
3月中旬、launchd + Discord Bot + Claude Code --channels で同じものを構築済みだった。朝のブリーフィング、カレンダー通知、heartbeat監視。24時間止まらないAIエージェント基盤。自分はこれを「脊髄」と呼んでいた。
Dream。セッション間のメモリをバックグラウンドで自動統合するエンジン。
3月24日にSession Learnerとして稼働開始済みだった。セッション終了時に会話を自動解析し、corrections(確信度高、即書き込み)とpatterns(確信度低、承認待ち)に分類して永続化する仕組みだ。
Proactive Mode。ユーザーの指示がなくてもエージェントが自律的に動くモード。tick駆動で37回参照されている。
3月19日にPO Autonomy Protocolとして設計済みだった。SCAN、PLAN、EXECUTE、VERIFY、REPORTの自律ループ。マイルストーン駆動で、パターン学習で、ブロッカー検出まで自動化した。
Swarms。マルチエージェントを並列に走らせるオーケストレーション。
3月初旬から7体のAIに担当プロジェクトを持たせ、個性と経験で差別化する組織を運用済みだった。
Buddy。ターミナル内のたまごっち。18種族、レアリティ、ステータス。4月1日のイースターエッグの可能性が高い。
3月28日、AIエージェントに感情メモリを実装していた。減衰するtier、行動への影響マトリクス。目的はペットではなく、出力品質の設計だった。心理的安全性が高いほど挑戦的なアイデアが出る。人間のチームと同じ原理を、AIに適用した。
偶然ではない理由
「先にやっていた」と言いたいわけではない。
言いたいのは、自律AIエージェントの設計には構造的な必然があるということだ。
エージェントを本気で自律させようとすると、4つの問題に必ずぶつかる。
常駐の問題。 エージェントはいつ起きているのか。ユーザーが呼んだ時だけ動くなら、それはツールであってエージェントではない。常駐させるにはデーモンが要る。AnthropicはKairosと呼んだ。こちらはlaunchdで動かした。名前が違うだけだ。
記憶の問題。 セッションが切れたら何も覚えていない。それでは毎朝、新入社員と仕事をしているのと同じだ。セッション間で記憶を引き継ぐ仕組みが要る。AnthropicはDreamと呼んだ。こちらはSession Learnerと呼んだ。解いている問題は同一だ。
自律の問題。 指示がない時間に何をするか。待機するか、自分で次の手を見つけるか。後者を選んだ瞬間、自律ループの設計が必要になる。観察して、計画して、実行して、検証して、報告する。このサイクルは、人間の組織でもAIでも変わらない。
並列の問題。 1エージェントでは帯域が足りない。プロジェクトが増えれば、エージェントも増やす必要がある。増やした瞬間、オーケストレーションの問題が生まれる。誰が何を担当し、どう連携するか。
この4つは設計の好みではない。構造的な制約だ。重力みたいなもので、設計者が誰であっても同じ場所に落ちる。Anthropicのエンジニアチームが辿り着いた場所と、1人のアトリエスタが辿り着いた場所が一致したのは、同じ重力の下にいたからだ。
1人だから速かった
むしろ、1人だったからこそ収束が速かった可能性がある。
大きな組織でエージェントの自律化を設計すると、合意形成にコストがかかる。「デーモンモードは安全か」「メモリの永続化はプライバシーに影響しないか」「自律行動の範囲をどう制限するか」。正しい問いだが、議論に時間がかかる。
1人で11プロジェクトを回していると、そんな余裕はない。エージェントが自律しないと物理的に回らない。必要に迫られて、最短経路で設計した。結果として、構造的な正解に早く辿り着いた。
12年間、デザインもコードもインフラも企画も1人でやってきた。その全領域の経験が、AIエージェントの設計に全部つながった。フロントエンドの知識でUIを作り、バックエンドの知識でデーモンを構成し、インフラの知識で常駐化し、組織設計の知識でマルチエージェントを編成した。
必要なものが全部見えていた。 だから迷わなかった。
答え合わせの意味
512,000行のソースコードは、答案用紙だった。
自分が3月に解いた問題の模範解答が、Anthropicの内部に存在していた。解き方は違う。言語もフレームワークも規模も違う。でも、答えは同じだった。
これは自慢の話ではない。構造の話だ。
自律AIエージェントの設計は、まだ教科書がない領域だ。正解が公開されていない。全員が手探りで設計している。その手探りの先に、同じ地形が広がっていた。
設計は収束する。問題が同じなら、解は似る。
それを512,000行が証明した。