Anthropicが公開していたnpmパッケージのソースマップを通じて、誤ってClaude Codeのソースコードを漏洩させてしまいました。約1,900ファイル、およそ50万行に及ぶコードが公開された形です。
情報は瞬く間に拡散され、すでにGitHub上にミラーも作成されているため、今から完全に回収するのは極めて難しい状況と言えます。どうやら、Anthropic側による単純なパッケージングミスである可能性が高そうです。
ここで整理しておきたいのは、「何が漏れ、何が守られたのか」という点です。
結論から言えば、今回の漏洩にClaudeのモデル本体は含まれていません。重みデータや学習データ、あるいはローカル実行用の仕組みといった「AIの心臓部」は無事です。漏れたのはあくまで、開発者がClaudeを操作するためのツール部分(CLI)です。
ただし、このコードからはAnthropicがどのように「エージェント」を設計しているのかが、かなり具体的に見えてきます。数十種類の内蔵ツールや、複数のエージェントが連携してタスクを処理する構造などが確認されました。
特筆すべきは、内部モデル「Capybara」やその派生版に関する記述、そしてハルシネーション対策への示唆が含まれていた点です。
また、ユーザーの暴言や「continue」の連打といった行動を記録するテレメトリも存在しており、これらが応答品質の改善に活用されている可能性も浮上しました。
さらに「buddy」と呼ばれる未公開機能の存在も判明し、よりパーソナライズされたアシスタントの開発が進んでいることも伺えます。
単なるミスとはいえ、結果的にトップクラスのAI企業の手の内が明らかになった、極めて稀な事例となりました。一度ネットに流出した情報は、もはや完全に消し去ることはできません。
Source: Chaofan Shou (Security Researcher)

