Claude Codeのソースコード51万行が2026年3月に誤公開。顧客データの流出はなく、人的ミスが原因と判明。
- 要点1: npmパッケージにソースマップファイルが誤混入し、TypeScriptコード1,900ファイルが一時公開状態に
- 要点2: 常時稼働エージェント「KAIROS」やたまごっちペット「Buddy」など未公開機能が判明
- 要点3: 企業はAIツールの利用ガイドライン整備とバージョン管理の徹底が急務
対象: AIコーディングツールを業務利用している・検討している企業のDX推進担当者・情報システム部門
今日やること: 社内で使用しているAIツールの一覧と利用ポリシーを今すぐ点検する
この記事の目次
2026年3月31日、AI分野で最も信頼性を重視するとされる企業の一つ、AnthropicがAIコーディングツール「Claude Code」のソースコード約51万行を誤って公開するインシデントが発生しました。
「セキュリティに強い企業でも、こうした事故は起きる」——今回の事件は、AIツールを業務活用している、あるいは導入を検討しているすべての企業にとって、自社のAI利用方針を見直す重要な契機となっています。
この記事では、今回のインシデントの技術的な原因から企業への影響、そして明日から実践できる対策まで、非技術者でもわかるかたちで解説します。
Claude Codeソースコード流出事件とは何か
今回の事件を一言で表すなら、「Anthropicの担当者が開発ツールの配布パッケージに不要なファイルを誤って同梱してしまった」というものです。故意の情報漏洩でも、外部からのサイバー攻撃でもなく、リリース作業時の人的ミスが原因です。
いつ・何が流出したのか
2026年3月31日、Anthropicが「Claude Code」のバージョン2.1.88をリリースした際に問題が発生しました。Claude Codeとは、Anthropic社(米国)が提供するAIコーディング支援ツールです。ターミナル(コマンドライン)上でAIと対話しながら、コードの生成・修正・レビュー・バグ修正などを行える開発者向けのツールで、2025年以降に急速に普及しました。
このツールはnpm(Node Package Manager)と呼ばれるソフトウェア配布プラットフォームを通じて公開されており、エンジニアが日常的に利用するものです。今回の更新ファイルの中に、本来は含めてはいけない「ソースマップ」ファイルが誤って同梱されていました。
流出した規模:51万行・1,900ファイル
「ソースマップ」とは、わかりやすく説明すると、「圧縮・変換されたプログラムコードと元のソースコードを対応させるための地図ファイル」です。
開発者はコードを配布する際、通常は元のコードを読みにくく圧縮・難読化した状態でパッケージ化します。しかしソースマップファイルが一緒に含まれると、その地図を辿って元のソースコードが復元・閲覧できてしまいます。
今回のケースでは、ソースマップ内にAnthropicのクラウドストレージ(Cloudflare R2)への参照が含まれており、そこから約1,900ファイル・512,000行のTypeScriptコードが誰でも閲覧できる状態になっていました。規模でいえば、中規模のSaaSプロダクト全体に相当するコード量です。
Anthropicの公式見解と対応
事態を把握したAnthropicは即日対応を行い、修正版パッケージを再公開しました。同社の広報担当者は「顧客データや認証情報は含まれておらず、セキュリティ侵害ではなく人的ミスによるリリースパッケージングの問題」と公式に確認しています。
| 項目 | 内容 |
|---|---|
| 流出日時 | 2026年3月31日(米国時間) |
| 発見 | ユーザーによるX(Twitter)での指摘 |
| 流出内容 | ソースコード(TypeScript)約51万行 |
| 顧客データ | 流出なし |
| 対応 | 即日、修正版パッケージを再公開 |
| 原因 | 人的ミス(ソースマップの誤混入) |
なぜnpmのソースマップから情報が流出したのか
今回のミスは、エンジニアなら誰でも起こしうるものです。しかしその影響が大きくなった理由は、npmという世界規模のパッケージ配布インフラを介して瞬時に広がったからです。
ソースマップとは何か(非技術者向け解説)
ソフトウェア開発では、完成したプログラムを外部に公開するとき、元のコードそのままではなく「ビルド(加工)」という処理を行います。人が読みやすいコードを、コンピュータが効率よく動かせる形に変換する工程です。
このビルド処理では、コードが圧縮・難読化されるため、万一外部に出ても内部の仕組みが読み取りにくくなります。ところがソースマップファイルはこの仕組みを逆引きする「鍵」のようなものです。開発者がデバッグ(バグ修正)を行いやすくするために作られるファイルですが、本来は社内の開発環境にとどめておくべきものです。
今回のミスが起きた経緯
Claude Codeのビルド設定が、開発・デバッグ用のソースマップファイルを最終的なnpmパッケージに同梱してしまう設定になっていたとみられます。通常のリリース前チェックでは見落とされやすい項目であり、特に頻繁なアップデートを行うチームでは発生しやすいミスです。
さらに、ソースマップ内にAnthropicのクラウドストレージへの直接リンクが含まれていたため、そのリンクを辿ることでコードそのものにアクセスできてしまいました。
なぜ発見が遅れたのか
npmパッケージは世界中のエンジニアが利用します。リリース後、X(Twitter)上でこれに気づいたユーザーが指摘したことで発覚しました。公開からAnthropicが対応するまでの間に、流出コードはGitHub上で数万件以上フォーク(コピー保存)され、インターネット上に永続的に残ることになりました。
ポイント今回の流出は、Anthropic側の問題です。Claude Codeを利用していた企業・ユーザーの情報や認証情報が外部に漏れたわけではありません。ただし、今後のAIツール選定・利用方針を見直す好機です。
\ Claude Codeの導入、何から始めればいいかわかります /
法人向けClaude Code個別指導の無料相談はこちら流出コードで判明した未公開機能とは
今回の流出で、外部のエンジニアたちが独自に流出コードを解析し、まだ一般公開されていない機能群の存在が明らかになりました。企業の導入担当者にとっても、Claude Codeの今後のロードマップを知る手がかりになります。
たまごっちスタイルのコンパニオン「Buddy」
コードの中には「Buddy(バディ)」と名付けられた、たまごっち風のコンパニオンキャラクターシステムが組み込まれていました。18種類のキャラクターが存在し、レアリティ(出現率)やシャイニー(光沢)バリアントなどのコレクション要素を持ちます。
キャラクターには「DEBUGGING(デバッグ能力)」「PATIENCE(忍耐)」「CHAOS(混沌)」「WISDOM(知恵)」「SNARK(皮肉)」の5つのステータスがあり、ユーザーのコーディング習慣に応じて育てる仕組みのようです。開発者の士気やエンゲージメントを高めるゲーミフィケーション要素と考えられます。
常時稼働エージェント「KAIROS」とautoDream
企業にとってより重要な情報は、「KAIROS(カイロス)」と名付けられた常時稼働型AIエージェントの存在です。現在のClaude Codeはユーザーが指示を入力したときに動作しますが、KAIROSはユーザーがアイドル状態(作業していない状態)でも監視・記録・自律的に行動し続けるシステムです。
また「autoDream(オートドリーム)」という機能も発見されており、これはユーザーの休止中にAIが過去の作業記録を整理・統合し、次回の作業に活かす仕組みとのことです。
| 機能名 | 概要 | 想定用途 |
|---|---|---|
| Buddy | たまごっち型コンパニオン | エンゲージメント向上 |
| KAIROS | 常時稼働型バックグラウンドエージェント | 自律的な作業支援 |
| autoDream | アイドル中の記憶統合・整理 | 長期的なコンテキスト保持 |
| ULTRAPLAN | 30分間のリモートプランニング | 複雑タスクの事前計画 |
44のフィーチャーフラグが示す今後のロードマップ
流出コードには44種類の「フィーチャーフラグ」(機能の有効/無効を切り替える設定)が含まれており、開発中だが未リリースの機能が多数存在することが判明しました。これはClaude Codeがまだ急速な開発フェーズにあり、今後も大型アップデートが続くことを示唆しています。
Claude Codeの導入や活用方法について、個別にご相談いただけます。「どの機能から使えばいいか」「自社業務への適用方法を知りたい」といった段階から対応しています。
企業への影響:顧客データ流出はあったのか
AIツールを業務利用している企業にとって最も重要な問いは、「自社の情報は漏れたのか」という点です。結論を先に述べると、顧客データや認証情報の流出はありません。
Anthropicが否定した「顧客データ流出」
Anthropicは今回の流出について明確に声明を発表しています。流出したのはClaude Code自体のソースコード(プログラムの設計図)であり、Claude Codeのユーザーが入力したコードや会話内容、APIキーなどの認証情報は含まれていません。
Claude Codeの年間換算売上は2026年2月時点で25億ドル超(CNBC報道)と推計されるほど広く利用されており、もし顧客データが流出していれば深刻な事態になっていたはずです。今回はその点では被害がなかったことをまず確認してください。
競合他社・研究者への技術流出というリスク
一方で、企業の視点から見過ごせないのは「間接的なリスク」です。流出コードはGitHubで数万件以上フォークされており、研究者・競合他社・悪意ある第三者の手元に渡っています。
これにより、以下の懸念が生じます。
- Claude Codeの脆弱性が発見される可能性(攻撃に悪用されるリスク)
- 競合製品がClaude Codeのアーキテクチャを参考に開発を加速するリスク
- IPO(株式上場)を控えたAnthropicの信頼性・企業価値への影響
IPO前という最悪のタイミングが示す教訓
今回の流出は、AnthropicがIPOに向けた準備を進めているとされる中で発生しました。どれだけ優れたAI技術を持つ企業であっても、組織内の人的ミスによる情報インシデントが起きうるという現実を示しています。
これは同時に、AIツールを導入している企業側にも問いかけています。「信頼できるベンダーのツールを使っているから大丈夫」という受け身の姿勢から脱し、自社としてのAI利用ガバナンスを整備する必要があります。
\ 業務自動化のお悩み、プロが30分で整理します /
法人向けClaude Code個別指導の無料相談はこちら日本企業がAIコーディングツールを使う際に確認すべき3つのこと
今回のインシデントを踏まえ、AIツールを業務で利用している、あるいは導入を検討している企業の担当者が明日から実践できる対策を具体的に示します。
①利用ツールとバージョン管理の徹底
今回の問題は特定バージョン(v2.1.88)のパッケージに起因するものでした。企業として利用しているAIツールのバージョンを把握し、ベンダーが修正版を公開した場合は速やかに更新する体制を整えることが基本です。
実践ポイント:- 利用中のAIツールとバージョンの一覧表を作成・管理する- ベンダーのセキュリティ情報・リリースノートを定期的に確認する仕組みを作る- npmなどのパッケージ管理ツールを利用している場合は、脆弱性スキャンツール(例:npm audit)を定期実行する
②AIツールへの入力情報ガイドラインの整備
今回の流出とは別に、企業がAIツールを利用する際の根本的なリスクとして「入力情報の外部送信」があります。Samsungでは開発チームがChatGPTにソースコードを入力した結果、情報漏洩リスクが生じ、社内での利用を全面禁止した事例があります。
IPAの「情報セキュリティ10大脅威2026」でも、AIを悪用したサイバーリスクが初めてランクインしており、企業のAI利用に関するセキュリティ意識が求められる状況です。
実践ポイント:- 「AIツールに入力してはいけない情報」を明文化する(顧客データ、個人情報、機密ソースコード、APIキー等)- 利用を許可するAIツールをホワイトリスト形式でリスト化する- 業務でAIツールを使用する際は、入力内容を抽象化・匿名化するルールを設ける
③エンタープライズプランの活用とデータ保護設定
Claude Codeを含む多くのAIコーディングツールは、エンタープライズ(企業向け)プランを提供しており、無料・個人プランと比較してデータの取り扱いに関する保護が強化されています。
| プラン | データ学習利用 | セキュリティ機能 | 管理者コンソール |
|---|---|---|---|
| 個人・無料 | 利用される場合あり | 限定的 | なし |
| Team・Business | 通常は学習対象外 | 標準 | あり |
| Enterprise | 学習対象外(契約で明確化) | 高度 | 充実 |
企業でAIツールを利用する場合は、エンタープライズプランの利用と、データ保護に関する契約条件(DPA: Data Processing Agreement)の確認を必ず行ってください。
よくある質問
Q. 今後もClaude Codeを使っても安全ですか?
今回の問題は、Anthropicが即日対応して修正版パッケージを公開済みです。顧客データの漏洩もないため、最新バージョンに更新したうえで引き続き利用することは問題ないと判断されます。ただし、企業として利用する場合はエンタープライズプランの活用と社内ガイドラインの整備を合わせて行うことをおすすめします。
Q. 自社のコードがAnthropicに学習利用されるリスクはありますか?
Claude Codeのエンタープライズプランでは、入力コードがモデル学習に使用されない設定が適用されます。個人プランや無料プランの場合は設定やプライバシーポリシーを確認する必要があります。今回の流出インシデントとは別の問題ですが、企業での利用においては常に確認すべき重要な点です。
Q. AIコーディングツールのセキュリティを比較する際の基準は何ですか?
主な確認ポイントは以下の4点です。①入力データの学習利用可否、②データ保管国・データ処理に関する契約条件、③エンタープライズプランでの管理機能(ログ、監査、アクセス制御)、④過去のセキュリティインシデントと対応実績。これらを総合的に評価したうえで、自社の利用用途・リスク許容度に合ったツールを選定することが重要です。
\ AI活用の「次の一手」を一緒に考えませんか /
法人向けClaude Code個別指導の無料相談はこちらまとめ
2026年3月31日に発生したClaude Codeのソースコード流出事件は、人的ミスによるものであり、顧客データや認証情報の漏洩はありませんでした。Anthropicは即日修正対応を完了しています。
一方で、今回の事件は「AIツールを業務活用している企業」にとって重要な問いを投げかけています。
- 自社が使用しているAIツールのバージョン管理は適切か
- AIツールへの入力情報に関するガイドラインは存在するか
- エンタープライズプランの活用とデータ保護契約は整っているか
どれだけ信頼性の高いベンダーのツールを使っていても、企業側の利用方針・ガバナンス体制が整っていなければリスクを完全には排除できません。今回の事件を契機に、社内のAI利用ポリシーを今一度点検することをおすすめします。
AIの導入・活用にお悩みですか?
株式会社Nexaでは、Claude Code個別指導をはじめ、最新AIツールを活用した企業向け研修・コンサルティングを提供しています。「AIツールのセキュリティをどう整備すればいいか」「社内ガイドラインの作り方がわからない」という段階からサポートいたします。





