GitHub Copilotが全ユーザーのデータをAI訓練に自動利用へ — オプトアウト方法と知っておくべきリスク

はじめに

2026年3月25日、GitHubはCopilotのインタラクションデータをAIモデルの訓練に利用する新ポリシーを発表しました。4月24日から適用開始で、Free・Pro・Pro+ユーザーが自動的にオプトインされます。Reddit r/programmingでは919ポイントを記録し、開発者コミュニティに大きな波紋を呼んでいます。この記事では、何が変わるのか、どのデータが対象なのか、そしてオプトアウトの手順を解説します。

何が変わるのか — ポリシー変更の全容

GitHubは従来、Copilot Business/Enterpriseユーザーのデータをモデル訓練に使わないことを明言していました。個人ユーザーについても、一時期はオプトアウトの選択肢を提供していましたが、今回のポリシー変更で大きく方針が転換します。

変更のポイント:

  • 対象プラン: Copilot Free、Pro、Pro+の全ユーザー
  • 除外プラン: Copilot Business、Enterprise(企業契約は保護される)
  • 適用方式: デフォルトでオプトイン(自動的にデータ提供が有効化される)
  • 適用開始: 2026年4月24日

つまり、何もしなければ4月24日以降、あなたのCopilot利用データはGitHubのAIモデル訓練に使われることになります。過去にオプトアウト設定をしていたユーザーは、その設定が引き継がれます。

収集されるデータの範囲 — 想像以上に広い

「インタラクションデータ」という表現は抽象的ですが、実際の収集範囲はかなり広いです。

収集対象:

  • Copilotに送信されるコード入力とコード片
  • コード補完の受け入れ・修正の履歴
  • カーソル位置周辺のコードコンテキスト
  • コメント、ファイル名、リポジトリ構造
  • Copilot Chatへのプロンプトと応答
  • 機能の使用パターンとフィードバック(👍👎の評価)

注意すべきは、プライベートリポジトリのコードも対象に含まれうるという点です。Copilotを使ってプライベートリポジトリで作業すると、そのコードの断片がインタラクションデータとして収集される可能性があります。GitHub側は「リポジトリに保存されたコード自体は使わない」と説明していますが、Copilot利用時にコンテキストとして送信されるコード片は対象です。

なぜ開発者は怒っているのか

GitHubの公式ディスカッションでは117の👎が付き、コミュニティの反発は明確です。開発者が問題視している点をまとめます。

1. オプトアウトではなくオプトインであるべき

GDPRをはじめとする欧州のプライバシー規制では、データ利用には明示的な同意(オプトイン)が原則です。GitHub自身も「確立された業界慣行」と釈明していますが、これはあくまで米国基準の話です。EU圏の開発者にとっては、法的な整合性に疑問が残ります。

2. プライベートリポジトリの意味が変わる

プライベートリポジトリに置いたコードは「自分だけがアクセスできる」という前提で運用されてきました。しかし今回の変更で、Copilot利用時にはそのコード片がGitHubに送信され、モデル訓練の素材になる可能性があります。The Registerはこれを「GitHub private repositories」と皮肉を込めて表現しています。

3. 歴史的な経緯への不信感

Copilotの基盤であるOpenAI Codexは、もともとGitHub上の公開リポジトリで訓練されました。当時、多くの開発者がライセンス違反の可能性を指摘し、集団訴訟にまで発展しています。その経緯がある中で「今度はプライベートなデータも使います」という方針転換は、不信感を増幅させています。

オプトアウトの手順

影響を避けたい場合は、4月24日までに以下の手順でオプトアウトしてください。

  1. GitHubにログイン
  2. SettingsCopilotFeatures に移動(またはURLバーに /settings/copilot/features を入力)
  3. Privacy セクションの「Allow GitHub to use my data for AI model training」を Disabled に変更
  4. 設定を保存

この設定は即座に反映されます。なお、GitHubは「サードパーティのAIモデルプロバイダーに入力・出力を共有しない」とも明言しています。あくまでGitHub/Microsoft内部でのモデル改善に限定されるとのことですが、それでも気になる方はオプトアウトしておくべきでしょう。

エンジニアへの実務的な影響

個人開発者

副業やOSS開発でCopilot Free/Proを使っている場合、自分のコーディングスタイルやプロジェクト構造がモデルに反映される可能性があります。特に、NDAのある業務をCopilotで行っている場合は注意が必要です。

企業・チーム

Copilot Business/Enterpriseユーザーは除外されるため、企業契約であれば直接的な影響はありません。ただし、従業員が個人アカウントでCopilotを利用しているケースでは、意図せず業務コードがモデル訓練に使われるリスクがあります。企業のセキュリティポリシーを見直す良いタイミングです。

代替手段の検討

今回の変更をきっかけに、GitHubからの移行を検討する開発者も出ています。実際、同日のHacker Newsでは「GitHub→Codeberg移行」の記事が393ポイントを記録しました。ただし、Copilotのデータ利用とGitHubのホスティング自体は別の問題であり、冷静な判断が求められます。

まとめ

  • 4月24日から、Copilot Free/Pro/Pro+ユーザーのインタラクションデータがAI訓練に自動利用される
  • 対象はコード片・プロンプト・コンテキスト情報と広範囲。プライベートリポジトリのコードも例外ではない
  • オプトアウトは Settings → Copilot → Features → Privacy から可能。早めの設定変更を推奨
  • Business/Enterprise契約は除外されるが、個人アカウントの業務利用には注意が必要

AIモデルの性能向上にユーザーデータを活用すること自体は、業界全体のトレンドです。しかし「デフォルトでオプトイン」という手法は、開発者の信頼を損なうリスクを伴います。GitHubがこのフィードバックにどう応えるか、4月24日の適用開始までの動向に注目です。

ソース