【完全ガイド】Copilotオプトアウト設定|学習させない方法とプライバシー保護

プログラミング・IT

「Copilotを使いたいけど、自分のコードや会話が学習に使われるのは不安…」「会社の機密情報が漏れないか心配…」と思っていませんか?

Microsoft CopilotやGitHub Copilotは便利なAIツールですが、デフォルトの設定のままだと、あなたの入力内容がAIの改善やモデルトレーニングに使われる可能性があります。

でも大丈夫です。適切な設定を行えば、学習をオフにして安全に使うことができます

この記事では、以下のCopilotのオプトアウト設定方法を詳しく解説します:

  • Microsoft Copilot(個人向け)
  • GitHub Copilot(コード補完ツール)
  • Microsoft 365 Copilot(法人向け)

それぞれのCopilotで設定方法が異なるので、あなたが使っているサービスに合った方法を確認してください。プライバシーを守りながら、安心してCopilotを活用しましょう!


スポンサーリンク
  1. Copilotの種類とデータの扱い
    1. 1. Microsoft Copilot(個人向け)
    2. 2. GitHub Copilot(開発者向け)
    3. 3. Microsoft 365 Copilot(法人向け)
  2. Microsoft Copilot(個人向け)のオプトアウト設定
    1. 設定できること
    2. Windows・macOS版の設定方法
    3. モバイルアプリの設定方法
    4. 会話履歴を削除する
  3. GitHub Copilotのオプトアウト設定
    1. GitHub Copilotのデータ収集について
    2. GitHub Proユーザーの重要な情報
    3. コードスニペットの学習利用をオプトアウトする
    4. AIモデルトレーニングの設定(将来のオプトイン)
    5. 公開コードとの一致を制御する
    6. VS Codeでの追加設定(プライバシー重視)
    7. 組織やリポジトリでコンテンツを除外する
  4. Microsoft 365 Copilot(法人向け)の設定
    1. 商用データ保護(Commercial Data Protection)
    2. 管理者による設定方法
    3. Power Platformでのデータ共有設定
    4. テナント全体のポリシー設定
  5. 設定が反映されない場合の対処法
    1. よくある原因と対処法
  6. プライバシーを守るためのベストプラクティス
    1. 基本的な対策
    2. 法人での運用ルール
    3. プライバシー重視の使い方
  7. よくある質問(FAQ)
    1. Q1: オプトアウトしても完全に安全ですか?
    2. Q2: オプトアウトするとCopilotの性能が落ちますか?
    3. Q3: 設定を変更したらすぐに反映されますか?
    4. Q4: すでに学習されたデータは削除されますか?
    5. Q5: 無料版と有料版でプライバシー保護に違いはありますか?
    6. Q6: 組織で使っている場合、個人で設定を変更できますか?
    7. Q7: オプトアウトしても会話履歴は残りますか?
    8. Q8: GitHub Copilotで特定のリポジトリだけ除外できますか?
  8. まとめ

Copilotの種類とデータの扱い

まず、Copilotには複数の種類があり、それぞれデータの扱い方が異なります。

1. Microsoft Copilot(個人向け)

これは何?

  • BingやEdgeに組み込まれた無料のAIチャットアシスタント
  • Windows 11のタスクバーからも利用可能
  • 有料版「Copilot Pro」もあり

データの扱い

  • チャット履歴がデフォルトで保存される
  • 会話内容がAIモデルのトレーニングに使われる可能性がある
  • パーソナライゼーション機能で会話がカスタマイズされる

2. GitHub Copilot(開発者向け)

これは何?

  • プログラミング時にコードを自動補完してくれるAIツール
  • VS Code、Visual Studio、JetBrainsなどのIDEで使用
  • 個人向け(Free/Pro)と法人向け(Business/Enterprise)がある

データの扱い

  • Proプラン:コードスニペットはAIモデルのトレーニングに使われない(デフォルト)
  • Freeプラン:製品改善のためのテレメトリーデータが収集される
  • Business/Enterpriseプラン:コードは一切トレーニングに使われない

3. Microsoft 365 Copilot(法人向け)

これは何?

  • Word、Excel、PowerPoint、Teamsなどに統合されたAIアシスタント
  • 組織向けの有料サービス
  • 商用データ保護機能が標準装備

データの扱い

  • 商用データ保護(Commercial Data Protection)が有効な場合、企業データは学習に使われない
  • 管理者がテナント全体のポリシーを制御できる

Microsoft Copilot(個人向け)のオプトアウト設定

個人で使うMicrosoft Copilotの学習をオフにする方法です。

設定できること

Microsoft Copilotでは、以下の3つをオプトアウトできます:

  1. モデルトレーニング:会話をAIモデルの学習に使わせない
  2. パーソナライゼーション:会話履歴を使った個人化をオフにする
  3. パーソナライズド広告:会話に基づく広告のカスタマイズをオフにする

Windows・macOS版の設定方法

モデルトレーニングをオプトアウトする

手順

  1. Copilotを開く
  • Windows 11:タスクバーのCopilotアイコンをクリック
  • ブラウザ:https://copilot.microsoft.com/ にアクセス
  1. プロファイルアイコンをクリック
  • 画面右上の自分のアイコンをクリック
  1. 「設定」を選択
  2. 「プライバシー」または「データ管理」を選択
  3. 以下の項目をオフにする
  • テキストのモデルトレーニング」をオフ
  • 音声でのモデルトレーニング」をオフ
  1. 変更を保存

注意点

  • オプトアウトすると、過去・現在・将来の会話がモデルトレーニングに使用されなくなります
  • 変更がシステム全体に反映されるまで、最大30日かかります
  • この設定でも、製品やシステムの一般的な改善、広告、セキュリティ、コンプライアンスの目的での使用は除外されません

パーソナライゼーションをオフにする

手順

  1. Copilotの設定を開く
  2. 「パーソナル化」セクションを探す
  3. パーソナル化をオフにする
  4. 変更を保存

パーソナライゼーションをオフにすると?

  • Copilotがあなたについて記憶している情報を使わなくなる
  • 過去の会話に基づいた応答のカスタマイズが停止される
  • 会話履歴は削除されないが、新しい記憶は作られなくなる

Copilotが記憶している情報を削除する

手順

  1. Copilotに「私について何を知っていますか?」と質問する
  2. Copilotが記憶している内容が表示される
  3. 特定の情報を削除したい場合:
  • 〇〇を忘れてください」と伝える
  • 例:「私がSF映画が好きであることを忘れてください」
  1. 情報が記憶から削除される

モバイルアプリの設定方法

手順

  1. Copilotアプリを開く
  2. メニューを開く
  • 画面左上の三本線(≡)をタップ
  1. プロファイルアイコンをタップ
  2. 「アカウント」→「プライバシー」を選択
  3. 以下をオフにする
  • 「テキストのモデルトレーニング」
  • 「音声でのモデルトレーニング」
  1. 変更を保存

会話履歴を削除する

手順

  1. Copilotの設定を開く
  2. 「会話履歴」を選択
  3. 「会話履歴を削除」をクリック
  4. 確認画面で「削除」を選択

注意点

  • 会話履歴は18か月間保持されます
  • 個々の会話を選択して削除することもできます
  • 削除しても、すでにモデルトレーニングに使われたデータには影響しません

GitHub Copilotのオプトアウト設定

プログラマー向けのGitHub Copilotで、コードスニペットを学習に使わせない方法です。

GitHub Copilotのデータ収集について

GitHub Copilotは、以下のデータを収集する可能性があります:

個人向け(Free/Pro)

  • コードスニペット(設定でオプトアウト可能)
  • 製品改善のためのテレメトリー(使用状況データ)
  • プロンプト(入力内容)

法人向け(Business/Enterprise)

  • コードスニペットは一切収集されない(デフォルト)
  • プロンプトはリアルタイムで処理され、提案生成後に削除される
  • テレメトリーデータのみ収集(管理者が制御可能)

GitHub Proユーザーの重要な情報

2024年のアップデート以降、GitHub Copilot Proユーザーの場合:

  • コードはAIモデルのトレーニングに使用されない(デフォルト)
  • この設定は変更できず、オフのまま固定
  • GitHub、その関連会社、第三者は、プロンプト、提案、コードスニペットをAIモデルトレーニングに使用しない

ただし、製品改善のためのデータ利用設定は別途存在します。

コードスニペットの学習利用をオプトアウトする

製品改善のためのコードスニペット収集を停止する方法です。

手順

  1. GitHubにログイン
  • https://github.com にアクセス
  1. プロフィール画像をクリック
  • 画面右上のアイコンをクリック
  1. 「Settings」(設定)を選択
  2. 左サイドバーから「Copilot」をクリック
  3. 「Allow GitHub to use my code snippets from the code editor for product improvements」のチェックを外す
  • (エディターからのコードスニペットを製品改善に使用することを許可する)
  1. 変更を保存

これで何が変わる?

  • あなたのコードスニペットが製品改善に使われなくなる
  • テレメトリーデータの収集が停止される
  • Copilotの動作自体は変わらない

設定の反映

  • 最大30分かかることがあります
  • すぐに反映させたい場合は、エディター(VS Codeなど)を再起動してください

AIモデルトレーニングの設定(将来のオプトイン)

注意:この設定は現在すべてのユーザーで無効化されています

「Allow GitHub, its affiliates, and third parties to use my data, including Prompts, Suggestions, and Code Snippets, for AI model training」という設定項目があります。

  • 現在、この機能はすべてのユーザーで無効
  • 誰も有効にできない状態
  • 将来的に、ユーザーが希望する場合のみオプトインできるようになる予定

公開コードとの一致を制御する

Copilotの提案が公開コードと一致する場合にブロックする設定です。

手順

  1. GitHub設定で「Copilot」を開く
  2. Suggestions matching public code」(公開コードと一致する提案)の設定を探す
  3. ドロップダウンメニューから選択:
  • 「Allow」:公開コードと一致する提案を許可
  • 「Block」:公開コードと一致する提案をブロック

どう機能する?

  • GitHub Copilotが、約150文字の周辺コードと一緒にコード提案を公開コードと照合
  • 一致する場合、その提案をブロックまたは表示

注意点

  • この設定でも、150文字までのスニペットはGitHubに送信されます
  • APIキーやトークンなどの機密情報が含まれるリスクがあります

VS Codeでの追加設定(プライバシー重視)

より高度なプライバシー設定を行いたい場合、VS Codeの設定を調整できます。

テレメトリーを無効化する

  1. VS Codeで「Ctrl + ,」(設定を開く)
  2. 「telemetry」で検索
  3. 「Telemetry: Telemetry Level」を「off」に設定

特定のファイルタイプでCopilotを無効化する

  1. VS Codeの設定(settings.json)を開く
  2. 以下を追加:
{
  "github.copilot.enable": {
    "*": true,
    "plaintext": false,
    "markdown": false,
    "dotenv": false,
    "yaml": false,
    "json": false
  }
}

これで、.env.yaml.jsonなどの機密ファイルでCopilotが動作しなくなります。

組織やリポジトリでコンテンツを除外する

組織レベルでの設定

管理者は、組織全体で特定のファイルやリポジトリをCopilotから除外できます。

手順

  1. 組織の設定を開く
  2. Copilot」→「Content exclusion」を選択
  3. 除外するリポジトリとパスを入力
  4. 保存

リポジトリレベルでの設定

個別のリポジトリで特定のファイルを除外できます。

手順

  1. リポジトリの「Settings」を開く
  2. Copilot」→「Content exclusion」を選択
  3. 除外するパスを入力
  4. 保存

除外パスの例

/config/secrets.yaml
/src/api/keys.js
*.env

注意点

  • 設定の反映に最大30分かかります
  • GitHub Copilot CLIやAgent modeでは、コンテンツ除外機能がサポートされていません

Microsoft 365 Copilot(法人向け)の設定

企業で使うMicrosoft 365 Copilotのデータ保護設定です。

商用データ保護(Commercial Data Protection)

Microsoft 365 Copilotには、商用データ保護という機能があります。

これは何?

  • 企業データがMicrosoftのAIモデル改善に使用されないようにする機能
  • 有効化すると、入力データがモデルトレーニングに使われない
  • 会話データが保存されず、外部のAIサービスと分離される

デフォルトの状態

  • Microsoft 365 Copilot for Businessを契約している場合、商用データ保護はデフォルトで有効
  • 管理者が明示的に無効にしない限り、企業データは保護される

管理者による設定方法

商用データ保護を確認・有効化する

  1. Microsoft 365 管理センターにアクセス
  • https://admin.microsoft.com/
  1. 左サイドバーから「設定」→「組織の設定」を選択
  2. 「Copilot」を検索
  3. 「商用データ保護」の設定を確認
  • 有効になっていることを確認
  • 無効の場合は、有効化する
  1. 変更を保存

Power Platformでのデータ共有設定

Dynamics 365 CopilotやPower Platform Copilotを使用している場合の設定です。

データ共有のオプトアウト

デフォルトの状態

  • データ共有オプションはデフォルトで無効
  • オプトインしない限り、データは共有されない

オプトアウト方法

  1. Power Platform 管理センターにアクセス
  2. 「設定」→「テナント設定」を選択
  3. 「Dynamics 365 Copilot のデータ共有」と「Power Platform Copilot AI 機能のデータ共有」を探す
  4. トグルをオフにする
  5. 保存

オプトアウト後の処理

  • オプトアウト後30日以内にすべてのデータが削除される
  • ただし、30日の期間が終了するまでは、データが引き続き使用される場合がある

テナント全体のポリシー設定

管理者が制御できること

  • ユーザーがチャット履歴を保存できるかどうか
  • パーソナライゼーション機能の有効/無効
  • 外部データソースへのアクセス許可
  • Copilot機能の有効化/無効化

注意点

  • 個人ユーザーが設定しても、テナント全体のポリシーで上書きされる場合がある
  • 組織のIT管理者に確認してください

設定が反映されない場合の対処法

オプトアウト設定をしたのに反映されない場合の対策です。

よくある原因と対処法

1. セッション情報が残っている

原因
サインアウト/再ログインをしていない

対処法

  1. 完全にログアウトする
  2. ブラウザを閉じる
  3. 再度ログインする

2. ブラウザキャッシュが原因

原因
古いUIやデータがキャッシュに残っている

対処法

Chromeの場合

  1. Ctrl + Shift + Delete(Windowsの場合)
  2. 「キャッシュされた画像とファイル」にチェック
  3. 「データを削除」をクリック

Edgeの場合

  1. Ctrl + Shift + Delete
  2. 「キャッシュされた画像とファイル」を選択
  3. 「今すぐクリア」をクリック

Safariの場合

  1. 「Safari」→「環境設定」→「詳細」
  2. 「メニューバーに開発メニューを表示」にチェック
  3. 「開発」→「キャッシュを空にする」

3. アプリごとに設定が異なる

原因
例えば、EdgeでオフにしたがTeamsやOfficeアプリではオンのまま

対処法
各アプリで個別に設定を確認・変更する

4. 設定の反映に時間がかかる

原因
設定変更後、システム全体に反映されるまで時間がかかる

対処法

  • 最大30分〜24時間待つ
  • エディターやアプリを再起動する

5. 組織のポリシーが優先される

原因
法人アカウントの場合、管理者が設定したポリシーが個人設定より優先される

対処法

  • IT管理者に問い合わせる
  • 組織のポリシーを確認してもらう

プライバシーを守るためのベストプラクティス

Copilotを安全に使うための推奨事項です。

基本的な対策

1. 機密情報を入力しない

絶対に入力してはいけない情報

  • パスワード、APIキー、アクセストークン
  • クレジットカード番号、銀行口座情報
  • 個人を特定できる情報(氏名、住所、電話番号、メールアドレス)
  • 社外秘の情報、顧客データ
  • 医療情報、法律上の機密情報

2. 必要に応じてマスキングや匿名化を行う

例:

  • ❌ 「ユーザー田中太郎のメールアドレスtanaka@example.comを更新する処理」
  • ✅ 「ユーザーのメールアドレスを更新する処理」

3. チャット履歴を定期的に削除する

  • 月に一度など、定期的に会話履歴を削除
  • 機密性の高い会話をした後はすぐに削除

4. 環境変数を使う

コード内に直接秘密情報を書かず、環境変数やシークレット管理ツールを使う。

# ❌ 悪い例
api_key = "sk-1234567890abcdef"

# ✅ 良い例
import os
api_key = os.environ.get("API_KEY")

法人での運用ルール

1. 社内ガイドラインを作成する

  • Copilot使用時の注意事項を明文化
  • 入力してはいけない情報のリストを作成
  • 違反した場合のペナルティを明確にする

2. 管理者による集中管理

  • テナントレベルで商用データ保護を有効化
  • 部門ごとにアクセス権限を設定
  • 定期的に使用状況を監査

3. 従業員教育を実施する

  • Copilotの正しい使い方を研修
  • プライバシーリスクについて啓発
  • 定期的にリマインダーを送る

4. Business/Enterpriseプランを検討する

個人向けプランより高いデータ保護機能が提供される:

  • コードスニペットが一切学習に使われない
  • プロンプトがリアルタイムで処理され、保存されない
  • 組織全体でポリシーを統一できる

プライバシー重視の使い方

サインインせずに使う(Microsoft Copilot)

  • Microsoftアカウントにサインインせずに使用
  • 会話履歴が保存されない
  • パーソナライゼーションが働かない

注意点

  • 機能が制限される場合がある
  • 毎回新しいセッションとして扱われる

プライベートモードで使う

  • ブラウザのシークレットモード(プライベートブラウジング)を使用
  • セッション終了後、自動的にデータが削除される

専用の開発環境を用意する

  • 本番環境と開発環境を分離
  • テスト用のダミーデータを使用
  • 機密プロジェクトではCopilotを無効化

よくある質問(FAQ)

Q1: オプトアウトしても完全に安全ですか?

A: オプトアウトすることで、データがAIモデルのトレーニングに使われるリスクは大幅に減りますが、完全にゼロにはなりません。以下の点に注意してください:

  • 過去にオプトアウト前に入力したデータは、すでに学習に使われている可能性があります
  • 製品改善、セキュリティ、コンプライアンスの目的でデータが使用される場合があります
  • 法人プランでも、テレメトリーデータ(使用状況データ)は収集されます

最も安全な方法は、機密情報を一切入力しないことです。

Q2: オプトアウトするとCopilotの性能が落ちますか?

A: いいえ、オプトアウトしてもCopilotの基本的な機能や性能は変わりません。

  • コード補完や提案の精度は同じ
  • 応答速度も変わらない
  • すでに訓練されたモデルを使用するため、影響はない

ただし、パーソナライゼーションをオフにすると、あなたの過去の会話に基づくカスタマイズはされなくなります。

Q3: 設定を変更したらすぐに反映されますか?

A: 反映までの時間はサービスによって異なります:

  • Microsoft Copilot:最大30日
  • GitHub Copilot:最大30分(エディター再起動で即時反映可能)
  • Microsoft 365 Copilot:設定変更後、数時間〜1日

すぐに反映させたい場合は、アプリやエディターを再起動してください。

Q4: すでに学習されたデータは削除されますか?

A: いいえ、オプトアウトしても、すでにAIモデルのトレーニングに使用されたデータは削除されません

オプトアウトが有効になるのは、設定変更後の新しいデータからです。過去のデータについては、すでに学習済みモデルの一部になっている可能性があります。

Q5: 無料版と有料版でプライバシー保護に違いはありますか?

A: はい、大きな違いがあります:

GitHub Copilot

  • Free:製品改善のためのテレメトリーが収集される(オプトアウト可能)
  • Pro:コードはデフォルトでトレーニングに使われない
  • Business/Enterprise:最高レベルのデータ保護、コードは一切使われない

Microsoft Copilot

  • 無料版:商用データ保護なし
  • Copilot Pro:個人向け有料版、設定で保護可能
  • Microsoft 365 Copilot:法人向け、商用データ保護が標準

法人で使う場合は、Business/Enterpriseプランの契約を強く推奨します。

Q6: 組織で使っている場合、個人で設定を変更できますか?

A: 制限される場合があります:

  • 組織の管理者が設定したポリシーが優先されます
  • 個人で設定を変更しても、組織のポリシーで上書きされることがあります
  • 変更したい場合は、IT管理者に相談してください

組織全体のセキュリティポリシーに従うことが重要です。

Q7: オプトアウトしても会話履歴は残りますか?

A: はい、オプトアウトしても会話履歴は別途保存されます:

  • Microsoft Copilot:会話履歴は最大18か月保存される
  • モデルトレーニングへの使用と、会話履歴の保存は別の設定です
  • 会話履歴を削除したい場合は、別途削除操作が必要です

プライバシーを重視する場合は、定期的に会話履歴を手動で削除しましょう。

Q8: GitHub Copilotで特定のリポジトリだけ除外できますか?

A: はい、できます:

  • リポジトリの設定で「Content exclusion」を使用
  • 組織レベルでも設定可能
  • 特定のファイルパスやファイルタイプを除外できます

詳しくは「GitHub Copilotのオプトアウト設定」のセクションを参照してください。


まとめ

Copilotのオプトアウト設定について、重要なポイントをまとめました。

各Copilotの設定方法

Microsoft Copilot(個人向け)

  1. 設定→プライバシー
  2. 「テキスト/音声のモデルトレーニング」をオフ
  3. パーソナライゼーションをオフ
  4. 会話履歴を定期的に削除

GitHub Copilot

  1. GitHub設定→Copilot
  2. 「Allow GitHub to use my code snippets for product improvements」のチェックを外す
  3. エディターを再起動して反映
  4. 特定のファイルやリポジトリを除外設定

Microsoft 365 Copilot(法人向け)

  1. 商用データ保護を有効化(管理者)
  2. テナント設定でデータ共有を制御
  3. 組織全体でポリシーを統一

プライバシーを守るためのポイント

やるべきこと

  • 機密情報を入力しない
  • 必要に応じてマスキング・匿名化
  • チャット履歴を定期的に削除
  • 環境変数やシークレット管理ツールを使う
  • 法人ではBusiness/Enterpriseプランを検討

避けるべきこと

  • パスワードやAPIキーを入力する
  • 社外秘情報をそのまま入力する
  • 個人情報を含むコードを書く
  • オプトアウト設定を確認せずに使う

重要な注意点

  • オプトアウトしても過去のデータは削除されない
  • 設定反映に時間がかかる(最大30日)
  • 組織のポリシーが個人設定より優先される
  • 完全な安全を保証するものではない

最終的な推奨

Copilotは非常に便利なツールですが、プライバシーとセキュリティには十分な注意が必要です。

  1. 個人利用:オプトアウト設定を必ず確認・変更する
  2. 法人利用:Business/Enterpriseプランを契約し、商用データ保護を有効化する
  3. 常に警戒:機密情報は絶対に入力しない

適切な設定と運用ルールを守れば、Copilotを安全に活用できます。この記事を参考に、あなたの環境に合った設定を行ってください。

安心して、AIの力を最大限に活用しましょう!

コメント

タイトルとURLをコピーしました