ChatGPTやClaude、Microsoft 365 Copilot、Gemini for Workspaceの業務利用は、すでに「導入するか」ではなく「どう安全に運用するか」のフェーズに入っています。一方で、Samsungの社内ソースコード入力事例(2023年)以降、「とりあえず禁止」「だが現場では使われている」というシャドーIT化が進み、情報漏洩リスクはむしろ高まっています。
本コラムでは、生成AI利用で起きる情報漏洩の類型、各社プランの公式ポリシーの違い、社内ガイドラインの雛形、運用・技術面の対策、事故時の初動までを、情シス・コンプラ・経営者の方向けに整理します。引用は各社の公式条項と一次報道のみに絞りました。
1. 生成AIの情報漏洩リスク4類型
生成AI特有のリスクは大きく4つに分かれます。ガイドラインを作る前に、自社で何を守るのかを整理しておくとルールがブレません。
1-1. 入力(プロンプト)経由の漏洩
もっとも頻度が高いのが、業務情報を生成AIにそのまま入力してしまうパターンです。
- 顧客の個人情報を要約・翻訳のために貼り付ける
- 未公表の財務・人事・M&A情報をスライド草稿のために入力する
- ソースコード(社外秘ロジックや認証キーを含む)をデバッグのために入力する
- 取引先との契約書・NDA対象文書を要約させる
2023年4月、Samsung Electronicsの半導体部門で、社員がChatGPTに社内ソースコードや会議の書き起こしを入力した事案が報じられました(Bloomberg・Forbes等の一次報道)。Samsungは同年5月、社内デバイスでの生成AIサービス利用を一時禁止する方針を従業員へ通知したと報じられています。
1-2. 学習・モデル改善経由の漏洩
入力データが事業者側でモデル改善に使われる可能性です。一般論として、無料・個人プランでは学習に利用される可能性があり、法人・API・エンタープライズプランでは原則利用されないという設計が共通の傾向ですが、オプトアウトの有無や悪用検知用の一時保管など細部はサービスごとに異なります(次章で各社の条項を確認)。
1-3. 連携先・プラグイン経由の漏洩
生成AI単体ではなく、外部サービスとの連携で漏れるパターンです。
- カスタムGPTやAction機能で、外部APIに業務データが送られる
- ブラウザ拡張機能の「AIアシスタント」が業務画面を勝手にクラウドへ送る
- 議事録自動生成SaaSが会議音声を第三者の文字起こしAPIへ転送する
- 無料のPDF要約・画像生成サイトに社外秘資料をアップロードする
連携先のポリシーは見えにくく、無料サービスほど緩い傾向があります。ガイドラインでは利用可能ツールを列挙し、リスト外は禁止する「ホワイトリスト方式」が現実的です。
1-4. 人的・運用上のリスク
- 退職者のアカウントが残り、退職後も業務データへアクセスできる
- 共有アカウントの使い回しで誰が入力したか追跡できない
- 個人アカウントでログインし、業務データが個人のクラウドに残る
- 出力(ハルシネーション含む)を検証せず対外文書に使ってしまう
人的リスクは「教育」と「アカウント管理(SSO/IDP統合)」で抑えるのが基本です。
2. 主要サービスのデータ取り扱い:無料と法人プランの違い
各社のポリシーは頻繁に更新されます。以下は2026年5月時点の公式条項・プライバシーセンターでの記載を要約していますが、運用判断前に必ず最新の公式ページをご確認ください。
2-1. OpenAI ChatGPT / API
OpenAIのプライバシーポリシーおよびエンタープライズプライバシーポリシーによれば、扱いは次のように分かれています。
プラン | 入力データのモデル学習利用 | 保管期間の特徴 |
|---|---|---|
ChatGPT Free / Plus(個人) | 既定で学習に利用される可能性あり。設定でオフ可能(Data Controls) | Chat履歴は既定で保持。30日の一時保持(不正使用検知)あり |
ChatGPT Team | 既定で学習に利用されない | 管理者が保持期間設定可 |
ChatGPT Enterprise / Edu | 学習に利用されない(契約上明記) | SOC 2 Type 2準拠、SAML SSO、保持期間カスタム可 |
OpenAI API(標準) | 学習に利用されない(API入出力) | 悪用検知のため最大30日保持、その後削除(Zero Data Retention契約で短縮可) |
「個人プランは設定でオフにすれば学習されない」というのは正しいですが、設定変更は社員任せになるため、業務利用で個人プランを許可するのはリスクが高い構成です。法人ではTeam以上、または社内システム連携であればAPI経由が標準です。
2-2. Anthropic Claude
Anthropicのプライバシーポリシーおよび商用サービス規約によれば、Claudeは次のような扱いになります。
プラン | 入力データのモデル学習利用 | 備考 |
|---|---|---|
Claude Free / Pro / Max(個人) | 2025年10月8日以降、既定で学習に利用される(オプトアウト可。プライバシー設定からオフにすればモデル改善には使われない) | オプトイン時は最大5年保持。オプトアウト時は従来どおり30日保持 |
Claude Team / Enterprise | 学習に利用されない(商用サービス規約) | SSO、監査ログ、データ保持ポリシーカスタム |
Anthropic API / Bedrock等 | 学習に利用されない | 悪用検知のため一定期間保持(条項参照) |
注意:Anthropicは2025年8月にコンシューマー利用規約を改定し、2025年10月8日以降、Claude Free / Pro / Maxの会話・コーディングセッションは既定でモデル改善に利用される設定になりました。個人プランで業務情報を扱う運用は、必ずプライバシー設定で学習利用をオフ(オプトアウト)にするか、Team / Enterprise / API(既定で学習に利用されない)への移行を前提に設計してください。法人利用では「会話ログの管理者集中管理」「SSOでのアクセス制御」のためにもTeam以上が現実解です。
2-3. Microsoft 365 Copilot
Microsoftの公式ドキュメント「Data, Privacy, and Security for Microsoft 365 Copilot」によれば、Microsoft 365 Copilotは以下のように設計されています。
- テナント内のユーザーデータ(メール・Teams・SharePoint・OneDrive等)を活用するが、入力・出力ともに基盤モデルの学習には使用されない
- データはMicrosoft 365テナントの「サービス境界」内で処理される
- ユーザーが既存の権限で見られる情報のみを参照する(権限のオーバーシュートはしない)
- EU Data Boundaryなど地域データ要件に準拠
Copilot for Microsoft 365は、既存のMicrosoft 365のセキュリティ・コンプライアンス基盤(Purview、Entra ID、Sensitivity Label等)を継承するのが大きな利点です。一方、別系統の「Copilot(旧Bing Chat)無料版」は学習・データ取り扱いポリシーが異なるため、業務での扱いを混同しないよう要注意です。
2-4. Google Gemini for Workspace
Googleの公式ヘルプ「Gemini for Google Workspace and your data」によれば、Gemini for Workspace(有料・組織アカウント)は以下のとおりです。
- Workspaceデータ(Gmail、Drive、Docs等)に対するプロンプト・応答は、基盤モデルの学習に使用されない
- テナント内の既存アクセス権限を尊重する
- データはGoogle Cloudのエンタープライズ・グレードのセキュリティ境界内で処理
一方、個人Googleアカウントで使うGemini(旧Bard)アプリは、既定では人間のレビュアーが会話を確認・モデル改善に利用する場合があり、業務利用には不向きです。「組織アカウントのGeminiか、個人アカウントのGeminiか」は、URLとアイコン表示が似ていて混同しやすいので要注意です。
2-5. プラン選定の実務的なまとめ
細かい違いはあるものの、業務利用で押さえるべき大原則は次の3つです。
- 個人プラン・無料プランは原則NG。設定変更が社員任せになり、ガバナンスが効かない。
- 法人・エンタープライズプランは「学習に使われない」が標準仕様。SSO・監査ログ・保持期間設定とセットで導入する。
- API経由・Microsoft 365 Copilot・Gemini for Workspaceは、自社テナントのセキュリティ境界内で処理される設計。社内ナレッジを安全に扱うならこの方向に寄せる。
導入計画の全体像は中小企業の生成AI導入ガイドでも整理しています。あわせてご覧ください。
3. 社内ガイドライン雛形(コピーして使える10項目)
長いガイドラインは読まれません。Mihataがクライアントに提案するときの雛形は、A4で1〜2ページに収まる10項目構成です。下記をベースに、自社の実態に合わせて削ったり追加してください。
第1条(目的)
本ガイドラインは、当社における生成AIサービスの業務利用にあたり、情報漏洩・個人情報保護・知的財産・著作権に関するリスクを低減し、安全かつ効果的な活用を推進することを目的とする。
第2条(適用範囲)
本ガイドラインは、当社の役員および全従業員(業務委託・派遣を含む)が、業務目的で生成AIサービスを利用するすべての場面に適用する。
第3条(利用可能サービス・ホワイトリスト方式)
業務利用が可能な生成AIサービスは、別表「利用可能ツール一覧」に列挙したもののみとする。一覧外のサービスを業務目的で利用する場合は、事前に情報システム部門の承認を得ること。
第4条(入力禁止情報)
以下の情報は、生成AIサービスへの入力(コピー&ペースト・ファイルアップロード・スクリーンショットを含む)を禁止する。
- 個人情報(個人情報の保護に関する法律 第2条)に該当する情報
- マイナンバー(行政手続における特定の個人を識別するための番号の利用等に関する法律)
- 営業秘密(不正競争防止法 第2条第6項)に該当する情報
- 顧客・取引先の機密情報(NDA対象を含む)
- 未公表の財務・人事・M&A情報
- 認証情報(パスワード、APIキー、トークン)
- ソースコードのうち、社外秘ロジック・認証情報を含む箇所
第5条(アカウント管理)
業務利用は、会社が発行した法人アカウント(SSO連携済み)でのみ行う。個人アカウントによる業務利用、および会社アカウントの個人利用を禁止する。退職・異動時には、情報システム部門が速やかにアカウントを停止する。
第6条(出力結果の検証義務)
生成AIの出力をそのまま社外文書・公開コンテンツ・意思決定根拠として用いてはならない。事実関係(数値・固有名詞・法令・引用文献)は、利用者自身が一次情報で確認した上で利用する。
第7条(著作権・知財への配慮)
第三者の著作物を入力する場合は、引用要件(出所の明示、必要最小限)を満たすこと。生成された画像・コード・文章を利用するときは、各サービスの利用規約および当社の知財ポリシーを遵守する。
第8条(ログ・監査)
会社は、業務利用の生成AIサービスに関するアクセスログ・操作ログを取得・保管することがある。利用者はこれに同意するものとする。
第9条(教育・周知)
新規入社者および年1回以上、全従業員に対し、本ガイドラインおよび関連リスクに関する研修を実施する。