近年のビジネスシーンにおいて、生成AIはさまざまな用途で活用されています。
しかしその一方で、情報漏えいのリスクに不安を感じる企業も増えてきました。
機密情報を扱う企業では、自社のセキュリティルールとAIツールの仕組みが合っているかをきちんと確認することが大切です。
また、Copilot、ChatGPT、Google Geminiなど、国内の主要AIツールには、それぞれ特徴や使い方に違いがあります。
適切な対策を取らずに使うと、思わぬ形で重要なデータが漏れてしまうおそれもあるのです。
この記事では、AIによる情報漏えいの原因とその対策、そして主要な生成AIツールごとの漏えいリスクも解説します。
生成AIによる情報漏えいとは
まずは、なぜ生成AIによって情報漏えいが起こるのか、従来の情報漏えいとの違いを解説します。
なぜ生成AIが情報漏えいの原因になるのか
生成AIは、ユーザーが入力したデータを学習・記録・共有する可能性があり、これが情報漏えいの根本的な要因です。
CopilotやChatGTPなどのクラウド型生成AIは、入力した内容が外部サーバーで処理される仕組みです。
そのため、機密情報や個人情報を入力してしまうと、知らないうちにそのデータが社外に流出する危険をはらんでいます。
たとえば、入力内容がAIの学習に利用される設定になっている場合、顧客情報や社内文書をそのまま入力すると、その情報が他のユーザーへの応答に使われてしまう可能性があります。
生成AIは便利である反面、情報の取り扱いに対する理解と注意がこれまで以上に求められます。
従来の情報漏えいとの違いとは
生成AIによる情報漏えいの一番の怖さは、「気づかないうちに漏れている」という点です。
これまでの情報漏えいはファイルの誤送信や、間違って外部にデータを転送するなど、明確な操作ミスが原因になることが多くありました。
しかし生成AIの場合は、日常的な質問や文章作成のために入力した内容が、そのまま情報漏えいの原因になり得ます。
たとえば「この文章を要約して」とAIにお願いするだけでも、内容によっては機密情報が外部に送られてしまう可能性があるのです。
ユーザー本人の自覚がないまま、情報がAI側に取り込まれてしまうのが従来の漏えいと大きな違いです。
>>情報漏えいを防ぐには?リモートワーク時代の必須セキュリティ対策7つ
生成AIによる情報漏えいの事例
生成AIによる情報漏えいは、過去に何度も起こっています。ここでは、情報漏えい事例を2つ紹介します。
ChatGPTで個人情報漏えいが発生
2023年3月、OpenAI社は、有料版「ChatGPT Plus」の一部ユーザーの情報が外部から見られる状態になっていたことを発表しました。
名前やメールアドレス、クレジットカードの一部情報などが、約10時間にわたって他のユーザーにも見えていたのです。
原因は、ChatGPTが使用していたオープンソースライブラリのバグにありました。
OpenAI社はこの不具合を修正し、リスクは収束したとしていますが、一度漏れた情報は取り戻せません。
このように、システムのバグや予期しない動きによって、ユーザーが意図しなくても情報が漏れてしまうリスクもあります。
サムスン社内でソースコードが流出
2023年、大手企業サムスンでも、生成AIをめぐる情報漏えいが問題になりました。
これは、社内のエンジニアが開発中のソースコードをChatGPTに入力したところ、その内容が外部に漏れてしまったおそれがあるというケースです。
業務で使った情報がクラウドに残り、他のユーザーに見られてしまうリスクが生じたことが問題視されました。
これをきっかけに、サムスンはChatGPTなど生成AIの社内利用を全面的に禁止する方針を打ち出しました。
日常業務の中で何気なく入力した内容が、大きな情報漏えいにつながってしまうという、生成AIならではの事例といえます。
なぜ起こる?生成AIによる情報漏えいの主な原因
生成AIによって引き起こされる情報漏えいの主な原因は、以下の4つです。
- プロンプト経由での個人情報や機密情報の出力
- 学習データへの不正アクセス
- バグや設定ミス
- 教育不足による従業員の誤操作
では、詳しく解説していきます。
プロンプト経由での個人情報や機密情報の出力
生成AIは、ユーザーが入力した内容を学習データとして蓄積しています。
蓄積されたデータは、別ユーザーへの応答に利用される可能性があり、知らないうちに大切な情報が共有されてしまうことがあります。
一見便利に見えるプロンプト入力ですが、AIの学習に使われるリスクがあることを念頭におきましょう。
学習データへの不正アクセス
生成AIが取り込んだデータは、インターネット上のサーバーに保管されることが多いです。
そこに不正アクセスがあると、情報が外部に漏れてしまうおそれがあります。
社内の機密や顧客情報などが、悪意のある第三者に盗まれてしまうと、大きなトラブルへと発展します。
企業向けの生成AIは、データ管理や意図しない学習・共有を防ぐ仕組みが強化されていますが、100%安全とは限りません。
「AIに入力した情報がどこかに残るかもしれない」という意識を持って使うことが大切です。
バグや設定ミス
生成AIは、まだ発展途中の技術です。
システムにバグがあったり、設定にミスがあったりすると、本来見せるつもりのなかった情報が出てしまうことがあります。
また、ユーザー側で設定を間違えたり、誤った使い方をしてしまった場合も、情報漏えいの原因になります。
生成AIを安心して使うためには、サービスの仕様や使い方をきちんと確認し、最新の注意喚起にも目を通すことが必要です。
教育不足による従業員の誤操作
従業員がAIの使い方やリスクを理解しないまま操作してしまうと、情報漏えいの原因になることがあります。
日本国内でも従業員の誤操作による情報漏えいは発生しており、場合によっては、企業の信用が失われたり、法的な責任を問われたりすることもあります。
生成AIを安心して活用するには、従業員に向けた継続的な教育と、正しい使い方を示すガイドラインの整備が欠かせません。
生成AIによる情報漏えいを防ぐ5つの対策
生成AIによる情報漏えいを防ぐために企業が取るべき対策は、以下の5つです。
- 個人情報や機密情報は入力しない
- 履歴を削除、学習設定の無効化
- AI利用のルールを定める
- 法人向けプランの利用
- セキュリティシステムの活用
では、詳しく解説していきます。
1:個人情報や機密情報は入力しない
生成AIは、入力されたデータを、学習や今後のサービス改善に活用する仕組みです。
この性質を理解せずに、顧客情報や社内の機密情報を入力すると、情報漏えいのリスクが極めて高くなります。
そのため、従業員には「入力してはいけない情報」をリスト化して共有し、プロンプトに機密を含めない運用ルールを徹底することが重要です。
2:履歴を削除、学習設定の無効化
多くの生成AIには、利用履歴が自動で保存される機能があります。
この履歴を放置すると、社外の第三者がアクセスするリスクが高まり、情報漏えいの原因となる可能性があります。
そこで、履歴をこまめに削除することが効果的な対策です。
Copilotでは、履歴一覧から削除したい会話を選び、ゴミ箱アイコンをクリックするだけで簡単に削除できます。
ChatGPTも履歴を残さない設定が可能です。
この機能を有効化することで、機密情報が含まれるプロンプトを入力しても、その内容が学習データに使われることを防げます。
こうした設定を活用し、情報漏えいを未然に防ぐことが大切です。
3:AI利用のルールを定める
生成AIを業務で使う場合は、情報保護の観点から「使っていい情報と使ってはいけない情報」のルールを定めることが必要です。
ルールが明確になっていないと、悪気なく機密情報を入力してしまい、重大な漏えいにつながりかねません。
実際の情報漏えい事例を参考にしながら研修や教育を行い、全社員にリスク意識を浸透させることが予防策となります。
4:法人向けプランの利用
生成AIの法人向けプランには、セキュリティ強化や管理機能の充実に加え、データが学習に利用されない、組織単位での利用管理、などがあり、機密性の高い業務に効果的です。
たとえば、「Copilot for Microsoft 365」では、Microsoft 365のセキュリティフレームワーク上で動作するため、ユーザーの入力内容がAIの学習に使われることはありません。
また、Teamsを使ったリアルタイム要約や共同編集など、利便性と安全性の両立が可能です。
一方、「ChatGPT Enterprise」は、入力データが学習に使われないことに加え、暗号化通信、アクセス制御、利用状況の可視化など、セキュリティ対策が徹底されています。
さらに、データの学習利用を無効化し、通信や保存時の暗号化、SSOや監査ログなど高度なセキュリティ管理機能を備えています
そのほか、Geminiでは「Gemini for Google Workspace」、Claudeでは「Claude Team/Enterprise」と、各AIが法人向けプランを提供しています。
5:セキュリティシステムの活用
生成AIからの情報漏えいを防ぐためには、セキュリティシステムや対策ツールの活用が欠かせません。
近年では、生成AIの利用に特化した機能を備えたものが増えています。
たとえば、以下のような機能を持つ製品があります。
- プロンプト入力時に機密情報を自動で検知・ブロック
- ログイン時に社内ルールを通知するポップアップ表示
- 管理者が入力内容をリアルタイムでモニタリングできるダッシュボード
こうしたツールを活用すれば、ヒューマンエラーによる情報漏えいリスクを大幅に軽減できます。
さらに、ブラウザ版のCopilotを使う場合は、DLP(データ損失防止)設定やウイルス対策ソフトの導入も必須です。
DLPによって送信データの監視・制御が可能になり、不正アクセスや意図しない社外送信のリスクを抑えることができます。
Copilot・ChatGTP・Gemini、主要生成AIごとの情報漏えいリスク
日本で広く使われている生成AIには、Microsoftの「Copilot」やOpenAIの「ChatGPT」、Googleの「Gemini」などがあります。
これらは設計や運用方針、学習データの扱い方がそれぞれ異なるため、情報漏えいのリスクもAIごとに違います。
そのため、これまでに説明した4つの原因に加え、利用するAIの特徴に合わせたリスク管理も重要です。
ここでは、代表的な生成AIごとに起こり得る情報漏えいのリスクについて解説します。
Copilot(Microsoft 365)
Microsoft 365 Copilotを利用する際の最大のリスクは、情報保護ツールと連携しないことで機密情報が漏れてしまう点です。
とくに、「Microsoft Purview」の秘密度ラベルや暗号化機能を使わない場合、Copilotはセンシティブな情報を通常のデータと区別せずに扱ってしまいます。
そのため、重要な機密情報が誤って文書やチャットの応答として外部に出力される危険性が高まります。
Copilotの情報漏えいリスクを抑えるには、Microsoft Purviewなどの情報保護機能と連携が不可欠といえます。
>>Microsoft Purviewとは?データセキュリティを支える3つの柱と導入メリット
ChatGPT(OpenAI)
ChatGPTの無料版や個人向け有料版では、入力した内容がAIの学習データとして使われるリスクがあるため業務利用には向いていません。
実際にOpenAIも利用規約でも、機密情報や個人情報を入力しないよう明記されており、情報の取り扱いには十分な注意が求められます。
一方、ChatGPTのエンタープライズ版(またはTeam板)では、学習の無効化やログ管理、権限設定が可能で、セキュリティ面が強化されています。
社外秘情報や顧客データを扱う場合は、ビジネス向けプランの導入が推奨されます。
Google Gemini
Google Geminiは、Googleアカウントとの連携やクラウド上でのデータ管理が特徴です。
しかし、この利便性の高さが、情報漏えいのリスクを高める要因になります。
とくに注意すべきなのは、個人のGoogleアカウントと社内アカウントとの境界が曖昧になりやすい点です。
たとえば、従業員が誤って個人アカウントで業務データを扱うと、そのデータが企業の管理外に出てしまい、アクセス制御が効かなくなることも考えられます。
Google Geminiを業務で活用する際には、アカウントの厳格な管理とクラウド設定の見直しが不可欠です。
Claude AI(Anthropic)など
Claude AIをはじめとする海外製AIツールでは、「データ使用許諾」が利用規約に含まれていることが多く、情報漏えいのリスクが高いです。
海外製AIツールはグローバルな基準で設計されているため、データの利用方法や保存先が日本の法規則と異なる場合があります。
そのため、重要な機密情報や個人情報を入力すると、意図せず第三者に利用されたり海外に送信されたりするリスクが潜んでいます。
利用前に規約の内容を細かく確認し、自社のセキュリティポリシーと照らし合わせたリスク評価が不可欠です。
まとめ
生成AIは業務の効率化や情報整理において強力なツールですが、同時に情報漏えいリスクにも十分な注意が必要です。
とくに、個人情報や機密情報を取り扱う企業では、利用ツールの選定や社内ルールの整備が不可欠です。
機密情報を入力しない、履歴や学習設定を適切に管理する、法人向けプランを活用するといった基本的な対策を徹底することで、情報漏えいのリスクを大きく軽減できます。
さらに、Copilot、ChatGPT、Geminiなどの生成AIは、それぞれ異なるリスクとセキュリティ仕様を持っており、導入前にはデータの取り扱いやアカウント管理体制をしっかり確認することが求められます。
組織全体でセキュリティ意識を高め、継続的に見直しと改善を行うことが、安全かつ効果的なAI活用の鍵といえるでしょう。