株式会社アイネットテクノロジーズ

AIによる情報漏えいの原因と対策!CopilotやChatGTP、主要AIごとのリスクも解説

近年のビジネスシーンにおいて、生成AIはさまざまな用途で活用されています。

しかしその一方で、情報漏えいのリスクに不安を感じる企業も増えてきました。

機密情報を扱う企業では、自社のセキュリティルールとAIツールの仕組みが合っているかをきちんと確認することが大切です。

また、Copilot、ChatGPT、Google Geminiなど、国内の主要AIツールには、それぞれ特徴や使い方に違いがあります。

適切な対策を取らずに使うと、思わぬ形で重要なデータが漏れてしまうおそれもあるのです。

この記事では、AIによる情報漏えいの原因とその対策、そして主要な生成AIツールごとの漏えいリスクも解説します。

生成AIによる情報漏えいとは

まずは、なぜ生成AIによって情報漏えいが起こるのか、従来の情報漏えいとの違いを解説します。

なぜ生成AIが情報漏えいの原因になるのか

生成AIは、ユーザーが入力したデータを学習・記録・共有する可能性があり、これが情報漏えいの根本的な要因です。

CopilotやChatGTPなどのクラウド型生成AIは、入力した内容が外部サーバーで処理される仕組みです。

そのため、機密情報や個人情報を入力してしまうと、知らないうちにそのデータが社外に流出する危険をはらんでいます。

たとえば、入力内容がAIの学習に利用される設定になっている場合、顧客情報や社内文書をそのまま入力すると、その情報が他のユーザーへの応答に使われてしまう可能性があります。

生成AIは便利である反面、情報の取り扱いに対する理解と注意がこれまで以上に求められます。

従来の情報漏えいとの違いとは

生成AIによる情報漏えいの一番の怖さは、「気づかないうちに漏れている」という点です。

これまでの情報漏えいはファイルの誤送信や、間違って外部にデータを転送するなど、明確な操作ミスが原因になることが多くありました。

しかし生成AIの場合は、日常的な質問や文章作成のために入力した内容が、そのまま情報漏えいの原因になり得ます。

たとえば「この文章を要約して」とAIにお願いするだけでも、内容によっては機密情報が外部に送られてしまう可能性があるのです。

ユーザー本人の自覚がないまま、情報がAI側に取り込まれてしまうのが従来の漏えいと大きな違いです。

>>情報漏えいを防ぐには?リモートワーク時代の必須セキュリティ対策7つ

生成AIによる情報漏えいの事例

生成AIによる情報漏えいは、過去に何度も起こっています。ここでは、情報漏えい事例を2つ紹介します。

ChatGPTで個人情報漏えいが発生

2023年3月、OpenAI社は、有料版「ChatGPT Plus」の一部ユーザーの情報が外部から見られる状態になっていたことを発表しました。

名前やメールアドレス、クレジットカードの一部情報などが、約10時間にわたって他のユーザーにも見えていたのです。

原因は、ChatGPTが使用していたオープンソースライブラリのバグにありました。

OpenAI社はこの不具合を修正し、リスクは収束したとしていますが、一度漏れた情報は取り戻せません。

このように、システムのバグや予期しない動きによって、ユーザーが意図しなくても情報が漏れてしまうリスクもあります。

サムスン社内でソースコードが流出

2023年、大手企業サムスンでも、生成AIをめぐる情報漏えいが問題になりました。

これは、社内のエンジニアが開発中のソースコードをChatGPTに入力したところ、その内容が外部に漏れてしまったおそれがあるというケースです。

業務で使った情報がクラウドに残り、他のユーザーに見られてしまうリスクが生じたことが問題視されました。

これをきっかけに、サムスンはChatGPTなど生成AIの社内利用を全面的に禁止する方針を打ち出しました。

日常業務の中で何気なく入力した内容が、大きな情報漏えいにつながってしまうという、生成AIならではの事例といえます。

なぜ起こる?生成AIによる情報漏えいの主な原因

生成AIによって引き起こされる情報漏えいの主な原因は、以下の4つです。

  • プロンプト経由での個人情報や機密情報の出力
  • 学習データへの不正アクセス
  • バグや設定ミス
  • 教育不足による従業員の誤操作

では、詳しく解説していきます。

プロンプト経由での個人情報や機密情報の出力

生成AIは、ユーザーが入力した内容を学習データとして蓄積しています。

蓄積されたデータは、別ユーザーへの応答に利用される可能性があり、知らないうちに大切な情報が共有されてしまうことがあります。

一見便利に見えるプロンプト入力ですが、AIの学習に使われるリスクがあることを念頭におきましょう。

学習データへの不正アクセス

生成AIが取り込んだデータは、インターネット上のサーバーに保管されることが多いです。

そこに不正アクセスがあると、情報が外部に漏れてしまうおそれがあります。

社内の機密や顧客情報などが、悪意のある第三者に盗まれてしまうと、大きなトラブルへと発展します。

企業向けの生成AIは、データ管理や意図しない学習・共有を防ぐ仕組みが強化されていますが、100%安全とは限りません。

「AIに入力した情報がどこかに残るかもしれない」という意識を持って使うことが大切です。

バグや設定ミス

生成AIは、まだ発展途中の技術です。

システムにバグがあったり、設定にミスがあったりすると、本来見せるつもりのなかった情報が出てしまうことがあります。

また、ユーザー側で設定を間違えたり、誤った使い方をしてしまった場合も、情報漏えいの原因になります。

生成AIを安心して使うためには、サービスの仕様や使い方をきちんと確認し、最新の注意喚起にも目を通すことが必要です。

教育不足による従業員の誤操作

従業員がAIの使い方やリスクを理解しないまま操作してしまうと、情報漏えいの原因になることがあります。

日本国内でも従業員の誤操作による情報漏えいは発生しており、場合によっては、企業の信用が失われたり、法的な責任を問われたりすることもあります。

生成AIを安心して活用するには、従業員に向けた継続的な教育と、正しい使い方を示すガイドラインの整備が欠かせません。

生成AIによる情報漏えいを防ぐ5つの対策

生成AIによる情報漏えいを防ぐために企業が取るべき対策は、以下の5つです。

  • 個人情報や機密情報は入力しない
  • 履歴を削除、学習設定の無効化
  • AI利用のルールを定める
  • 法人向けプランの利用
  • セキュリティシステムの活用

では、詳しく解説していきます。

1:個人情報や機密情報は入力しない

生成AIは、入力されたデータを、学習や今後のサービス改善に活用する仕組みです。

この性質を理解せずに、顧客情報や社内の機密情報を入力すると、情報漏えいのリスクが極めて高くなります。

そのため、従業員には「入力してはいけない情報」をリスト化して共有し、プロンプトに機密を含めない運用ルールを徹底することが重要です。

2:履歴を削除、学習設定の無効化

多くの生成AIには、利用履歴が自動で保存される機能があります。

この履歴を放置すると、社外の第三者がアクセスするリスクが高まり、情報漏えいの原因となる可能性があります。

そこで、履歴をこまめに削除することが効果的な対策です。

Copilotでは、履歴一覧から削除したい会話を選び、ゴミ箱アイコンをクリックするだけで簡単に削除できます。

ChatGPTも履歴を残さない設定が可能です。

この機能を有効化することで、機密情報が含まれるプロンプトを入力しても、その内容が学習データに使われることを防げます。

こうした設定を活用し、情報漏えいを未然に防ぐことが大切です。

3:AI利用のルールを定める

生成AIを業務で使う場合は、情報保護の観点から「使っていい情報と使ってはいけない情報」のルールを定めることが必要です。

ルールが明確になっていないと、悪気なく機密情報を入力してしまい、重大な漏えいにつながりかねません。

実際の情報漏えい事例を参考にしながら研修や教育を行い、全社員にリスク意識を浸透させることが予防策となります。

4:法人向けプランの利用

生成AIの法人向けプランには、セキュリティ強化や管理機能の充実に加え、データが学習に利用されない、組織単位での利用管理、などがあり、機密性の高い業務に効果的です。

たとえば、「Copilot for Microsoft 365」では、Microsoft 365のセキュリティフレームワーク上で動作するため、ユーザーの入力内容がAIの学習に使われることはありません。

また、Teamsを使ったリアルタイム要約や共同編集など、利便性と安全性の両立が可能です。

一方、「ChatGPT Enterprise」は、入力データが学習に使われないことに加え、暗号化通信、アクセス制御、利用状況の可視化など、セキュリティ対策が徹底されています。

さらに、データの学習利用を無効化し、通信や保存時の暗号化、SSOや監査ログなど高度なセキュリティ管理機能を備えています

そのほか、Geminiでは「Gemini for Google Workspace」、Claudeでは「Claude Team/Enterprise」と、各AIが法人向けプランを提供しています。

5:セキュリティシステムの活用

生成AIからの情報漏えいを防ぐためには、セキュリティシステムや対策ツールの活用が欠かせません。

近年では、生成AIの利用に特化した機能を備えたものが増えています。

たとえば、以下のような機能を持つ製品があります。

  • プロンプト入力時に機密情報を自動で検知・ブロック
  • ログイン時に社内ルールを通知するポップアップ表示
  • 管理者が入力内容をリアルタイムでモニタリングできるダッシュボード

こうしたツールを活用すれば、ヒューマンエラーによる情報漏えいリスクを大幅に軽減できます。

さらに、ブラウザ版のCopilotを使う場合は、DLP(データ損失防止)設定やウイルス対策ソフトの導入も必須です。

DLPによって送信データの監視・制御が可能になり、不正アクセスや意図しない社外送信のリスクを抑えることができます。

Copilot・ChatGTP・Gemini、主要生成AIごとの情報漏えいリスク

日本で広く使われている生成AIには、Microsoftの「Copilot」やOpenAIの「ChatGPT」、Googleの「Gemini」などがあります。

これらは設計や運用方針、学習データの扱い方がそれぞれ異なるため、情報漏えいのリスクもAIごとに違います。

そのため、これまでに説明した4つの原因に加え、利用するAIの特徴に合わせたリスク管理も重要です。

ここでは、代表的な生成AIごとに起こり得る情報漏えいのリスクについて解説します。

Copilot(Microsoft 365)

Microsoft 365 Copilotを利用する際の最大のリスクは、情報保護ツールと連携しないことで機密情報が漏れてしまう点です。

とくに、「Microsoft Purview」の秘密度ラベルや暗号化機能を使わない場合、Copilotはセンシティブな情報を通常のデータと区別せずに扱ってしまいます。

そのため、重要な機密情報が誤って文書やチャットの応答として外部に出力される危険性が高まります。

Copilotの情報漏えいリスクを抑えるには、Microsoft Purviewなどの情報保護機能と連携が不可欠といえます。

>>Microsoft Purviewとは?データセキュリティを支える3つの柱と導入メリット

ChatGPT(OpenAI)

ChatGPTの無料版や個人向け有料版では、入力した内容がAIの学習データとして使われるリスクがあるため業務利用には向いていません。

実際にOpenAIも利用規約でも、機密情報や個人情報を入力しないよう明記されており、情報の取り扱いには十分な注意が求められます。

一方、ChatGPTのエンタープライズ版(またはTeam板)では、学習の無効化やログ管理、権限設定が可能で、セキュリティ面が強化されています。

社外秘情報や顧客データを扱う場合は、ビジネス向けプランの導入が推奨されます。

Google Gemini

Google Geminiは、Googleアカウントとの連携やクラウド上でのデータ管理が特徴です。

しかし、この利便性の高さが、情報漏えいのリスクを高める要因になります。

とくに注意すべきなのは、個人のGoogleアカウントと社内アカウントとの境界が曖昧になりやすい点です。

たとえば、従業員が誤って個人アカウントで業務データを扱うと、そのデータが企業の管理外に出てしまい、アクセス制御が効かなくなることも考えられます。

Google Geminiを業務で活用する際には、アカウントの厳格な管理とクラウド設定の見直しが不可欠です。

Claude AI(Anthropic)など

Claude AIをはじめとする海外製AIツールでは、「データ使用許諾」が利用規約に含まれていることが多く、情報漏えいのリスクが高いです。

海外製AIツールはグローバルな基準で設計されているため、データの利用方法や保存先が日本の法規則と異なる場合があります。

そのため、重要な機密情報や個人情報を入力すると、意図せず第三者に利用されたり海外に送信されたりするリスクが潜んでいます。

利用前に規約の内容を細かく確認し、自社のセキュリティポリシーと照らし合わせたリスク評価が不可欠です。

まとめ

生成AIは業務の効率化や情報整理において強力なツールですが、同時に情報漏えいリスクにも十分な注意が必要です。

とくに、個人情報や機密情報を取り扱う企業では、利用ツールの選定や社内ルールの整備が不可欠です。

機密情報を入力しない、履歴や学習設定を適切に管理する、法人向けプランを活用するといった基本的な対策を徹底することで、情報漏えいのリスクを大きく軽減できます。

さらに、Copilot、ChatGPT、Geminiなどの生成AIは、それぞれ異なるリスクとセキュリティ仕様を持っており、導入前にはデータの取り扱いやアカウント管理体制をしっかり確認することが求められます。

組織全体でセキュリティ意識を高め、継続的に見直しと改善を行うことが、安全かつ効果的なAI活用の鍵といえるでしょう。

アイネットテクノロジーズ
INET-TECHNOLOGY'S

当社はゼロトラストネットワークを基本に、標的型攻撃訓練から内部不正検知をコンサルティングから導入、SOC、サポートまでワンストップでご提供します。

当社はゼロトラストネットワークを基本に、標的型攻撃訓練から内部不正検知をコンサルティングから導入、SOC、サポートまでワンストップでご提供します。

関連記事

Copilot の利用要件が大幅に緩和されました

皆さん、こんにちは。 アイネットテクノロジーズ 上口裕樹です。 皆様は普段、生成AIをどの程度業務で利用していますか? 生成AIというキーワードそのものはそれなりに知られていると思いますが、本格的な普及はまだまだではないでしょうか。 そんな生成AIですが、2024年は飛躍の1年になるのではという声が世界中から聞こえてきています。 現在、生成AI は大きく、ChatGPT/OpenAI , Copilot/Microsoft , Google Bard/Google の 3つが主に注目されていますが、 今回はタイトルにある通り、Copilot 利用要件緩和についてお話したいと思いますが、そもそも Copilot とはなんでしょうか? Copilot とは、要約すると Microsoft が提供している人工知能型チャットサービスです。 当社でもCopilot 導入しているため実際に聞いてみました。 解説は上記の通りですが、最近大きな発表がありました。それが、利用要件の大幅な緩和です。 ご存じの方も多いかとは思いますが、これまで商用版の Copilot 利用には Microsoft 365 E3 or E5 / 300ライセンス 以上の保有が必要でした。 Copilot の 価格は現在、約¥3,750 ユーザー/月(年間契約)なので、300ライセンス分を購入するとなると結構な費用になるかと思います。 Copilot for Microsoft 365についてはこちら https://www.microsoft.com/ja-jp/microsoft-365/business/copilot-for-microsoft-365#Pricing なんと、この最低購入数が、1ユーザーから購入可能に変更となりました! また、Office 365 E3 or E5 保有でも利用可能になったということで、Microsoft 365 E3 以上の保有が必須ではなくなりました。 Copilot は 注目度は高かったものの、購入要件が厳しいと批判的な声があがっていたため、要望に応じて要件を緩和したのでは?と推察されています。 この発表を受けて当社も導入に踏み切りました!! 現在、M365 Apps との統合機能や Microsoft 365 Chat など、実証実験中です。 こちらについても少し情報がまとまったら、改めて情報発信したいと思います。 Copilot 導入検討されている方や、ご興味をお持ちの方、是非一度ご連絡ください。 株式会社アイネットテクノロジーズ info@inet-tech.jp

「Bing Chat」が「Copilot」へリブランディングされました

皆さん、こんにちは。 アイネットテクノロジーズ 中山です。   日々の業務や、日常生活で調べ物をする際、Bing Chatを利用したことはありますか? Microsoftはこれまで「Bing Chat」および企業向けに「Bing Chat Enterprise」の呼称で提供してきたAIサービスを、「Copilot」という名にリブランディングし、AIサービス全体が「Microsoft Copilot」に統一されました。 これによりChromeやSafariなど、あらゆるWebブラウザからCopilotが利用可能になり、モバイルアプリもまもなく登場するとのことです。   今回はMicrosoft 365 Copilotについてご紹介したいと思います。   Microsoft 365 Copilot(コパイロット)とは?   Microsoft 365 Copilotは、OpenAIのGPT-4をベースにした大規模言語モデル(LLM:Large Language Model)をTeams、Word、Excel、PowerPoint、Outlookなどの各Officeアプリケーションに組み込み、次世代 AI の力を活かしてユーザーの多様な要求に応えるデジタル アシスタントです。これにより組織内のチームやメンバーの生産性向上や業務効率化を改善するためのツールとなります。また、Microsoftのセキュリティ体制に基づいて、データ保護に万全を期しています。自社のデータをしっかりと守り、情報漏えいのリスクを軽減することができます。   ここでMicrosoft 365 CopilotとOfficeアプリの間でどのように利用ができるのか、具体的にご紹介したいと思います。     Word 最初にプロンプトを入力することでCopilot が新しいコンテンツの下書きを作成してくれます。これにより、白紙の状態から悩むことがなく、時間の節約ができます。また、Copilotへ簡単な指示を出すだけでテキストを表化、要約、概要の作成 等様々な作業をサポートし、ドキュメント作成の効率を向上させることができます。   Excel テーブル化されたデータが入ったExcelファイルを開いたときには、Copilotにそのデータの分析を指示することができます。例えば「売上のデータから読み取ることができる傾向は何か」と尋ねることで、それを分析した結果からグラフや表を作成してくれます。 また、関数の作成をCopilotにお願いすることもできます。これらの機能により、Excelでのデータ分析や集計の効率を向上させることができます。ただし、現時点では英語のみの対応となっていますが、今後日本語でのプロンプトに対応予定です。   PowerPoint 簡単なプロンプトを入力することで先週 または 去年作成したドキュメントから関連するコンテンツを追加し、美しいプレゼンテーションを短時間で作成できます。また、Microsoft 365 アプリケーション内のデータと連携して傾向を分析し、複雑な情報をチャート、グラフ、ダッシュボードを通じて最適な設計アイデアを作成することができます。   Outlook Copilotを使用すると、より良いメールを迅速かつ簡単に作成するのを支援し、受信者に適切に伝わるようにサポートしてくれます。また、Outlook上から各商談・案件と連携し、商談管理のサポートや、長いメールスレッドについて情報を迅速に把握し、内容を要約してくれる強力なツールとなります。   Teams Teams会議でCopilotを使用すると、会議中にリアルタイムで、誰が何を言ったのか、どこで人々の意見が一致しているか、意見が相違しているのかなど、主要な議論のポイントを要約し、アクションアイテムを提案できます。 また、会議が終了した後でも、会議の [要約] タブを利用することで、議論した内容やどのような問題が解決されたのか 等の会議内容を把握できるようになり、会議やチャットの効率を向上させることができます。     Microsoft 365 Copilotの導入について Microsoft 356 Copilotを利用するには、「Microsoft 365 E3 or E5」「Business Standard」「Business Premium」のいずれかと「Microsoft 365 Copilot ライセンス」の両方が必要です。現時点ではMicrosoft 365 Copilot ライセンスは月額30ドル(約4,200円)で利用可能となっておりますが、Copilotの情報は常にUpdateされますため、最新情報をご確認いただければと思います。   AI活用の新時代は必ず来ます。ツールの利用だけでなく、ビジネス・組織・環境・人に対しそれぞれ準備が必要だと考えます。 まずはMicrosoft 365 E3 から始め、Copilot 生産性の革命へのステップを踏んでみてはいかがでしょうか? Microsoft 365の導入やプランの見直しをご検討する際は始め方・運用・体制づくりについて、ぜひ一度ご相談ください。   【お問い合わせはこちら】 info@inet-tech.jp

生成AIのセキュリティリスクとは?企業が取るべき6つの対策をわかりやすく解説

近年、生成AIは業務効率化やアイデア創出に欠かせないツールとなっています。 ソフトバンクグループも10億のAIエージェントを作って活用するとも発表していますよね。 しかし、その便利さの裏には情報漏えいや誤情報、著作権侵害といったセキュリティリスクが潜んでいることをご存じでしょうか。 本記事では、企業が生成AIを安全に活用するために押さえておきたいリスクの種類と対策、さらに導入時のガイドラインについて解説します。 安心してAIを活用するためのポイントを、ぜひ押さえてください。 生成AIにおけるセキュリティリスクとは 生成AIを業務に取り入れると多くの利点がありますが、一方で見落とされがちなセキュリティ上のリスクも存在します。 情報漏えいのリスク 生成AIに入力した情報は、意図せず外部に漏れるリスクがあります。 その理由は、生成AIはクラウド上で動作しているため、入力されたデータがサーバーに保存されたり、生成の学習に使われたりする可能性があるからです。 もし、未公開の製品情報や顧客リスト、経営戦略などの機密情報を入力すると、その情報が第三者に再現されたり、外部へ流出したりする危険があります。 実際に、生成AIに入力した情報が漏えいしてしまった事例があります。 これは、2023年に韓国のテクノロジー企業・サムスンに務めるエンジニアが、開発中のコードをAIに入力してしまい、そこから情報漏えいした可能性があるという事件です。 「自分しか見ていないから大丈夫」と考えず、常に情報が外部に渡るリスクを意識しましょう。 生成AIによる情報漏えいの事例は、以下の記事で詳しく紹介しています。 >>AIによる情報漏えいの原因と対策!CopilotやChatGTP、主要AIごとのリスクも解説 誤情報(ハルシネーション)による業務トラブル 一見すると正確に見える生成AIが作成した文章ですが、必ずしも事実に基づいているとは限りません。 生成AIの回答はインターネット上にある膨大な情報をもとに生成されますが、その中には、裏付けのないまま「それらしく」作られた誤情報が含まれることがあります。 これを「ハルシネーション」と呼びます。 たとえば、製品マニュアルや社内資料を生成AIだけで作成すると、誤情報が掲載されたり、手順ミスによって作業遅延が発生したりするおそれがあります。 このように、ハルシネーションによって「存在しない事実」「間違った情報」が盛り込まれると、業務トラブルへ発展するリスクが高まります。 業著作権・知的財産権のリスク 生成AIが作成したコンテンツには、知らないうちに著作権を侵害してしまうリスクがあります。 たとえば、有名なイラストや曲に似ていたり、意図せず再現されたりする場合があります。 最近では、ChatGTPの画像生成で「ジブリ風の画像」が作れると注目を集め、「法的に大丈夫なのか」「倫理観が問われる」と話題になりました。 生成AIは、WEB上にある大量の文章や画像、コードを学習します。 その学習データに著作権で保護された素材が含まれていると、結果が既存の作品と酷似することがあるのです。 実際、企業が生成AIで作成したコンテンツを業務利用したことで、損害賠償や信用低下につながったケースもあります。 対策としては、著作権フリーあるいは適法なデータのみで学習した生成AIを選ぶこと、利用規約・ライセンスの確認すること、そして人によるチェックや専門家のレビューを行うなどの仕組みを導入することが重要です。 サイバー攻撃のリスク 生成AIの進化により、フィッシング詐欺などのサイバー攻撃がより巧妙化しています。 従来のフィッシングメールは、不自然な日本語や怪しい文面から詐欺であると見破られることが多くありました。 しかし、生成AIを使えば、誰でも簡単に自然で信頼性の高い文章を作成できます。 昨今では、AmazonやApple、クレジットカード会社などの有名ブランドを装った「なりすましメール」が急増しており、利用者の心理的な隙を突いて情報を盗み出そうとします。 さらに、攻撃者が日本語を話せなくても、生成AIを使えば高品質な詐欺メールを大量に作成できるため、個人情報や社内アカウントが狙われるリスクは一層高まっています。 企業が取るべき6つの生成AIセキュリティ対策 生成AIを安全に運用するためには、具体的な対策が不可欠です。 ただし、ここで紹介する6つのセキュリティ対策は、それ単体では十分な効果を得られません。 複数を組み合わせる、または6つすべてを取り入れることで、情報資産を守るバリケードとなります。 1.ガイドラインの策定 生成AIを安全に活用するには、明確なルールを定めたガイドラインの策定が欠かせません。 ルールが曖昧なままだと、社員が知らないうちに機密情報を入力したり、不適切な使い方で情報が漏れてしまうおそれがあります。 そこで、利用範囲や禁止事項、情報の取り扱い方法、著作権への配慮などを具体的に盛り込んだ利用規約やガイドラインを整備しましょう。 これらは社内ポータルなどで常時閲覧できるようにし、定期的な更新も行います。 さらに、新入社員研修で必ずガイドラインの内容を説明し、ルールの背景や重要性を理解させることが、組織全体のリスク低減につながります。 2.社員のセキュリティ教育 生成AIのリスクを防ぐには、策定したガイドラインを正しく理解し実践できるようにするための社員教育が重要です。 たとえば、生成AIの仕組みやメリットだけでなく、情報漏えいのリスクや著作権の問題、関連する法律や倫理的な課題についても学べる機会を設けましょう。 特に、生成AIが悪用されやすいフィッシング詐欺やソーシャルエンジニアリングなどの手法については、具体例を交えながら周知徹底し、不審なメッセージや指示に対して冷静に対応できる力を育てます。 こうした取り組みが、企業全体のセキュリティレベルを底上げするカギとなります。 最近では、社員教育の一貫として、標的型メール訓練を取り入れる企業が増えています。 標的型メール訓練の流れや得られる効果などは、以下の記事で詳しく解説していますので参考にしてください。 >>いまさら聞けない標的型メール訓練とは?実施の流れと効果を高める3つのポイントを解説 3.プロンプト監視とログ管理を導入する 生成AIを安全に運用するためには、入力内容や利用履歴を記録・監視するシステムの構築が欠かせません。 なぜなら、「誰が・いつ・どのような情報を入力したか」を把握できれば、誤入力や不正利用を早期に発見できるからです。 たとえば、機密情報や個人情報の誤入力を防ぐには、DLP(データ損失防止)ツールの導入や入力前のチェックリスト活用といった技術的・組織的対策が有効です。 また、生成物についても公開前に事実確認や著作権・倫理面のチェックを行うことで、トラブルを未然に防げます。 さらに、定期的にログを確認し、異常な挙動や不適切な利用がないかを監視することが、企業のセキュリティ強化へつながります。 4.Microsoft Purview DSPM for AIでAI利用のリスクを可視化・管理 Microsoftには、生成AIを安全に活用するためのセキュリティツール「Microsoft Purview Data Security Posture Management (DSPM) for AI」があります。 この仕組みを利用すると、CopilotやChatGPTなどの生成AIを通じて扱われるデータを自動的に検出・分類し、機密情報が漏えいする危険がないかを可視化できます。 DSPM for AIには、複雑な設定なしのワンクリックで効果を発揮するセキュリティポリシーが用意されています。 どの従業員が、どのAIサービスに、どのようなデータを入力しているのかをレポート化できるため、「AIの見える化」と「自動防御」を同時に実現できるのが特徴です。 DSPM for AIを活用すれば、企業はAI利用によるデータ流出のリスクを事前に把握し、問題が起きる前に検知・修復する仕組みを構築できます。 つまり、AIを安全かつ効率的に活用したい企業にとって、DSPM for AIは今後欠かせないセキュリティ基盤といえます。 5.アクセス制御とデータ暗号化 生成AI環境の安全性を保つには、アクセス権限の適切な管理とデータの暗号化が重要です。 まず、「誰に、どの範囲の権限を与えるか」を明確にし、業務に必要な最小限の権限だけを付与します。 これにより、不正利用や情報の持ち出しリスクを大幅に減らせます。 また、入力データや作成したコンテンツは暗号化して保存・送信することで、外部からの盗み見や改ざんを防止できます。 とくにクラウド上で生成AIを利用する場合は、通信経路の暗号化や暗号鍵の適切な管理が欠かせません。 一方で、アクセスの仕組み自体を強化する方法として有効なのが「Azure AD 条件付きアクセス(Microsoft Entra ID 条件付きアクセス)」の導入です。 ユーザーのデバイス、場所、アプリ、リスクレベルなどの情報をもとに、アクセスを自動的に制御できます。 たとえば、社外からのアクセス時のみ多要素認証を求めるなど、リスクに応じた柔軟なポリシー設定が可能です。 データを守る「暗号化」と、アクセス経路を守る「条件付きアクセス」は、それぞれ役割は異なりますが、どちらも安全なAI環境を実現するうえで欠かせない対策です。 両者を組み合わせることで、より強固なセキュリティ体制を築くことができます。 6.アカウントの制御と監視 生成AIを安全に活用するには、アカウント制御・監視も欠かせません。 業務用と個人用のアカウントを分けて分け、利用者ごとに明確に管理することで、公私混同による情報漏えいを防げます。 さらに、「誰が、いつ、どのように使ったか」を追跡・把握する仕組みを整えれば、不審な操作や不正アクセスの早期発見にもつながります。 先述したアクセス制御が「権限を与える前の防御」であるのに対し、アカウント制御と監視は「利用中・利用後の異常を検知する防御」です。 この2つを組み合わせることで、より強固なセキュリティ体制を築くことが可能です。 個人ができる生成AIセキュリティ対策 生成AIは便利な一方で、個人の使い方次第で情報漏えいやトラブルを引き起こすリスクもあります。 企業側の対策だけでなく、利用者一人ひとりがリスクを正しく理解し、安全な使い方を意識することが大切です。 ここでは、個人が日常的に徹底すべき運用ルールを紹介します。 機密情報・個人情報を入力しない 氏名や住所、電話番号、メールアドレス、クレジットカード情報など、個人を特定できる情報は絶対に生成AIに入力してはいけません。 もちろん、会社の機密情報や取引先の重要データも同様です。 これらは生成AIの学習やサービス提供企業のサーバーに保存される可能性があり、入力すれば情報漏えいのリスクが高まります。 安全に利用するために、機密情報や個人情報は慎重に取り扱いましょう。 内容のファクトチェック 生成AIが出力する情報には誤りや偽情報、偏った内容が含まれることがあります。 生成AIは大量のデータから「もっともらしい」文章を作りますが、その正確性は保証されません。 回答をそのまま信用せず、必ず複数の信頼できる情報源を確認する習慣をつけましょう。 サービスの利用規約・プライバシーポリシーの確認 生成AIを使う前には、必ずそのサービスの利用規約やプライバシーポリシーを確認しましょう。 特に、入力した情報の取り扱いや、学習データとして再利用されるかどうかは重要なポイントです。 サービスによっては、ユーザーの入力内容を今後の学習に活用する場合があり、知らないうちに機密情報を提供してしまう恐れがあります。 不明点や不安がある場合は利用を控え、信頼できるサービスを選びましょう。 公私のアカウント・端末を分けて使う 生成AIを使用するときは、業務用と個人用のアカウントや端末を分けて使うべきです。 これは、従業員一人ひとりが守るべき運用ルールです。 もし業務情報を私用のアカウントに入力してしまうと、意図せず情報漏えいが発生するリスクがあります。 特に同じ環境で公私混同すると、管理が曖昧になりやすく、セキュリティ事故の原因となりがちです。 安全な運用のために、アカウントや端末を明確に分け、情報の扱いをきちんと区別しましょう。 生成AI導入時のガイドライン策定ポイント 生成AIガイドラインとは、AIの利用や運用に関する倫理的・技術的・法的なルールや、推奨される運用方法をまとめた指針です。 企業は生産性の向上を目指しながらも、情報漏えいや誤情報の拡散といったリスクを最小限に抑える必要があります。 国内では、以下のような公的・業界団体による指針がすでに公開されています。 デジタル庁「テキスト生成AI利活用におけるリスクへの対策ガイドブック(α版)」 一般社団法人ディープラーニング協会「生成AIの利用ガイドライン」 情報処理推進機構(IPA)「テキスト生成Ai導入・運用ガイドライン」 これらを参考にしつつ、自社の業務内容や方針に合わせたガイドラインを策定・運用することが重要です。 なお、情報漏えいが起きた際の損害賠償については、以下の記事を参考にしてください。 >>情報漏えいによる損害賠償の実態とは?相場と事例まとめ まとめ 生成AIの導入は業務効率化を大きく進めますが、その一方で情報漏えい、誤情報、著作権侵害、サイバー攻撃といった多くのセキュリティリスクを伴います。 企業には、明確なガイドライン策定や社員教育、プロンプト監視、アクセス制御とデータ暗号化、アカウント制御・監視といった対策をしっかり講じることが求められます。 こうしたリスクに対応するには、自社だけでなく専門組織によるセキュリティ監視を取り入れることも有効です。 アイネットテクノロジーズが提供する「Modern SOC Service」は、お客様環境のMicrosoft 365における脅威対策や各種アラートに、24時間365日体制で対応するサービスです。 誤検知の有無や影響度を判断し、想定される被害と対応策まで通知します。 さらに、MSOCによる内部不正検知では、退退職予定者の行動を調査・分析し、情報流出につながる「接近・入手・隠蔽・流出」といった行動をスコアリングすることで、情報漏えいリスクから企業を守ります。 生成AI導入に伴うセキュリティリスクを最小限に抑えるために、SOCサービスの導入をぜひご検討ください。 >>Modern SOC Serviceの詳細はこちら

CONTACT

TELEPHONE