株式会社アイネットテクノロジーズ

生成AIのセキュリティリスクとは?企業が取るべき6つの対策をわかりやすく解説

近年、生成AIは業務効率化やアイデア創出に欠かせないツールとなっています。

ソフトバンクグループも10億のAIエージェントを作って活用するとも発表していますよね。

しかし、その便利さの裏には情報漏えいや誤情報、著作権侵害といったセキュリティリスクが潜んでいることをご存じでしょうか。

本記事では、企業が生成AIを安全に活用するために押さえておきたいリスクの種類と対策、さらに導入時のガイドラインについて解説します。

安心してAIを活用するためのポイントを、ぜひ押さえてください。

生成AIにおけるセキュリティリスクとは

生成AIを業務に取り入れると多くの利点がありますが、一方で見落とされがちなセキュリティ上のリスクも存在します。

情報漏えいのリスク

生成AIに入力した情報は、意図せず外部に漏れるリスクがあります。

その理由は、生成AIはクラウド上で動作しているため、入力されたデータがサーバーに保存されたり、生成の学習に使われたりする可能性があるからです。

もし、未公開の製品情報や顧客リスト、経営戦略などの機密情報を入力すると、その情報が第三者に再現されたり、外部へ流出したりする危険があります。

実際に、生成AIに入力した情報が漏えいしてしまった事例があります。

これは、2023年に韓国のテクノロジー企業・サムスンに務めるエンジニアが、開発中のコードをAIに入力してしまい、そこから情報漏えいした可能性があるという事件です。

「自分しか見ていないから大丈夫」と考えず、常に情報が外部に渡るリスクを意識しましょう。

生成AIによる情報漏えいの事例は、以下の記事で詳しく紹介しています。

>>AIによる情報漏えいの原因と対策!CopilotやChatGTP、主要AIごとのリスクも解説

誤情報(ハルシネーション)による業務トラブル

一見すると正確に見える生成AIが作成した文章ですが、必ずしも事実に基づいているとは限りません。

生成AIの回答はインターネット上にある膨大な情報をもとに生成されますが、その中には、裏付けのないまま「それらしく」作られた誤情報が含まれることがあります。

これを「ハルシネーション」と呼びます。

たとえば、製品マニュアルや社内資料を生成AIだけで作成すると、誤情報が掲載されたり、手順ミスによって作業遅延が発生したりするおそれがあります。

このように、ハルシネーションによって「存在しない事実」「間違った情報」が盛り込まれると、業務トラブルへ発展するリスクが高まります。

業著作権・知的財産権のリスク

生成AIが作成したコンテンツには、知らないうちに著作権を侵害してしまうリスクがあります。

たとえば、有名なイラストや曲に似ていたり、意図せず再現されたりする場合があります。

最近では、ChatGTPの画像生成で「ジブリ風の画像」が作れると注目を集め、「法的に大丈夫なのか」「倫理観が問われる」と話題になりました。

生成AIは、WEB上にある大量の文章や画像、コードを学習します。

その学習データに著作権で保護された素材が含まれていると、結果が既存の作品と酷似することがあるのです。

実際、企業が生成AIで作成したコンテンツを業務利用したことで、損害賠償や信用低下につながったケースもあります。

対策としては、著作権フリーあるいは適法なデータのみで学習した生成AIを選ぶこと、利用規約・ライセンスの確認すること、そして人によるチェックや専門家のレビューを行うなどの仕組みを導入することが重要です。

サイバー攻撃のリスク

生成AIの進化により、フィッシング詐欺などのサイバー攻撃がより巧妙化しています。

従来のフィッシングメールは、不自然な日本語や怪しい文面から詐欺であると見破られることが多くありました。

しかし、生成AIを使えば、誰でも簡単に自然で信頼性の高い文章を作成できます。

昨今では、AmazonやApple、クレジットカード会社などの有名ブランドを装った「なりすましメール」が急増しており、利用者の心理的な隙を突いて情報を盗み出そうとします。

さらに、攻撃者が日本語を話せなくても、生成AIを使えば高品質な詐欺メールを大量に作成できるため、個人情報や社内アカウントが狙われるリスクは一層高まっています。

企業が取るべき6つの生成AIセキュリティ対策

生成AIを安全に運用するためには、具体的な対策が不可欠です。

ただし、ここで紹介する6つのセキュリティ対策は、それ単体では十分な効果を得られません。

複数を組み合わせる、または6つすべてを取り入れることで、情報資産を守るバリケードとなります。

1.ガイドラインの策定

生成AIを安全に活用するには、明確なルールを定めたガイドラインの策定が欠かせません。

ルールが曖昧なままだと、社員が知らないうちに機密情報を入力したり、不適切な使い方で情報が漏れてしまうおそれがあります。

そこで、利用範囲や禁止事項、情報の取り扱い方法、著作権への配慮などを具体的に盛り込んだ利用規約やガイドラインを整備しましょう。

これらは社内ポータルなどで常時閲覧できるようにし、定期的な更新も行います。

さらに、新入社員研修で必ずガイドラインの内容を説明し、ルールの背景や重要性を理解させることが、組織全体のリスク低減につながります。

2.社員のセキュリティ教育

生成AIのリスクを防ぐには、策定したガイドラインを正しく理解し実践できるようにするための社員教育が重要です。

たとえば、生成AIの仕組みやメリットだけでなく、情報漏えいのリスクや著作権の問題、関連する法律や倫理的な課題についても学べる機会を設けましょう。

特に、生成AIが悪用されやすいフィッシング詐欺やソーシャルエンジニアリングなどの手法については、具体例を交えながら周知徹底し、不審なメッセージや指示に対して冷静に対応できる力を育てます。

こうした取り組みが、企業全体のセキュリティレベルを底上げするカギとなります。

最近では、社員教育の一貫として、標的型メール訓練を取り入れる企業が増えています。

標的型メール訓練の流れや得られる効果などは、以下の記事で詳しく解説していますので参考にしてください。

>>いまさら聞けない標的型メール訓練とは?実施の流れと効果を高める3つのポイントを解説

3.プロンプト監視とログ管理を導入する

生成AIを安全に運用するためには、入力内容や利用履歴を記録・監視するシステムの構築が欠かせません。

なぜなら、「誰が・いつ・どのような情報を入力したか」を把握できれば、誤入力や不正利用を早期に発見できるからです。

たとえば、機密情報や個人情報の誤入力を防ぐには、DLP(データ損失防止)ツールの導入や入力前のチェックリスト活用といった技術的・組織的対策が有効です。

また、生成物についても公開前に事実確認や著作権・倫理面のチェックを行うことで、トラブルを未然に防げます。

さらに、定期的にログを確認し、異常な挙動や不適切な利用がないかを監視することが、企業のセキュリティ強化へつながります。

4.Microsoft Purview DSPM for AIでAI利用のリスクを可視化・管理

Microsoftには、生成AIを安全に活用するためのセキュリティツール「Microsoft Purview Data Security Posture Management (DSPM) for AI」があります。

この仕組みを利用すると、CopilotやChatGPTなどの生成AIを通じて扱われるデータを自動的に検出・分類し、機密情報が漏えいする危険がないかを可視化できます。

DSPM for AIには、複雑な設定なしのワンクリックで効果を発揮するセキュリティポリシーが用意されています。

どの従業員が、どのAIサービスに、どのようなデータを入力しているのかをレポート化できるため、「AIの見える化」と「自動防御」を同時に実現できるのが特徴です。

DSPM for AIを活用すれば、企業はAI利用によるデータ流出のリスクを事前に把握し、問題が起きる前に検知・修復する仕組みを構築できます。

つまり、AIを安全かつ効率的に活用したい企業にとって、DSPM for AIは今後欠かせないセキュリティ基盤といえます。

5.アクセス制御とデータ暗号化

生成AI環境の安全性を保つには、アクセス権限の適切な管理とデータの暗号化が重要です。

まず、「誰に、どの範囲の権限を与えるか」を明確にし、業務に必要な最小限の権限だけを付与します。

これにより、不正利用や情報の持ち出しリスクを大幅に減らせます。

また、入力データや作成したコンテンツは暗号化して保存・送信することで、外部からの盗み見や改ざんを防止できます。

とくにクラウド上で生成AIを利用する場合は、通信経路の暗号化や暗号鍵の適切な管理が欠かせません。

一方で、アクセスの仕組み自体を強化する方法として有効なのが「Azure AD 条件付きアクセス(Microsoft Entra ID 条件付きアクセス)」の導入です。

ユーザーのデバイス、場所、アプリ、リスクレベルなどの情報をもとに、アクセスを自動的に制御できます。

たとえば、社外からのアクセス時のみ多要素認証を求めるなど、リスクに応じた柔軟なポリシー設定が可能です。

データを守る「暗号化」と、アクセス経路を守る「条件付きアクセス」は、それぞれ役割は異なりますが、どちらも安全なAI環境を実現するうえで欠かせない対策です。

両者を組み合わせることで、より強固なセキュリティ体制を築くことができます。

6.アカウントの制御と監視

生成AIを安全に活用するには、アカウント制御・監視も欠かせません。

業務用と個人用のアカウントを分けて分け、利用者ごとに明確に管理することで、公私混同による情報漏えいを防げます。

さらに、「誰が、いつ、どのように使ったか」を追跡・把握する仕組みを整えれば、不審な操作や不正アクセスの早期発見にもつながります。

先述したアクセス制御が「権限を与える前の防御」であるのに対し、アカウント制御と監視は「利用中・利用後の異常を検知する防御」です。

この2つを組み合わせることで、より強固なセキュリティ体制を築くことが可能です。

個人ができる生成AIセキュリティ対策

生成AIは便利な一方で、個人の使い方次第で情報漏えいやトラブルを引き起こすリスクもあります。

企業側の対策だけでなく、利用者一人ひとりがリスクを正しく理解し、安全な使い方を意識することが大切です。

ここでは、個人が日常的に徹底すべき運用ルールを紹介します。

機密情報・個人情報を入力しない

氏名や住所、電話番号、メールアドレス、クレジットカード情報など、個人を特定できる情報は絶対に生成AIに入力してはいけません。

もちろん、会社の機密情報や取引先の重要データも同様です。

これらは生成AIの学習やサービス提供企業のサーバーに保存される可能性があり、入力すれば情報漏えいのリスクが高まります。

安全に利用するために、機密情報や個人情報は慎重に取り扱いましょう。

内容のファクトチェック

生成AIが出力する情報には誤りや偽情報、偏った内容が含まれることがあります。

生成AIは大量のデータから「もっともらしい」文章を作りますが、その正確性は保証されません。

回答をそのまま信用せず、必ず複数の信頼できる情報源を確認する習慣をつけましょう。

サービスの利用規約・プライバシーポリシーの確認

生成AIを使う前には、必ずそのサービスの利用規約やプライバシーポリシーを確認しましょう。

特に、入力した情報の取り扱いや、学習データとして再利用されるかどうかは重要なポイントです。

サービスによっては、ユーザーの入力内容を今後の学習に活用する場合があり、知らないうちに機密情報を提供してしまう恐れがあります。

不明点や不安がある場合は利用を控え、信頼できるサービスを選びましょう。

公私のアカウント・端末を分けて使う

生成AIを使用するときは、業務用と個人用のアカウントや端末を分けて使うべきです。

これは、従業員一人ひとりが守るべき運用ルールです。

もし業務情報を私用のアカウントに入力してしまうと、意図せず情報漏えいが発生するリスクがあります。

特に同じ環境で公私混同すると、管理が曖昧になりやすく、セキュリティ事故の原因となりがちです。

安全な運用のために、アカウントや端末を明確に分け、情報の扱いをきちんと区別しましょう。

生成AI導入時のガイドライン策定ポイント

生成AIガイドラインとは、AIの利用や運用に関する倫理的・技術的・法的なルールや、推奨される運用方法をまとめた指針です。

企業は生産性の向上を目指しながらも、情報漏えいや誤情報の拡散といったリスクを最小限に抑える必要があります。

国内では、以下のような公的・業界団体による指針がすでに公開されています。

  • デジタル庁「テキスト生成AI利活用におけるリスクへの対策ガイドブック(α版)」
  • 一般社団法人ディープラーニング協会「生成AIの利用ガイドライン」
  • 情報処理推進機構(IPA)「テキスト生成Ai導入・運用ガイドライン」

これらを参考にしつつ、自社の業務内容や方針に合わせたガイドラインを策定・運用することが重要です。

なお、情報漏えいが起きた際の損害賠償については、以下の記事を参考にしてください。

>>情報漏えいによる損害賠償の実態とは?相場と事例まとめ

まとめ

生成AIの導入は業務効率化を大きく進めますが、その一方で情報漏えい、誤情報、著作権侵害、サイバー攻撃といった多くのセキュリティリスクを伴います。

企業には、明確なガイドライン策定や社員教育、プロンプト監視、アクセス制御とデータ暗号化、アカウント制御・監視といった対策をしっかり講じることが求められます。

こうしたリスクに対応するには、自社だけでなく専門組織によるセキュリティ監視を取り入れることも有効です。

アイネットテクノロジーズが提供する「Modern SOC Service」は、お客様環境のMicrosoft 365における脅威対策や各種アラートに、24時間365日体制で対応するサービスです。

誤検知の有無や影響度を判断し、想定される被害と対応策まで通知します。

さらに、MSOCによる内部不正検知では、退退職予定者の行動を調査・分析し、情報流出につながる「接近・入手・隠蔽・流出」といった行動をスコアリングすることで、情報漏えいリスクから企業を守ります。

生成AI導入に伴うセキュリティリスクを最小限に抑えるために、SOCサービスの導入をぜひご検討ください。

>>Modern SOC Serviceの詳細はこちら

アイネットテクノロジーズ
INET-TECHNOLOGY'S

当社はゼロトラストネットワークを基本に、標的型攻撃訓練から内部不正検知をコンサルティングから導入、SOC、サポートまでワンストップでご提供します。

当社はゼロトラストネットワークを基本に、標的型攻撃訓練から内部不正検知をコンサルティングから導入、SOC、サポートまでワンストップでご提供します。

関連記事

AIによる情報漏えいの原因と対策!CopilotやChatGTP、主要AIごとのリスクも解説

近年のビジネスシーンにおいて、生成AIはさまざまな用途で活用されています。 しかしその一方で、情報漏えいのリスクに不安を感じる企業も増えてきました。 機密情報を扱う企業では、自社のセキュリティルールとAIツールの仕組みが合っているかをきちんと確認することが大切です。 また、Copilot、ChatGPT、Google Geminiなど、国内の主要AIツールには、それぞれ特徴や使い方に違いがあります。 適切な対策を取らずに使うと、思わぬ形で重要なデータが漏れてしまうおそれもあるのです。 この記事では、AIによる情報漏えいの原因とその対策、そして主要な生成AIツールごとの漏えいリスクも解説します。 生成AIによる情報漏えいとは まずは、なぜ生成AIによって情報漏えいが起こるのか、従来の情報漏えいとの違いを解説します。 なぜ生成AIが情報漏えいの原因になるのか 生成AIは、ユーザーが入力したデータを学習・記録・共有する可能性があり、これが情報漏えいの根本的な要因です。 CopilotやChatGTPなどのクラウド型生成AIは、入力した内容が外部サーバーで処理される仕組みです。 そのため、機密情報や個人情報を入力してしまうと、知らないうちにそのデータが社外に流出する危険をはらんでいます。 たとえば、入力内容がAIの学習に利用される設定になっている場合、顧客情報や社内文書をそのまま入力すると、その情報が他のユーザーへの応答に使われてしまう可能性があります。 生成AIは便利である反面、情報の取り扱いに対する理解と注意がこれまで以上に求められます。 従来の情報漏えいとの違いとは 生成AIによる情報漏えいの一番の怖さは、「気づかないうちに漏れている」という点です。 これまでの情報漏えいはファイルの誤送信や、間違って外部にデータを転送するなど、明確な操作ミスが原因になることが多くありました。 しかし生成AIの場合は、日常的な質問や文章作成のために入力した内容が、そのまま情報漏えいの原因になり得ます。 たとえば「この文章を要約して」とAIにお願いするだけでも、内容によっては機密情報が外部に送られてしまう可能性があるのです。 ユーザー本人の自覚がないまま、情報がAI側に取り込まれてしまうのが従来の漏えいと大きな違いです。 >>情報漏えいを防ぐには?リモートワーク時代の必須セキュリティ対策7つ 生成AIによる情報漏えいの事例 生成AIによる情報漏えいは、過去に何度も起こっています。ここでは、情報漏えい事例を2つ紹介します。 ChatGPTで個人情報漏えいが発生 2023年3月、OpenAI社は、有料版「ChatGPT Plus」の一部ユーザーの情報が外部から見られる状態になっていたことを発表しました。 名前やメールアドレス、クレジットカードの一部情報などが、約10時間にわたって他のユーザーにも見えていたのです。 原因は、ChatGPTが使用していたオープンソースライブラリのバグにありました。 OpenAI社はこの不具合を修正し、リスクは収束したとしていますが、一度漏れた情報は取り戻せません。 このように、システムのバグや予期しない動きによって、ユーザーが意図しなくても情報が漏れてしまうリスクもあります。 サムスン社内でソースコードが流出 2023年、大手企業サムスンでも、生成AIをめぐる情報漏えいが問題になりました。 これは、社内のエンジニアが開発中のソースコードをChatGPTに入力したところ、その内容が外部に漏れてしまったおそれがあるというケースです。 業務で使った情報がクラウドに残り、他のユーザーに見られてしまうリスクが生じたことが問題視されました。 これをきっかけに、サムスンはChatGPTなど生成AIの社内利用を全面的に禁止する方針を打ち出しました。 日常業務の中で何気なく入力した内容が、大きな情報漏えいにつながってしまうという、生成AIならではの事例といえます。 なぜ起こる?生成AIによる情報漏えいの主な原因 生成AIによって引き起こされる情報漏えいの主な原因は、以下の4つです。 プロンプト経由での個人情報や機密情報の出力 学習データへの不正アクセス バグや設定ミス 教育不足による従業員の誤操作 では、詳しく解説していきます。 プロンプト経由での個人情報や機密情報の出力 生成AIは、ユーザーが入力した内容を学習データとして蓄積しています。 蓄積されたデータは、別ユーザーへの応答に利用される可能性があり、知らないうちに大切な情報が共有されてしまうことがあります。 一見便利に見えるプロンプト入力ですが、AIの学習に使われるリスクがあることを念頭におきましょう。 学習データへの不正アクセス 生成AIが取り込んだデータは、インターネット上のサーバーに保管されることが多いです。 そこに不正アクセスがあると、情報が外部に漏れてしまうおそれがあります。 社内の機密や顧客情報などが、悪意のある第三者に盗まれてしまうと、大きなトラブルへと発展します。 企業向けの生成AIは、データ管理や意図しない学習・共有を防ぐ仕組みが強化されていますが、100%安全とは限りません。 「AIに入力した情報がどこかに残るかもしれない」という意識を持って使うことが大切です。 バグや設定ミス 生成AIは、まだ発展途中の技術です。 システムにバグがあったり、設定にミスがあったりすると、本来見せるつもりのなかった情報が出てしまうことがあります。 また、ユーザー側で設定を間違えたり、誤った使い方をしてしまった場合も、情報漏えいの原因になります。 生成AIを安心して使うためには、サービスの仕様や使い方をきちんと確認し、最新の注意喚起にも目を通すことが必要です。 教育不足による従業員の誤操作 従業員がAIの使い方やリスクを理解しないまま操作してしまうと、情報漏えいの原因になることがあります。 日本国内でも従業員の誤操作による情報漏えいは発生しており、場合によっては、企業の信用が失われたり、法的な責任を問われたりすることもあります。 生成AIを安心して活用するには、従業員に向けた継続的な教育と、正しい使い方を示すガイドラインの整備が欠かせません。 生成AIによる情報漏えいを防ぐ5つの対策 生成AIによる情報漏えいを防ぐために企業が取るべき対策は、以下の5つです。 個人情報や機密情報は入力しない 履歴を削除、学習設定の無効化 AI利用のルールを定める 法人向けプランの利用 セキュリティシステムの活用 では、詳しく解説していきます。 1:個人情報や機密情報は入力しない 生成AIは、入力されたデータを、学習や今後のサービス改善に活用する仕組みです。 この性質を理解せずに、顧客情報や社内の機密情報を入力すると、情報漏えいのリスクが極めて高くなります。 そのため、従業員には「入力してはいけない情報」をリスト化して共有し、プロンプトに機密を含めない運用ルールを徹底することが重要です。 2:履歴を削除、学習設定の無効化 多くの生成AIには、利用履歴が自動で保存される機能があります。 この履歴を放置すると、社外の第三者がアクセスするリスクが高まり、情報漏えいの原因となる可能性があります。 そこで、履歴をこまめに削除することが効果的な対策です。 Copilotでは、履歴一覧から削除したい会話を選び、ゴミ箱アイコンをクリックするだけで簡単に削除できます。 ChatGPTも履歴を残さない設定が可能です。 この機能を有効化することで、機密情報が含まれるプロンプトを入力しても、その内容が学習データに使われることを防げます。 こうした設定を活用し、情報漏えいを未然に防ぐことが大切です。 3:AI利用のルールを定める 生成AIを業務で使う場合は、情報保護の観点から「使っていい情報と使ってはいけない情報」のルールを定めることが必要です。 ルールが明確になっていないと、悪気なく機密情報を入力してしまい、重大な漏えいにつながりかねません。 実際の情報漏えい事例を参考にしながら研修や教育を行い、全社員にリスク意識を浸透させることが予防策となります。 4:法人向けプランの利用 生成AIの法人向けプランには、セキュリティ強化や管理機能の充実に加え、データが学習に利用されない、組織単位での利用管理、などがあり、機密性の高い業務に効果的です。 たとえば、「Copilot for Microsoft 365」では、Microsoft 365のセキュリティフレームワーク上で動作するため、ユーザーの入力内容がAIの学習に使われることはありません。 また、Teamsを使ったリアルタイム要約や共同編集など、利便性と安全性の両立が可能です。 一方、「ChatGPT Enterprise」は、入力データが学習に使われないことに加え、暗号化通信、アクセス制御、利用状況の可視化など、セキュリティ対策が徹底されています。 さらに、データの学習利用を無効化し、通信や保存時の暗号化、SSOや監査ログなど高度なセキュリティ管理機能を備えています そのほか、Geminiでは「Gemini for Google Workspace」、Claudeでは「Claude Team/Enterprise」と、各AIが法人向けプランを提供しています。 5:セキュリティシステムの活用 生成AIからの情報漏えいを防ぐためには、セキュリティシステムや対策ツールの活用が欠かせません。 近年では、生成AIの利用に特化した機能を備えたものが増えています。 たとえば、以下のような機能を持つ製品があります。 プロンプト入力時に機密情報を自動で検知・ブロック ログイン時に社内ルールを通知するポップアップ表示 管理者が入力内容をリアルタイムでモニタリングできるダッシュボード こうしたツールを活用すれば、ヒューマンエラーによる情報漏えいリスクを大幅に軽減できます。 さらに、ブラウザ版のCopilotを使う場合は、DLP(データ損失防止)設定やウイルス対策ソフトの導入も必須です。 DLPによって送信データの監視・制御が可能になり、不正アクセスや意図しない社外送信のリスクを抑えることができます。 Copilot・ChatGTP・Gemini、主要生成AIごとの情報漏えいリスク 日本で広く使われている生成AIには、Microsoftの「Copilot」やOpenAIの「ChatGPT」、Googleの「Gemini」などがあります。 これらは設計や運用方針、学習データの扱い方がそれぞれ異なるため、情報漏えいのリスクもAIごとに違います。 そのため、これまでに説明した4つの原因に加え、利用するAIの特徴に合わせたリスク管理も重要です。 ここでは、代表的な生成AIごとに起こり得る情報漏えいのリスクについて解説します。 Copilot(Microsoft 365) Microsoft 365 Copilotを利用する際の最大のリスクは、情報保護ツールと連携しないことで機密情報が漏れてしまう点です。 とくに、「Microsoft Purview」の秘密度ラベルや暗号化機能を使わない場合、Copilotはセンシティブな情報を通常のデータと区別せずに扱ってしまいます。 そのため、重要な機密情報が誤って文書やチャットの応答として外部に出力される危険性が高まります。 Copilotの情報漏えいリスクを抑えるには、Microsoft Purviewなどの情報保護機能と連携が不可欠といえます。 >>Microsoft Purviewとは?データセキュリティを支える3つの柱と導入メリット ChatGPT(OpenAI) ChatGPTの無料版や個人向け有料版では、入力した内容がAIの学習データとして使われるリスクがあるため業務利用には向いていません。 実際にOpenAIも利用規約でも、機密情報や個人情報を入力しないよう明記されており、情報の取り扱いには十分な注意が求められます。 一方、ChatGPTのエンタープライズ版(またはTeam板)では、学習の無効化やログ管理、権限設定が可能で、セキュリティ面が強化されています。 社外秘情報や顧客データを扱う場合は、ビジネス向けプランの導入が推奨されます。 Google Gemini Google Geminiは、Googleアカウントとの連携やクラウド上でのデータ管理が特徴です。 しかし、この利便性の高さが、情報漏えいのリスクを高める要因になります。 とくに注意すべきなのは、個人のGoogleアカウントと社内アカウントとの境界が曖昧になりやすい点です。 たとえば、従業員が誤って個人アカウントで業務データを扱うと、そのデータが企業の管理外に出てしまい、アクセス制御が効かなくなることも考えられます。 Google Geminiを業務で活用する際には、アカウントの厳格な管理とクラウド設定の見直しが不可欠です。 Claude AI(Anthropic)など Claude AIをはじめとする海外製AIツールでは、「データ使用許諾」が利用規約に含まれていることが多く、情報漏えいのリスクが高いです。 海外製AIツールはグローバルな基準で設計されているため、データの利用方法や保存先が日本の法規則と異なる場合があります。 そのため、重要な機密情報や個人情報を入力すると、意図せず第三者に利用されたり海外に送信されたりするリスクが潜んでいます。 利用前に規約の内容を細かく確認し、自社のセキュリティポリシーと照らし合わせたリスク評価が不可欠です。 まとめ 生成AIは業務の効率化や情報整理において強力なツールですが、同時に情報漏えいリスクにも十分な注意が必要です。 とくに、個人情報や機密情報を取り扱う企業では、利用ツールの選定や社内ルールの整備が不可欠です。 機密情報を入力しない、履歴や学習設定を適切に管理する、法人向けプランを活用するといった基本的な対策を徹底することで、情報漏えいのリスクを大きく軽減できます。 さらに、Copilot、ChatGPT、Geminiなどの生成AIは、それぞれ異なるリスクとセキュリティ仕様を持っており、導入前にはデータの取り扱いやアカウント管理体制をしっかり確認することが求められます。 組織全体でセキュリティ意識を高め、継続的に見直しと改善を行うことが、安全かつ効果的なAI活用の鍵といえるでしょう。

Microsoft Purview と 従来製品のマッピングについて

皆さん、こんにちは。 アイネットテクノロジーズ 上口裕樹です。   日々の業務で、Microsoft に関連する製品をお使いのお客様は非常に多いかと思いますが、 Microsoft Purview と聞いてピンとくる方々はどれくらいいらっしゃるでしょうか。 Microsoft は2021年9月にオンプレミス、マルチクラウド、SaaSにおけるデータを管理/統制を可能とするソリューションとして「Azure Purview」をリリースしました。   そこから更に開発が進み、2022年4月には 「Microsoft 365 Compliance」 と呼称されていた ソリューションと統合され「Microsoft Purview」というより広範な意味合いを持つ名称へと変更されました。   参考ブログはこちらhttps://azure.microsoft.com/ja-jp/blog/azure-purview-is-now-microsoft-purview/   では、Microsoft Purview で主にできることは何でしょうか? できることは主に、3つに分類されます。   Microsoft Purview  ・お客様のデータ資産をわかりやすく視覚化 ・視覚化した情報を活用し、データにおけるリスクとコンプライアンスを管理 ・より少ない手順で、データ統制・保護・管理を行う できることはなんとなくわかった。では、なんのために行うのでしょうか?   Microsoft Purview における 3つの目的 Azure サブスクリプション ・Microsoft Purview Data Map ・Microsoft Purview Data Catalog Microsoft 365 E5 Information Protection & Governance ・Microsoft Purview Information Protection ・Microsoft Purview Data Loss Prevention ・Microsoft Purview Data Lifecycle Management Microsoft 365 E5 Insider Risk Management ・Microsoft Purview Insider Risk Management Microsoft 365 E5

Microsoft Purviewとは?データセキュリティを支える3つの柱と導入メリット

皆さんこんにちは、代表の上口稚洋です。 企業のデータ活用が進む一方で、情報漏えいやコンプライアンス違反といったリスクも深刻化しています。 こうした課題に対応するため、多くの企業が注目しているのが、Microsoftが提供する「Microsoft Purview(マイクロソフト パービュー)」です。 Microsoft Purviewは、組織内に存在する情報資産を可視化・分類し、セキュリティやコンプライアンスを一元的に管理できるプラットフォームです。 この記事では、Microsoft Purviewの概要やデータセキュリティを支える3つの機能、そして導入によるメリットまでを分かりやすく解説します。 Microsoft Purviewとは Microsoft Purviewは、企業に必要な「データガバナンス」「コンプライアンス」「セキュリティリスク管理」を一元的に支援する統合ソリューションです。 もともとは「Azure Purview」と「Microsoft 365コンプライアンスセンター」として、別々のサービスで提供されていましたが、2022年4月に統合し「Microsoft Purview」へと変更されました。 統合されたことにより、クラウドやオンプレミスといった環境を問わず、機密情報の保護や内部リスクへの対応がより強化されています。 Microsoft Purviewのデータセキュリティ3大機能 企業の重要なデータを保護する、Microsoft Purviewのデータセキュリティ3大機能について紹介します。 1.分類・ラベル付けで機密情報を保護 Microsoft Purviewでは、重要な情報を自動で分類・ラベル付けし、情報漏えいを未然に防ぎます。 Microsoft Purviewは、組織内にあるドキュメントを識別し、内容に応じて「Confidential(機密情報)」「Highly Confidential(より機密性が高い情報)」などの分類を行い、適切なラベルを付与します。 分類・ラベル付けされたことで、利用者はファイルの重要度を一目で認識できるようになり、ファイルの取り扱いに注意を払いやすくなります。 管理者は「どのような機密データが、どこに、どれだけあるか」を把握できるため、適切な管理が可能です。 また、本来あるべきではない場所に保存された機微なファイルの存在にも気づけるため、情報管理の精度が格段に向上します。 さらに、「社外秘」といったキーワードを含むファイルを自動で検出し、条件に応じて暗号化を適用できます。 暗号化されることで、万が一ファイルが外部に流出した場合でも、許可されていないユーザーは閲覧不可となるため、安全性は確保されます。 2.DLPで情報漏えいを防止 Microsoft Purviewでは、DLP(データ損失防止)機能で、アプリやサービス、デバイス間での情報漏えいを防止します。 社外とのファイル共有やメールでのやり取りが日常化している今、情報漏えいは外部からの攻撃だけでなく、内部からの流出も大きなリスクとなります。 Microsoft Purviewでは、あらかじめ定義したポリシー設定に基づき、たとえば「Highly Confidential」のラベルが付いたファイルは社外送信をブロックする、といった細かい制御が可能です。 さらに、OCR(光学式文字認識)機能との連携にも注目です。 従来のDLPでは難しかった画像や紙をスキャンしたPDFに含まれる文字の認識が、OCRとの連携によって可能になりました。 これにより、たとえばPDF化した文書の中に「社外秘」という文字があった場合でも、OCRが文字列を検出し、DLPポリシーに基づいて外部送信を防止します。 3.内部不正リスクを早期に検知・発見 Microsoft Purviewは、情報漏えいのリスクが高まるユーザーの不正な行動を検知し、早期に発見することができます。 競合他社へ転職する退職予定者が機密情報を持ち出すリスクは非常に高く、実際に情報漏えいインシデントはたびたび発生しています。 Microsoft Purviewでは、不審なユーザーがファイルにアクセスし、ダウンロードやメール送信、USB転送といった操作を行った際に、管理者にアラートを通知してくれます。 これはDLPによる防止とは異なった、検知に特化した仕組みです。 業務に支障が出ることなく、内部リスクを可視化し、早い段階での対応につなげられるのがメリットです。 Microsoft Purviewを導入するメリット Microsoft Purviewを導入することで得られる、具体的なメリットを紹介します。 分散したデータの一元管理と可視化 Microsoft Purviewを活用すれば、クラウドやオンプレミス、SaaSに分散しているデータを一元的に管理・可視化できます。 日々増え続ける業務データは、保管場所も複雑になりがちです。 しかし、Microsoft Purviewを導入することで、「どこにどんな情報があるのか」をすぐに把握できるようになります。 必要なデータをすばやく見つけ出せるようになり、情報システム部門の管理負担の軽減や、業務効率化にもつながります。 情報漏えいリスクを大幅に軽減できる Microsoft Purviewは、機密性の高いデータを自動で検出・分類し、適切なラベル付けや暗号化し、保護する機能を備えています。 ラベル付与や暗号化を適切に設定することにより、第三者が閲覧できない仕組みが構築でき、誤操作や内部不正といった人的ミスによる情報漏えいのリスクを低減できます。 データが社内外に分散する現代において、Microsoft Purviewのような自動保護の仕組みは不可欠といえるでしょう。 コンプライアンス対応が楽になる Microsoft Purviewを導入することで、GDPRやISO/IEC 27001といった国際的な情報管理・セキュリティ基準への対応がよりスムーズになります。 Microsoft Purviewでは、組織のコンプライアンス状況を数値化し、データの分類・保護をしてリスクを洗い出し、改善すべきポイントを明確にします。 また、メールやチャットのやり取りを監視するため、不正の兆候や違反行為を早期に発見して適切に対処することも可能です。 データの保持期間の設定や削除の自動化によって、人的ミスによる違反リスクを軽減しつつ、法令遵守を進めることができます。 訴訟や監査に備えた証拠集めも効率化され、企業全体のリスクマネジメント力が向上します。 社内のDX推進が加速する Microsoft Purviewには、データ活用を支援する、データカタログや用語集、分類機能などの仕組みがあります。 これらの機能を活用することで、従業員が必要な情報にすぐアクセスできるようになり、部署を越えたデータの共有・活用が促進されます。 リアルタイムでの情報共有やスピーディーな意思決定が可能になり、業務プロセスの自動化や効率化が進みます。 データを基盤とした運営が進むことで、企業全体のDX(デジタルトランスフォーメーション)の推進へとつながっていきます。 AI時代におけるMicrosoft Purviewの活用法 Copilot for Microsoft 365は、WordやExcelなどのアプリに生成AIを組み込んだ機能で、日々の業務を効率化してくれるツールです。 このCopilotとMicrosoft Purviewと組み合わせることで、情報漏えいやコンプライアンス違反など、生成AIの登場により生まれた新たなリスクにも対応できます。 ここでは、AIの活用が進む時代において、Microsoft Purviewをどのように活かすことができるのかを紹介します。 データの保護や過剰露出に対する活用法 Microsoft PurviewとCopilot for Microsoft 365を連携させることで、AIの利便性を保ちながら、データの保護や過剰な情報露出を抑える仕組みが整えられます。 たとえば、ユーザーがWordのCopilot機能を使い特定のファイルを要約して下書きを作成する際、元ファイルに設定された「秘密度ラベル」が引き継がれるため、新しい文書にもセキュリティポリシーが自動的に適用されます。 さらに、Copilotは利用者のアクセス権に応じた情報だけを閲覧するため、意図しないデータへの参照が起こりにくく、安心して利用できます。 このように、Microsoft Purviewを活用することで、生成AIを取り入れながらも、組織の情報管理やセキュリティ対策が強化できます。 コンプライアンス違反を未然に防ぐための活用法 生成AIの活用が広がる一方で、Copilotの不適切な使用やルール違反となるコンテンツが生成されるリスクも高まっています。 コンプライアンス違反を未然に防ぐには、こうした事態に素早く対応できる体制づくりが鍵となります。 Microsoft Purviewを活用することで、事前にリスクを把握し、組織としてのルールやコンプライアンスを守れる体制を整えることができます。 たとえば「Communication Compliance」を活用すると、一般の従業員が極秘プロジェクトに関する情報をCopilotに問い合わせた、というようなルール違反のやり取りを検知できます。 これにより、情報漏えいやポリシー違反の早期発見・対応がしやすくなります。 さらに、「eDiscovery(電子情報開示)」を活用すれば、Copilotへのプロンプトを検索・調査できるため、過去のやり取りをもとにリスクの検証や再発防止のための管理強化にもつながります。 Microsoft Purviewのライセンスと料金 ここからは、Microsoft Purviewのライセンスと料金について解説します。 ライセンス Microsoft Purviewは、ユーザーごとにライセンスモデルがあります。 既存のMicrosoft 365ライセンス(E3、E5、A5、F5、G5)には、一部のPurview機能が含まれています。 これらのライセンスを保有しているユーザーは、Microsoft 365やWindows/macOSのエンドポイントに対して、Purviewの制御機能やデータ保護機能を適用できます。 従来のMicrosoft 365ライセンスをそのまま活用することで、新しいセキュリティ対策を無理なく導入・運用することが可能です。 料金 Microsoft Purviewは、2025年1月6日から新しい従量課金モデルを採用しています。 従量課金制とは、使用した分だけ料金を支払う課金システムのことで、Microsoft Purviewでは利用する機能やサービス、データの管理対象に基づいて課金が行われます。 従量課金制が導入されたことにより、企業はリソースを必要な分だけ確保でき、コストの麺でも無駄のない運用が可能になりました。 Microsoft Purviewに関するよくある質問 ここからは、Microsoft Purviewに関するよくある質問とその回答を紹介します。 Q1:その他の活用法が知りたい 今回は、小売チェーン店でのMicrosoft Purview活用方法を一例として紹介します。 小売業では、日々大量のデータが発生するため、情報を適切に管理して保護することが重要です。 Microsoft Purviewのデータマップ機能を使えば、社内データを自動的にスキャン・分類できます。 データの所在が明確になり、データ活用がスムーズになります。 また、データカタログ機能を使用すれば、必要なデータを簡単に検索できるため、マーケティング部門は顧客分析やキャンペーン施策の立案をスピーディに展開できます。 さらに、DLP機能を使うことで、顧客の個人情報を適切に保護するルールを設定し、情報漏えいのリスク軽減が可能です。 これらの機能を組み合わせることで、小売業はデータガバナンスを強化しつつ、安全で効率的な業務運営を実現できます。 Q2:Microsoft

CONTACT

TELEPHONE