皆さん、こんにちは。
アイネットテクノロジーズ 上口裕樹です。
2023年も様々なセミナーなど企画・参加をさせていただきましたが、今年もいろいろやります!
ということで、この度 2024年1月29日(月)に Business&Law 合同会社様が主催されるカンファレンスに登壇いたします!
Business&Law CIRCLE 2024 企業法務×弁護士 ネットワーキングカンファレンス登壇
無料【豪華ゲスト登壇】Business&Law CIRCLE 2024 ~企業法務×弁護士のネットワーキングカンファレンス(軽食/ドリンク付き)~ – Business & Law(ビジネスアンドロー) (businessandlaw.jp)
開催:2024年1月29日(月)17:00-20:00
場所:丸ビル ホール&カンファレンススクエア
地図:map01 (marunouchi-h-c.jp)
タイトルにもあります通り、今回は主に法務に特化した内容のカンファレンスとなっております。
アイネットテクノロジーズで法務と言えば、Microsoft Purview ですね。
セキュリティリスクは外的要因だけでなく内的要因も非常に多いことが、ここ数年で特に知られていると思います。
今回のカンファレンスでは、当社が提供している「Modern SOC Service」をご紹介いたします!

大切な企業情報をどのようにして守るべきか。
どのようにして漏洩を検知して対処するのか?などを中心にお伝えできればと思います。
株式会社アイネットテクノロジーズ
info@inet-tech.jp
Business&Law CIRCLE 2024 企業法務×弁護士 ネットワーキングカンファレンス登壇

- アイネットテクノロジーズ
- INET-TECHNOLOGY'S
当社はゼロトラストネットワークを基本に、標的型攻撃訓練から内部不正検知をコンサルティングから導入、SOC、サポートまでワンストップでご提供します。
当社はゼロトラストネットワークを基本に、標的型攻撃訓練から内部不正検知をコンサルティングから導入、SOC、サポートまでワンストップでご提供します。
関連記事

生成AIのセキュリティリスクとは?企業が取るべき6つの対策をわかりやすく解説
近年、生成AIは業務効率化やアイデア創出に欠かせないツールとなっています。 ソフトバンクグループも10億のAIエージェントを作って活用するとも発表していますよね。 しかし、その便利さの裏には情報漏えいや誤情報、著作権侵害といったセキュリティリスクが潜んでいることをご存じでしょうか。 本記事では、企業が生成AIを安全に活用するために押さえておきたいリスクの種類と対策、さらに導入時のガイドラインについて解説します。 安心してAIを活用するためのポイントを、ぜひ押さえてください。 生成AIにおけるセキュリティリスクとは 生成AIを業務に取り入れると多くの利点がありますが、一方で見落とされがちなセキュリティ上のリスクも存在します。 情報漏えいのリスク 生成AIに入力した情報は、意図せず外部に漏れるリスクがあります。 その理由は、生成AIはクラウド上で動作しているため、入力されたデータがサーバーに保存されたり、生成の学習に使われたりする可能性があるからです。 もし、未公開の製品情報や顧客リスト、経営戦略などの機密情報を入力すると、その情報が第三者に再現されたり、外部へ流出したりする危険があります。 実際に、生成AIに入力した情報が漏えいしてしまった事例があります。 これは、2023年に韓国のテクノロジー企業・サムスンに務めるエンジニアが、開発中のコードをAIに入力してしまい、そこから情報漏えいした可能性があるという事件です。 「自分しか見ていないから大丈夫」と考えず、常に情報が外部に渡るリスクを意識しましょう。 生成AIによる情報漏えいの事例は、以下の記事で詳しく紹介しています。 >>AIによる情報漏えいの原因と対策!CopilotやChatGTP、主要AIごとのリスクも解説 誤情報(ハルシネーション)による業務トラブル 一見すると正確に見える生成AIが作成した文章ですが、必ずしも事実に基づいているとは限りません。 生成AIの回答はインターネット上にある膨大な情報をもとに生成されますが、その中には、裏付けのないまま「それらしく」作られた誤情報が含まれることがあります。 これを「ハルシネーション」と呼びます。 たとえば、製品マニュアルや社内資料を生成AIだけで作成すると、誤情報が掲載されたり、手順ミスによって作業遅延が発生したりするおそれがあります。 このように、ハルシネーションによって「存在しない事実」「間違った情報」が盛り込まれると、業務トラブルへ発展するリスクが高まります。 業著作権・知的財産権のリスク 生成AIが作成したコンテンツには、知らないうちに著作権を侵害してしまうリスクがあります。 たとえば、有名なイラストや曲に似ていたり、意図せず再現されたりする場合があります。 最近では、ChatGTPの画像生成で「ジブリ風の画像」が作れると注目を集め、「法的に大丈夫なのか」「倫理観が問われる」と話題になりました。 生成AIは、WEB上にある大量の文章や画像、コードを学習します。 その学習データに著作権で保護された素材が含まれていると、結果が既存の作品と酷似することがあるのです。 実際、企業が生成AIで作成したコンテンツを業務利用したことで、損害賠償や信用低下につながったケースもあります。 対策としては、著作権フリーあるいは適法なデータのみで学習した生成AIを選ぶこと、利用規約・ライセンスの確認すること、そして人によるチェックや専門家のレビューを行うなどの仕組みを導入することが重要です。 サイバー攻撃のリスク 生成AIの進化により、フィッシング詐欺などのサイバー攻撃がより巧妙化しています。 従来のフィッシングメールは、不自然な日本語や怪しい文面から詐欺であると見破られることが多くありました。 しかし、生成AIを使えば、誰でも簡単に自然で信頼性の高い文章を作成できます。 昨今では、AmazonやApple、クレジットカード会社などの有名ブランドを装った「なりすましメール」が急増しており、利用者の心理的な隙を突いて情報を盗み出そうとします。 さらに、攻撃者が日本語を話せなくても、生成AIを使えば高品質な詐欺メールを大量に作成できるため、個人情報や社内アカウントが狙われるリスクは一層高まっています。 企業が取るべき6つの生成AIセキュリティ対策 生成AIを安全に運用するためには、具体的な対策が不可欠です。 ただし、ここで紹介する6つのセキュリティ対策は、それ単体では十分な効果を得られません。 複数を組み合わせる、または6つすべてを取り入れることで、情報資産を守るバリケードとなります。 1.ガイドラインの策定 生成AIを安全に活用するには、明確なルールを定めたガイドラインの策定が欠かせません。 ルールが曖昧なままだと、社員が知らないうちに機密情報を入力したり、不適切な使い方で情報が漏れてしまうおそれがあります。 そこで、利用範囲や禁止事項、情報の取り扱い方法、著作権への配慮などを具体的に盛り込んだ利用規約やガイドラインを整備しましょう。 これらは社内ポータルなどで常時閲覧できるようにし、定期的な更新も行います。 さらに、新入社員研修で必ずガイドラインの内容を説明し、ルールの背景や重要性を理解させることが、組織全体のリスク低減につながります。 2.社員のセキュリティ教育 生成AIのリスクを防ぐには、策定したガイドラインを正しく理解し実践できるようにするための社員教育が重要です。 たとえば、生成AIの仕組みやメリットだけでなく、情報漏えいのリスクや著作権の問題、関連する法律や倫理的な課題についても学べる機会を設けましょう。 特に、生成AIが悪用されやすいフィッシング詐欺やソーシャルエンジニアリングなどの手法については、具体例を交えながら周知徹底し、不審なメッセージや指示に対して冷静に対応できる力を育てます。 こうした取り組みが、企業全体のセキュリティレベルを底上げするカギとなります。 最近では、社員教育の一貫として、標的型メール訓練を取り入れる企業が増えています。 標的型メール訓練の流れや得られる効果などは、以下の記事で詳しく解説していますので参考にしてください。 >>いまさら聞けない標的型メール訓練とは?実施の流れと効果を高める3つのポイントを解説 3.プロンプト監視とログ管理を導入する 生成AIを安全に運用するためには、入力内容や利用履歴を記録・監視するシステムの構築が欠かせません。 なぜなら、「誰が・いつ・どのような情報を入力したか」を把握できれば、誤入力や不正利用を早期に発見できるからです。 たとえば、機密情報や個人情報の誤入力を防ぐには、DLP(データ損失防止)ツールの導入や入力前のチェックリスト活用といった技術的・組織的対策が有効です。 また、生成物についても公開前に事実確認や著作権・倫理面のチェックを行うことで、トラブルを未然に防げます。 さらに、定期的にログを確認し、異常な挙動や不適切な利用がないかを監視することが、企業のセキュリティ強化へつながります。 4.Microsoft Purview DSPM for AIでAI利用のリスクを可視化・管理 Microsoftには、生成AIを安全に活用するためのセキュリティツール「Microsoft Purview Data Security Posture Management (DSPM) for AI」があります。 この仕組みを利用すると、CopilotやChatGPTなどの生成AIを通じて扱われるデータを自動的に検出・分類し、機密情報が漏えいする危険がないかを可視化できます。 DSPM for AIには、複雑な設定なしのワンクリックで効果を発揮するセキュリティポリシーが用意されています。 どの従業員が、どのAIサービスに、どのようなデータを入力しているのかをレポート化できるため、「AIの見える化」と「自動防御」を同時に実現できるのが特徴です。 DSPM for AIを活用すれば、企業はAI利用によるデータ流出のリスクを事前に把握し、問題が起きる前に検知・修復する仕組みを構築できます。 つまり、AIを安全かつ効率的に活用したい企業にとって、DSPM for AIは今後欠かせないセキュリティ基盤といえます。 5.アクセス制御とデータ暗号化 生成AI環境の安全性を保つには、アクセス権限の適切な管理とデータの暗号化が重要です。 まず、「誰に、どの範囲の権限を与えるか」を明確にし、業務に必要な最小限の権限だけを付与します。 これにより、不正利用や情報の持ち出しリスクを大幅に減らせます。 また、入力データや作成したコンテンツは暗号化して保存・送信することで、外部からの盗み見や改ざんを防止できます。 とくにクラウド上で生成AIを利用する場合は、通信経路の暗号化や暗号鍵の適切な管理が欠かせません。 一方で、アクセスの仕組み自体を強化する方法として有効なのが「Azure AD 条件付きアクセス(Microsoft Entra ID 条件付きアクセス)」の導入です。 ユーザーのデバイス、場所、アプリ、リスクレベルなどの情報をもとに、アクセスを自動的に制御できます。 たとえば、社外からのアクセス時のみ多要素認証を求めるなど、リスクに応じた柔軟なポリシー設定が可能です。 データを守る「暗号化」と、アクセス経路を守る「条件付きアクセス」は、それぞれ役割は異なりますが、どちらも安全なAI環境を実現するうえで欠かせない対策です。 両者を組み合わせることで、より強固なセキュリティ体制を築くことができます。 6.アカウントの制御と監視 生成AIを安全に活用するには、アカウント制御・監視も欠かせません。 業務用と個人用のアカウントを分けて分け、利用者ごとに明確に管理することで、公私混同による情報漏えいを防げます。 さらに、「誰が、いつ、どのように使ったか」を追跡・把握する仕組みを整えれば、不審な操作や不正アクセスの早期発見にもつながります。 先述したアクセス制御が「権限を与える前の防御」であるのに対し、アカウント制御と監視は「利用中・利用後の異常を検知する防御」です。 この2つを組み合わせることで、より強固なセキュリティ体制を築くことが可能です。 個人ができる生成AIセキュリティ対策 生成AIは便利な一方で、個人の使い方次第で情報漏えいやトラブルを引き起こすリスクもあります。 企業側の対策だけでなく、利用者一人ひとりがリスクを正しく理解し、安全な使い方を意識することが大切です。 ここでは、個人が日常的に徹底すべき運用ルールを紹介します。 機密情報・個人情報を入力しない 氏名や住所、電話番号、メールアドレス、クレジットカード情報など、個人を特定できる情報は絶対に生成AIに入力してはいけません。 もちろん、会社の機密情報や取引先の重要データも同様です。 これらは生成AIの学習やサービス提供企業のサーバーに保存される可能性があり、入力すれば情報漏えいのリスクが高まります。 安全に利用するために、機密情報や個人情報は慎重に取り扱いましょう。 内容のファクトチェック 生成AIが出力する情報には誤りや偽情報、偏った内容が含まれることがあります。 生成AIは大量のデータから「もっともらしい」文章を作りますが、その正確性は保証されません。 回答をそのまま信用せず、必ず複数の信頼できる情報源を確認する習慣をつけましょう。 サービスの利用規約・プライバシーポリシーの確認 生成AIを使う前には、必ずそのサービスの利用規約やプライバシーポリシーを確認しましょう。 特に、入力した情報の取り扱いや、学習データとして再利用されるかどうかは重要なポイントです。 サービスによっては、ユーザーの入力内容を今後の学習に活用する場合があり、知らないうちに機密情報を提供してしまう恐れがあります。 不明点や不安がある場合は利用を控え、信頼できるサービスを選びましょう。 公私のアカウント・端末を分けて使う 生成AIを使用するときは、業務用と個人用のアカウントや端末を分けて使うべきです。 これは、従業員一人ひとりが守るべき運用ルールです。 もし業務情報を私用のアカウントに入力してしまうと、意図せず情報漏えいが発生するリスクがあります。 特に同じ環境で公私混同すると、管理が曖昧になりやすく、セキュリティ事故の原因となりがちです。 安全な運用のために、アカウントや端末を明確に分け、情報の扱いをきちんと区別しましょう。 生成AI導入時のガイドライン策定ポイント 生成AIガイドラインとは、AIの利用や運用に関する倫理的・技術的・法的なルールや、推奨される運用方法をまとめた指針です。 企業は生産性の向上を目指しながらも、情報漏えいや誤情報の拡散といったリスクを最小限に抑える必要があります。 国内では、以下のような公的・業界団体による指針がすでに公開されています。 デジタル庁「テキスト生成AI利活用におけるリスクへの対策ガイドブック(α版)」 一般社団法人ディープラーニング協会「生成AIの利用ガイドライン」 情報処理推進機構(IPA)「テキスト生成Ai導入・運用ガイドライン」 これらを参考にしつつ、自社の業務内容や方針に合わせたガイドラインを策定・運用することが重要です。 なお、情報漏えいが起きた際の損害賠償については、以下の記事を参考にしてください。 >>情報漏えいによる損害賠償の実態とは?相場と事例まとめ まとめ 生成AIの導入は業務効率化を大きく進めますが、その一方で情報漏えい、誤情報、著作権侵害、サイバー攻撃といった多くのセキュリティリスクを伴います。 企業には、明確なガイドライン策定や社員教育、プロンプト監視、アクセス制御とデータ暗号化、アカウント制御・監視といった対策をしっかり講じることが求められます。 こうしたリスクに対応するには、自社だけでなく専門組織によるセキュリティ監視を取り入れることも有効です。 アイネットテクノロジーズが提供する「Modern SOC Service」は、お客様環境のMicrosoft 365における脅威対策や各種アラートに、24時間365日体制で対応するサービスです。 誤検知の有無や影響度を判断し、想定される被害と対応策まで通知します。 さらに、MSOCによる内部不正検知では、退退職予定者の行動を調査・分析し、情報流出につながる「接近・入手・隠蔽・流出」といった行動をスコアリングすることで、情報漏えいリスクから企業を守ります。 生成AI導入に伴うセキュリティリスクを最小限に抑えるために、SOCサービスの導入をぜひご検討ください。 >>Modern SOC Serviceの詳細はこちら

Modern SOC(MSOC)サービスのご紹介
皆さん、こんにちは。 アイネットテクノロジーズ 丸田です。 企業の皆様は普段どのような監視・分析サービスを利用いただいておりますでしょうか。 当社では、主に Microsoft 365 E5に含まれる Defender 製品群を相関的に分析し対応を行う、Modern SOC(MSOC)サービスを提供しております。 SOCとMSSと言う用語をご存じでしょうか。 SOCとは、Security Operation Center の略で、ネットワーク機器やサーバー、セキュリティ機器のログを監視、検知したアラートを分析し、対策を講じる専門の組織です。一方でMSSとは、SOCの対象となっているネットワーク機器やサーバー、セキュリティ機器のセキュリティ運用を加えた、セキュリティ運用管理を実施するサービスです。 大きな違いは、SOCから通知された対策や対応はお客様担当者が実施しますが、MSSでは、被害を最小化するため攻撃手法に応じた一次対応から恒久対応までMSSで実施するところにあります。 SOC/MSSサービスの内容については、事業者によって様々なものとなりますが、当社のModern SOC(MSOC)サービスは、MSSサービスをご提供させていただいており、サービスのご契約後に監視と並行して、運用設計も実施させていただいております。 【主な流れ】 運用コンサルティング(オプション) ↓ ご契約 ↓ 監視準備 ※監視アカウントご準備、連絡方法/連絡先の確認etc ↓ 監視開始 ↓ 運用設計 ※インシデント発生時の体制、障害発生時の体制etc ↓ 運用開始(適宜チューニング) 運用設計を実施させていただくことで、お客様毎に異なる運用に合せた最適なセキュリティ運用を実施することが可能です。 例えば近年コミュニケーションツールとして、メールではなくチャットツールを利用している企業が多くなっているため、通報やシステム利用者様との連絡をチャットツールで行うといった対応が可能となっております。 さて、この業界に詳しい皆様には釈迦に説法かもしれませんが、Microsoft 365 のセキュリティ製品群であるMicrosoft Defender 製品は、多層防御を前提としています。Modern SOC(MSOC)サービスでは、複数製品の相関分析を実施しています。単一製品で検知したアラート内容から正しくインシデントと判断することはできないためです。 可能性の一つとして調査・分析のきっかけにはなりますが、誤検知・過検知であることがほとんどです。 この誤検知・過検知を早期に判断するために必要なのが相関分析です。 相関分析を行うことで、インシデントが発生している可能性が高いお客様へ迅速に連絡が行えるため、結果として人的リソースの最適化にもつながり生産性向上が見込めます。そのため、Modern SOC(MSOC)サービスでは、基本的には必ず、複数製品をスコープ(監視範囲)とさせていただき相関分析を実施しています。 以下、スコープと体制の一例また、クラウド製品とはいえシステム障害は必ず発生します。この場合、他社様ではサービス対象外として復旧まで待機していることが多いようですが、当社ではクラウド事業者への問い合わせも代行させていただくサービスメニューなどもございます。 是非、お気軽にお問い合わせください。 株式会社アイネットテクノロジーズ info@inet-tech.jp

1/29 企業法務×弁護士カンファレンスレポート
皆さん、こんにちは。 アイネットテクノロジーズ 上口裕樹です。 2024年1月29日(月)Business & Law 合同会社様主催のカンファレンスに参加してきました! カンファレンスの詳細については先日投稿しているこちらのブログをご参照ください。 https://www.inet-technologys.com/blog/2422 法務に関連する内容が中心でしたが、参加企業は100社以上と中々盛況な印象でした。 当社からは、Microsoft Purview を活用した コンプライアンスSOC の紹介をさせていただきました。 イベントスペースと登壇者(ゼネラルマネージャー:丸田崇志)の様子の一部をご紹介します。 登壇後、どのように対策を進めるべきか?どのように運用を行うべきか?等々、多数の企業様からお問合せやご相談をいただいております。 本ブログを閲覧いただいている企業の皆様はいかがでしょうか。セキュリティ対策は進んでいるものの、 コンプラインス対策は思うように進んでいない。そんなお悩みを当社は解決することが可能です。 対策方法については、You Tube でも配信しています。 -Microsoft Purview による情報漏洩対策 -Microsoft Purview リスクマネジメント編 この他にも様々な支援が可能です。 ぜひ、一度ご相談ください。 株式会社アイネットテクノロジーズ info@inet-tech.jp
TELEPHONE
MAIL FORM
