AIGC セキュリティ: Microsoft Copilot のデータ漏洩リスクの防止

Microsoft Copilot は、地球上で最も強力な生産性ツールの 1 つとして知られています。
Copilot は、Microsoft 365 アプリケーション (Word、Excel、PowerPoint、Teams、Outlook など) のすべてに組み込まれている人工知能アシスタントです。マイクロソフトの夢は、日々の単調な仕事をなくし、人間が創造的な問題解決者になることに集中できるようにすることです。

マイクロソフトのコパイロット 地球上で最も強力な生産性ツールの 1 つとして知られています。

Copilot は、Microsoft 365 アプリケーション (Word、Excel、PowerPoint、Teams、Outlook など) のすべてに組み込まれている人工知能アシスタントです。マイクロソフトの夢は、日々の単調な仕事をなくし、人間が創造的な問題解決者になることに集中できるようにすることです。

Copilot は、これまでに 365 で作業したすべてのものにアクセスできるという点で、ChatGPT や他の AI ツールとは異なります。 Copilot は、ドキュメント、プレゼンテーション、電子メール、カレンダー、メモ、連絡先からデータを即座に検索して編集します。

これは情報セキュリティーチームの問題。 Copilot は、ユーザーがアクセスできるすべての機密データにアクセスできますが、これは多くの場合多すぎます。平均して、10% 社の M365 データはすべての従業員に公開されています。

Copilot は、迅速に生成することもできます。新しい機密データ。AI 革命が起こる前は、人間のデータの作成および共有能力は、データを保護する能力をはるかに上回っていました。データ侵害の傾向を見てみましょう。生成人工知能火は灯油で消火された。

生成 AI 全体に関して言えば、モデル中毒、幻覚、ディープフェイクなど、解明すべきことがたくさんあります。ただし、この記事では特に次の点に焦点を当てます。データセキュリティチームが安全な Copilot ロールアウトを確保する方法についても説明します。

Microsoft 365 Copilot の使用例#

M365 のようなコラボレーション スイートを使用した生成 AI のユースケースは無限です。非常に多くの IT チームとセキュリティ チームが早期アクセスを獲得して展開計画を準備したいと考えている理由は簡単にわかります。生産性が大幅に向上します。

たとえば、空の Word 文書を開いて、OneNote ページ、PowerPoint プレゼンテーション、その他の Office 文書を含むターゲット データ セットに基づいて、クライアントへの提案書を作成するよう Copilot に依頼できます。わずか数秒で完全な提案書が得られます。

AIGC セキュリティ: Microsoft Copilot のデータ漏洩リスクの防止

Microsoft がイベント中に挙げたその他の例は次のとおりです。

  • Copilot は Teams 会議に参加し、議論されている内容をリアルタイムで要約し、アクションアイテムをキャプチャし、会議で未解決のままになっている問題を通知します。
  • Outlook の Copilot は、受信トレイの並べ替え、電子メールの優先順位付け、トピックの要約、応答の生成に役立ちます。
  • Excel の Copilot は生データを分析し、洞察、傾向、推奨事項を提供します。

Microsoft 365 Copilot の仕組み#

Copilot プロンプトを処理する方法の概要を次に示します。

  • ユーザーは Word、Outlook、PowerPoint などのアプリケーションにプロンプトを入力します。
  • ユーザーの M365 権限に基づく Microsoftユーザーのビジネスコンテキストを収集します。
  • ヒントは LLM (GPT4 など) に送信され、応答が生成されます。
  • Microsoft は後処理を担当する AI チェックを実行します。
  • Microsoft は応答を生成し、コマンドを M365 アプリケーションに送り返します。
マイクロソフト副操縦士
画像出典: Microsoft

Microsoft 365 コパイロット セキュリティモデル#

Microsoft にとって、生産性とセキュリティの間には常に極度の緊張関係がありました。

これは、コロナウイルスの流行中に、IT チームが基盤となるセキュリティ モデルがどのように機能するか、組織の M365 アクセス許可、グループ、リンク ポリシーのステータスがどのようなものであるかを最初に完全に理解せずに、Microsoft Teams を迅速に展開したときに実証されました。

良いニュース:#

  • テナントの隔離。Copilot は、現在のユーザーの M365 テナントからのデータのみを使用します。 AI ツールは、ユーザーがゲストである可能性がある他のテナントからのデータや、テナント間同期が設定されている可能性のあるテナントからのデータを表示しません。
  • トレーニングの限界。副操縦士しません任意のビジネス データを使用して、すべてのテナントが使用する基盤となる LLM で Copilot をトレーニングします。あなた必要なし他のテナントの他のユーザーへの応答に独自のデータが表示されることを心配してください。

悪いニュース:#

  • 権限。Copilot は、各ユーザーが少なくとも表示権限を持っているすべての組織データを表示します。
  • ラベル。Copilot によって生成されたコンテンツしませんCopilot が応答を取得するファイルの MPIP ラベルを継承します。
  • 人類。副操縦士の回答は、100% が本物であるか安全であることを保証するものではなく、AI が生成したコンテンツを確認する責任は人間にある必要があります。

悪いニュースを一つずつ取り上げていきましょう。

権限#

企業が Microsoft 365 で最小限の権限を簡単に強制できる場合は、ユーザーがアクセスできるアクセス許可のみを Copilot に付与することをお勧めします。

Microsoft は Copilot データ セキュリティに関するドキュメントで次のように述べています。

「SharePoint などの Microsoft 365 サービスで利用可能なアクセス許可モデルを使用して、適切なユーザーまたはグループが組織内の適切なコンテンツに適切にアクセスできるようにすることが重要です。」

出典: Microsoft 365 Copilot のデータ、プライバシー、セキュリティ

しかし、ほとんどの組織が最小限の権限を大幅に満たしていないことは経験からわかっています。 Microsoft 独自の Cloud Permissions Risk State Report の統計をいくつか見てみましょう。

マイクロソフト副操縦士

この状況は、Varonis 氏が Microsoft 365 を使用している企業に対して毎年数千件のデータ リスク評価を行っているときに見たものと一致します。私たちのレポート「The Big SaaS Data Exposure」では、平均的な M365 テナントには次のような特徴があることがわかりました。

  • 4,000 万以上の固有の権限
  • 113,000 以上の機密レコードを公開共有
  • 27,000 以上の共有リンク

なぜこのようなことが起こるのでしょうか? Microsoft 365 のアクセス許可は非常に複雑です。ユーザーがデータにアクセスするあらゆる方法を考えてみましょう。

  • 直接的なユーザー権限
  • Microsoft 365 グループのアクセス許可
  • SharePoint ローカル権限 (カスタム レベルあり)
  • ゲストアクセス
  • 外部アクセス
  • パブリック・アクセス
  • リンク アクセス (誰でも、組織全体、直接、ゲスト)

さらに悪いことに、権限は主に IT チームやセキュリティ チームではなく、エンド ユーザーが握っています。

ラベル#

Microsoft は、DLP ポリシーを適用し、暗号化を適用し、データ侵害を幅広く防止するために機密ラベルに大きく依存しています。ただし、実際には、ラベルを役割を果たす特に機密ラベルの適用を人間に依存している場合は困難です。

Microsoft は、ラベル付けとブロックをデータの究極のセーフティ ネットとしてバラ色の絵を描いています。現実はさらに暗いシナリオを明らかにしました。人間がデータを作成すると、ラベルが遅れたり、古くなったりすることがよくあります。

データのブロックまたは暗号化はワークフローに摩擦を加える可能性があり、ラベル付けテクノロジは特定のファイル タイプに限定されます。組織が持つラベルが多いほど、ユーザーが混乱する可能性が高くなります。これは特に大規模な組織に当てはまります。

AI が正確で自動的に更新されるタグを必要とする桁違いに多くのデータを生成できるようになると、タグベースのデータ保護の有効性は確実に低下します。

私のラベルは大丈夫ですか?#

Varonis は、スキャン、検出、修復を通じて組織の Microsoft 機密ラベルを検証し、改善できます。

  • タグのない機密文書
  • 間違ったラベルが付いた機密ファイル
  • 機密ラベルが付いた非機密ファイル

人類#

人工知能は人間を怠惰にするでしょう。 GPT4 のような LLM によって生成されたコンテンツは、優れているだけでなく、素晴らしいものです。多くの場合、速度と質量は人間の能力をはるかに超えています。その結果、人々は AI が安全かつ正確に対応することを盲目的に信頼するようになりました。

私たちは、Copilot がクライアント向けに提案書を作成し、まったく異なるクライアントに属する機密データが含まれているという実際のシナリオを見てきました。ユーザーが簡単に閲覧した後 (または閲覧しなかった場合)、「送信」をクリックすると、プライバシーまたはデータ侵害に直面することになります。

テナントに Copilot のセキュリティを準備する#

Copilotの立ち上げ時前にデータ セキュリティ体制を理解することが重要です。 Copilot の一般提供が開始されたため、セキュリティ制御を実装するのに最適な時期です。

Varonis は、リスクをリアルタイムに表示し、最小限の特権を自動的に適用する機能を提供するデータ セキュリティ プラットフォームを使用して、数千の Microsoft 365 顧客を保護しています。

Copilot を使用すると、実質的に手作業を必要とせずに、最大のセキュリティ リスクを解決できるようお手伝いします。 Varonis for Microsoft 365 を使用すると、次のことが可能になります。

  • AI によって生成されたすべての機密コンテンツを自動的に検出して分類します。
  • MPIP ラベルが正しく適用されることを自動的に保証します。
  • 最小限の権限を自動的に適用します。
  • M365 内の機密データを継続的に監視し、異常な動作に警告して対応します。

元記事はChief Security Officerによるもので、転載の際はhttps://cncso.com/jp/preventing-risk-of-data-leakage-from-microsoft-copilot.html。

のように (3)
前の 2023年12月5日午後9時23分
2023年12月7日午前8時19分

関連する提案