AIGC安全:預防Microsoft Copilot 資料外洩風險

Microsoft Copilot 被稱為地球上最強大的生產力工具之一。
Copilot 是一款人工智慧助手,內建於您的每個Microsoft 365 應用程式(Word、Excel、PowerPoint、Teams、Outlook 等)中。微軟的夢想是消除日常工作中的苦差事,讓人類專注於成為創造性的問題解決者。

Microsoft Copilot 被稱為地球上最強大的生產力工具之一。

Copilot 是一款人工智慧助手,內建於您的每個Microsoft 365 應用程式(Word、Excel、PowerPoint、Teams、Outlook 等)中。微軟的夢想是消除日常工作中的苦差事,讓人類專注於成為創造性的問題解決者。

Copilot 與ChatGPT 和其他人工智慧工具的不同之處在於,它可以存取您在365 中處理過的所有內容。 Copilot 可以立即搜尋和編譯來自文件、簡報、電子郵件、日曆、筆記和聯絡人的資料。

這就是資訊安全團隊的問題。 Copilot 可以存取用戶可以存取的所有敏感數據,這通常太多了。平均而言,公司10% 的M365 資料開放給所有員工。

Copilot 還可以快速產生必須受到保護的全新敏感資料。在人工智慧革命之前,人類創建和共享資料的能力遠遠超過了保護資料的能力。只需看看資料外洩趨勢即可。生成式人工智慧為這場大火澆上了煤油。

就整個生成式人工智慧而言,有很多東西需要解開:模型中毒、幻覺、深度偽造等。不過,在這篇文章中,我將特別關注資料安全以及您的團隊如何確保安全的Copilot 推出。

Microsoft 365 Copilot 用例#

生成式人工智慧與M365 等協作套件的用例是無限的。很容易理解為什麼如此多的IT 和安全團隊迫切希望獲得早期存取權並準備他們的推出計劃。生產力的提升將是巨大的。

例如,您可以開啟空白Word 文檔,並要求Copilot 根據目標資料集為客戶起草提案,其中可能包括OneNote 頁面、PowerPoint 簡報和其他Office 文件。只需幾秒鐘,您就會得到一個完整的提案。

AIGC安全:預防Microsoft Copilot 資料外洩風險

以下是微軟在發表會上給出的更多範例:

  • Copilot 可以加入您的Teams 會議並即時總結正在討論的內容、捕捉行動項目並告訴您會議中哪些問題未解決。
  • Outlook 中的Copilot 可以幫助您分類收件匣、確定電子郵件的優先順序、總結主題並為您產生回覆。
  • Excel 中的Copilot 可以分析原始數據並為您提供見解、趨勢和建議。

Microsoft 365 Copilot 的工作原理#

以下是如何處理Copilot 提示的簡單概述:

  • 使用者在Word、Outlook 或PowerPoint 等應用程式中輸入提示。
  • Microsoft根據使用者的M365 權限收集用戶的業務上下文。
  • 提示被傳送到LLM(如GPT4)以產生回應。
  • Microsoft 執行負責後處理的AI 檢查。
  • Microsoft 產生回應並命令傳回M365 應用程式。
微軟副駕駛
圖片來源:微軟

Microsoft 365 Copilot 安全模型#

對於Microsoft,生產力和安全性之間始終存在著極端的緊張關係。

在冠狀病毒期間,IT 團隊迅速部署Microsoft Teams,而沒有先完全了解底層安全模型的工作原理或組織的M365 權限、群組和連結策略的狀況如何,這一點就得到了體現。

好消息:#

  • 租戶隔離。Copilot 僅使用目前使用者的M365 租用戶中的資料。 AI 工具不會顯示來自使用者可能是訪客的其他租戶的數據,也不會顯示來自可能設定跨租戶同步的任何租戶的數據。
  • 訓練邊界。Copilot不會使用您的任何業務數據來培訓Copilot 為所有租戶使用的基礎LLM。您不必擔心您的專有資料會在對其他租戶中的其他使用者的回應中出現。

壞消息:#

  • 權限。Copilot 顯示各個使用者至少具有查看權限的所有組織資料。
  • 標籤。Copilot 產生的內容不會繼承Copilot 從中取得回應的檔案的MPIP 標籤。
  • 人類。副駕駛的回答不能保證100% 真實或安全;人類必須負責審查人工智慧產生的內容。

讓我們一一接受壞消息。

權限#

如果公司能夠輕鬆地在Microsoft 365 中強制執行最小權限,則僅向Copilot 授予使用者可以存取的權限將是一個好主意。

微軟在其Copilot 資料安全文件中指出:

「重要的是,您使用Microsoft 365 服務中提供的權限模型(例如SharePoint)來幫助確保正確的使用者或群組對組織內的正確內容具有正確的存取權限。”

來源:Microsoft 365 Copilot 的資料、隱私和安全

然而,我們憑經驗知道,大多數組織都遠遠未達到最低限度的特權。只需看一下Microsoft 自己的雲端權限風險狀態報告中的一些統計資料即可。

微軟副駕駛

此圖與Varonis 每年為使用Microsoft 365 的公司執行數千次資料風險評估時所看到的情況相符。在我們的報告《SaaS 數據大曝光》中,我們發現M365 租戶平均具有:

  • 40+ 百萬個獨特權限
  • 公開分享113K+ 敏感記錄
  • 27K+ 分享鏈接

為什麼會出現這種情況? Microsoft 365 權限極為複雜。只需考慮一下用戶存取資料的所有方式:

  • 直接使用者權限
  • Microsoft 365 群組權限
  • SharePoint 本機權限(具有自訂等級)
  • 訪客訪問
  • 外部訪問
  • 公共訪問
  • 連結訪問(任何人、組織範圍、直接、訪客)

更糟的是,權限主要掌握在最終使用者手中,而不是IT 或安全團隊。

標籤#

Microsoft 嚴重依賴敏感度標籤來執行DLP 策略、應用加密並廣泛防止資料外洩。然而,在實踐中,讓標籤發揮作用很困難,特別是如果您依賴人類來應用敏感度標籤。

微軟描繪了一幅將標籤和屏蔽作為資料最終安全網的美好圖景。現實揭示了更慘淡的情景。當人類創建數據時,標籤經常滯後或變得過時。

阻止或加密資料可能會增加工作流程的阻力,並且標籤技術僅限於特定的文件類型。組織擁有的標籤越多,使用者就越容易感到困惑。對於大型組織來說,這種情況尤其嚴重。

當我們讓人工智慧產生更多數量級的需要準確和自動更新標籤的資料時,基於標籤的資料保護的功效肯定會降低。

我的標籤還好嗎?#

Varonis 可以透過掃描、發現和修復來驗證和改進組織的Microsoft 敏感度標籤:

  • 沒有標籤的敏感文件
  • 標籤不正確的敏感文件
  • 帶有敏感標籤的非敏感文件

人類#

人工智慧會讓人類變得懶惰。像GPT4 這樣的法學碩士產生的內容不僅好,而且非常棒。在許多情況下,速度和品質遠遠超過人類的能力。結果,人們開始盲目相信人工智慧能夠做出安全、準確的反應。

我們已經看到過現實場景,其中Copilot 為客戶起草提案,並包含屬於完全不同客戶的敏感資料。用戶快速瀏覽(或沒有瀏覽)後點擊“發送”,現在您面臨著隱私或資料外洩的情況。

讓您的租戶為Copilot 做好安全準備#

在推出Copilot之前了解您的資料安全狀況至關重要。現在Copilot 已普遍可用,現在是實施安全控制的好時機。

Varonis 透過我們的資料安全平台保護數千名Microsoft 365 客戶,該平台提供即時風險視圖以及自動強制執行最低權限的能力。

我們可以協助您透過Copilot 解決最大的安全風險,幾乎無需手動操作。使用Varonis for Microsoft 365,您可以:

  • 自動發現並分類所有人工智慧產生的敏感內容。
  • 自動確保正確套用MPIP 標籤。
  • 自動強制執行最小權限。
  • 持續監控M365 中的敏感資料並對異常行為發出警報和回應。

原文文章,作者:首席安全官,如若轉載,請註明出處:https://cncso.com/tw/preventing-risk-of-data-leakage-from-microsoft-copilot.html

讚! (3)
以前的 2023年12月5日下午9:23
下一個 2023年12月7日上午8:19

相關推薦