影子人工智能帶來了日益嚴重的企業數據丟失和安全風險

首頁新聞* 許多組織封鎖了對公共人工智能工具的訪問,但這種方法在防止數據泄露方面證明是無效的。

  • Zscaler ThreatLabz 報告稱,2024 年企業 AI 和機器學習流量增長了 36 倍,追蹤到使用的 800 多個獨特 AI 應用。
  • 員工常常找到非官方的方式使用AI工具,從而創建“影子AI”,逃避安全監控。
  • 公司需要對AI使用和風險進行實時可見性,而不僅僅是阻止能力,以便利用零信任原則制定更智能的政策。
  • 數據丟失防護、瀏覽器隔離以及引導用戶使用安全、批準的AI工具等方法能夠在保護敏感信息的同時提高生產力。 全球各地的組織在2022年底廣泛採用公共生成性AI應用後,因對敏感數據泄露的擔憂而開始封鎖這些應用。然而,根據Zscaler ThreatLabz的研究,公司發現封鎖訪問並沒有阻止員工使用這些AI工具。
  • 廣告 - ThreatLabz 表示,在 2024 年,他們分析的 AI 和機器學習流量比去年多出 36 倍,識別出在企業環境中使用的超過 800 種不同的 AI 應用程序。員工通常使用個人電子郵件、移動設備或截圖來規避限制,導致 "影子 AI" — 對生成性 AI 工具的未監控使用。

報告強調,阻止人工智能應用只會造成盲點,而不是實際的安全。“阻止未經批準的人工智能應用可能會使使用量看起來下降到零……但實際上,您的組織並沒有受到保護;它只是對實際發生的事情視而不見,”公司指出。與傳統文件共享相比,人工智能可能導致的數據丟失更爲嚴重,因爲敏感信息可能被納入公共人工智能模型中,而沒有辦法移除。

Zscaler 建議首先建立可見性,然後實施與零信任對齊的政策——這是一種要求對每個用戶和設備進行驗證的安全模型。他們的工具可以實時識別哪些應用程序正在被訪問以及由誰訪問。這使得組織能夠制定基於上下文的政策,例如使用瀏覽器隔離或將用戶重定向到本地管理的批準的 AI 解決方案。

該公司的數據保護工具檢測到超過400萬起用戶試圖將敏感信息(例如財務記錄、個人數據、原始碼或醫療信息)發送至AI應用的事件。這些嘗試被他們的數據丟失防護技術阻止。

Zscaler 的專家建議,一種平衡的方法——在保持強大數據保護的同時賦予員工安全的 AI 訪問權限——將使組織能夠負責任地採用 AI。有關他們的安全解決方案的更多細節,請訪問 zscaler.com/security.

之前的文章:

  • 狗狗幣在埃隆·馬斯克和唐納德·特朗普的公開爭吵中下跌6%
  • 比特幣在美國債務擔憂、特朗普與馬斯克的支持下突破$100K
  • FIFA Rivals 將於 6 月 12 日與 Adidas、NFT 球員卡一起推出
  • 英國法律委員會提議針對加密爭議的超國家規則
  • MicroStrategy的“Stride”優先股引發垃圾債券辯論
  • 廣告 -
查看原文
本頁面內容僅供參考,非招攬或要約,也不提供投資、稅務或法律諮詢。詳見聲明了解更多風險披露。
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)