تشكل Shadow AI مخاطر متزايدة لفقدان البيانات والأمان في المؤسسات

الصفحة الرئيسيةالأخبار* العديد من المؤسسات قامت بحظر الوصول إلى أدوات الذكاء الاصطناعي العامة، لكن هذه الطريقة أثبتت عدم فعاليتها في منع تسرب البيانات.

  • أبلغت Zscaler ThreatLabz عن زيادة بمقدار 36 ضعفًا في حركة مرور الذكاء الاصطناعي والتعلم الآلي في المؤسسات في عام 2024، حيث تتبع أكثر من 800 تطبيق ذكاء اصطناعي فريد قيد الاستخدام.
  • غالبًا ما يجد الموظفون طرقًا غير رسمية لاستخدام أدوات الذكاء الاصطناعي، مما ينشئ "ذكاء اصطناعي خفي" يتجاوز مراقبة الأمان.
  • تحتاج الشركات إلى رؤية في الوقت الفعلي لاستخدام الذكاء الاصطناعي والمخاطر، وليس فقط قدرات الحجب، لبناء سياسات أكثر ذكاءً باستخدام مبادئ الثقة صفر.
  • يمكن أن تمكن أساليب مثل منع فقدان البيانات، وعزلة المتصفح، وتوجيه المستخدمين إلى أدوات الذكاء الاصطناعي الآمنة والمapproved من تعزيز الإنتاجية مع حماية المعلومات الحساسة. بدأت المؤسسات في جميع أنحاء العالم في حظر تطبيقات الذكاء الاصطناعي التوليدي العامة بعد اعتمادها على نطاق واسع في أواخر عام 2022 بسبب مخاوف بشأن التعرض للبيانات الحساسة. ومع ذلك ، تجد الشركات الآن أن حظر الوصول لم يمنع الموظفين من استخدام أدوات الذكاء الاصطناعي هذه ، وفقا لبحث من ** Zscaler ThreatLabz **.
  • إعلان - ذكرت ThreatLabz أنه في عام 2024، قاموا بتحليل 36 مرة أكثر من حركة المرور المتعلقة بالذكاء الاصطناعي وتعلم الآلة مقارنة بالعام السابق، حيث تم تحديد أكثر من 800 تطبيق مختلف للذكاء الاصطناعي يُستخدم في بيئات المؤسسات. غالباً ما يستخدم الموظفون البريد الإلكتروني الشخصي والأجهزة المحمولة أو لقطات الشاشة للتغلب على القيود، مما يؤدي إلى "الذكاء الاصطناعي الخفي" - الاستخدام غير المراقب لأدوات الذكاء الاصطناعي التوليدية.

وأكد التقرير أن حظر تطبيقات الذكاء الاصطناعي يخلق فقط نقطة عمياء ، بدلا من الأمان الفعلي. * "قد يؤدي حظر تطبيقات الذكاء الاصطناعي غير المعتمدة إلى ظهور الاستخدام وكأنه ينخفض إلى الصفر ... لكن في الواقع ، مؤسستك ليست محمية. إنه مجرد أعمى عما يحدث بالفعل "، كما أشارت الشركة. يمكن أن يكون فقدان البيانات أكثر حدة مع الذكاء الاصطناعي منه مع مشاركة الملفات التقليدية ، حيث يمكن دمج المعلومات الحساسة في نماذج الذكاء الاصطناعي العامة دون أي طريقة للإزالة.

Zscaler توصي بإنشاء رؤية أولاً، ثم تنفيذ السياسات المتوافقة مع نموذج الثقة صفر — وهو نموذج أمني يتطلب التحقق من كل مستخدم وجهاز. يمكن لأدواتهم تحديد التطبيقات التي يتم الوصول إليها ومن قبل من في الوقت الفعلي. هذا يسمح للمنظمات بتطوير سياسات قائمة على السياق، مثل استخدام عزل المتصفح أو توجيه المستخدمين إلى حلول الذكاء الاصطناعي المعتمدة والمدارة محلياً.

اكتشفت أدوات حماية البيانات الخاصة بالشركة أكثر من 4 ملايين حادثة حاول فيها المستخدمون إرسال معلومات حساسة - مثل السجلات المالية، البيانات الشخصية، شفرة المصدر، أو المعلومات الطبية - إلى تطبيقات الذكاء الاصطناعي. تم حظر هذه المحاولات بواسطة تقنية منع فقدان البيانات الخاصة بهم.

يقترح الخبراء في Zscaler أن نهجًا متوازنًا - يمكّن الموظفين من الوصول الآمن إلى الذكاء الاصطناعي مع الحفاظ على حماية قوية للبيانات - سيسمح للمؤسسات بتبني الذكاء الاصطناعي بشكل مسؤول. يمكن العثور على مزيد من التفاصيل حول حلولهم الأمنية على zscaler.com/security.

مقالات سابقة:

  • دوجكوين ينخفض بنسبة 6% وسط الخلاف العام بين إيلون ماسك ودونالد ترامب
  • البيتكوين يتجاوز 100 ألف دولار وسط مخاوف من ديون الولايات المتحدة، دعم ترامب ومسك
  • تنطلق FIFA Rivals في 12 يونيو مع Adidas، بطاقات اللاعبين NFT
  • لجنة قانون المملكة المتحدة تقترح قواعد فوق وطنية للنزاعات المتعلقة بالعملات المشفرة
  • أثارت سندات "Stride" المفضلة لشركة MicroStrategy نقاشاً حول السندات ذات العائد المرتفع
  • إعلان -
شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت