L'IA d'ombre pose des risques croissants de perte de données et de sécurité pour les entreprises.

HomeNews* De nombreuses organisations ont bloqué l'accès aux outils d'IA publics, mais cette approche s'est révélée inefficace pour prévenir les fuites de données.

  • Zscaler ThreatLabz a signalé une augmentation de 36 fois du trafic des entreprises en IA et en apprentissage automatique en 2024, suivant plus de 800 applications IA uniques en cours d'utilisation.
  • Les employés trouvent souvent des moyens non officiels d'utiliser des outils d'IA, créant ainsi de l'"IA fantôme" qui échappe à la surveillance de sécurité.
  • Les entreprises ont besoin d'une visibilité en temps réel sur l'utilisation de l'IA et les risques, pas seulement de capacités de blocage, pour élaborer des politiques plus intelligentes en utilisant des principes de zéro confiance.
  • Des approches comme la prévention de la perte de données, l'isolation du navigateur et l'orientation des utilisateurs vers des outils d'IA sécurisés et approuvés peuvent permettre la productivité tout en protégeant les informations sensibles. Les organisations du monde entier ont commencé à bloquer les applications publiques d'IA générative après leur adoption massive à la fin de 2022 en raison de préoccupations concernant l'exposition de données sensibles. Cependant, les entreprises constatent maintenant que bloquer l'accès n'a pas empêché les employés d'utiliser ces outils d'IA, selon des recherches de Zscaler ThreatLabz.
  • Publicité - ThreatLabz a déclaré qu'en 2024, ils ont analysé 36 fois plus de trafic d'IA et d'apprentissage automatique que l'année précédente, identifiant plus de 800 applications d'IA différentes utilisées dans des environnements d'entreprise. Les employés utilisent souvent des e-mails personnels, des appareils mobiles ou des captures d'écran pour contourner les restrictions, ce qui donne lieu à « Shadow AI » — l'utilisation non surveillée d'outils d'IA générative.

Le rapport souligne que le blocage des applications d’IA ne crée qu’un angle mort, plutôt qu’une véritable sécurité. "Le blocage des applications d’IA non approuvées peut donner l’impression que l’utilisation est tombée à zéro... Mais en réalité, votre organisation n’est pas protégée ; C’est juste aveugle à ce qui se passe réellement", a noté la société. La perte de données peut être plus grave avec l’IA qu’avec le partage de fichiers traditionnel, car des informations sensibles peuvent être incorporées dans des modèles d’IA publics sans aucun moyen de les supprimer.

Zscaler recommande d'établir d'abord la visibilité, puis de mettre en œuvre des politiques alignées sur le zéro-trust — un modèle de sécurité qui nécessite une vérification pour chaque utilisateur et chaque appareil. Leurs outils peuvent identifier quelles applications sont accessibles et par qui en temps réel. Cela permet aux organisations de développer des politiques basées sur le contexte, telles que l'utilisation de l'isolation du navigateur ou la redirection des utilisateurs vers des solutions d'IA approuvées gérées sur site.

Les outils de protection des données de l'entreprise ont détecté plus de 4 millions d'incidents où des utilisateurs ont tenté d'envoyer des informations sensibles—telles que des dossiers financiers, des données personnelles, du code source ou des informations médicales—à des applications d'IA. Ces tentatives ont été bloquées par leur technologie de prévention des pertes de données.

Les experts de Zscaler suggèrent qu'une approche équilibrée—permettant aux employés d'accéder à l'IA de manière sécurisée tout en maintenant une protection des données solide—permettra aux organisations d'adopter l'IA de manière responsable. Plus de détails sur leurs solutions de sécurité peuvent être trouvés sur zscaler.com/security.

Articles Précédents:

  • Le Dogecoin chute de 6 % au milieu de la querelle publique entre Elon Musk et Donald Trump
  • Le Bitcoin dépasse 100K $ au milieu des craintes concernant la dette américaine, soutien de Trump et Musk
  • FIFA Rivals lancera le 12 juin avec Adidas, cartes de joueurs NFT
  • La Commission du droit du Royaume-Uni propose des règles supranationales pour les litiges liés aux cryptomonnaies
  • Les actions privilégiées "Stride" de MicroStrategy suscitent un débat sur les obligations à haut rendement
  • Publicité -
Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)