Теневой ИИ представляет собой растущие риски потери данных и безопасности для предприятий

HomeNews* Многие организации заблокировали доступ к публичным инструментам ИИ, но этот подход оказался неэффективным для предотвращения утечек данных.

  • Zscaler ThreatLabz сообщила о 36-кратном увеличении трафика корпоративного ИИ и машинного обучения в 2024 году, отслеживая более 800 уникальных ИИ приложений в использовании.
  • Сотрудники часто находят неофициальные способы использования инструментов ИИ, создавая «Теневой ИИ», который ускользает от мониторинга безопасности.
  • Компаниям необходимо иметь возможность в реальном времени отслеживать использование ИИ и риски, а не только функции блокировки, чтобы разрабатывать более умные политики, используя принципы нулевого доверия.
  • Подходы, такие как предотвращение потери данных, изоляция браузера и направление пользователей к безопасным, одобренным инструментам ИИ, могут способствовать производительности при защите конфиденциальной информации. Организации по всему миру начали блокировать публичные генеративные AI-приложения после их широкого распространения в конце 2022 года из-за опасений по поводу утечки конфиденциальных данных. Однако компании теперь обнаруживают, что блокировка доступа не остановила сотрудников от использования этих AI-инструментов, согласно исследованию Zscaler ThreatLabz.
  • Реклама - ThreatLabz заявила, что в 2024 году они проанализировали в 36 раз больше трафика AI и машинного обучения, чем в предыдущем году, выявив более 800 различных AI-приложений, используемых в корпоративной среде. Сотрудники часто используют личные электронные почты, мобильные устройства или скриншоты, чтобы обойти ограничения, что приводит к "Теневому AI" — неконтролируемому использованию генеративных AI-инструментов.

В отчете подчеркивается, что блокировка AI-приложений создает лишь слепую зону, а не настоящую безопасность. “Блокировка неподтвержденных AI-приложений может создать видимость того, что использование упало до нуля… но на самом деле ваша организация не защищена; она просто не видит, что на самом деле происходит,” отметила компания. Потеря данных может быть более серьезной с AI, чем с традиционным обменом файлами, поскольку чувствительная информация может быть включена в публичные AI-модели без возможности удаления.

Zscaler** рекомендует сначала установить видимость, а затем внедрять политики, согласованные с нулевым доверием — моделью безопасности, которая требует проверки для каждого пользователя и устройства. Их инструменты могут определять, к каким приложениям и кем осуществляется доступ в режиме реального времени. Это позволяет организациям разрабатывать контекстно-ориентированные политики, такие как использование изоляции браузера или перенаправление пользователей к утвержденным решениям ИИ, управляемым локально.

Инструменты защиты данных компании зафиксировали более 4 миллионов инцидентов, когда пользователи пытались отправить конфиденциальную информацию — такие как финансовые записи, личные данные, исходный код или медицинская информация — в AI-приложения. Эти попытки были заблокированы их технологией предотвращения потери данных.

Эксперты компании Zscaler предполагают, что сбалансированный подход — предоставление сотрудникам безопасного доступа к ИИ при поддержании надежной защиты данных — позволит организациям ответственно внедрять ИИ. Более подробную информацию о их решениях в области безопасности можно найти на сайте zscaler.com/security.

Предыдущие статьи:

  • Dogecoin упал на 6% на фоне публичной ссоры Илона Маска и Дональда Трампа
  • Биткойн поднимается выше 100 тыс. долларов на фоне опасений по поводу долгов США, поддержки Трампа и Маска
  • FIFA Rivals запускается 12 июня с Adidas, NFT карточками игроков
  • Законодательная комиссия Великобритании предложила наднациональные правила для криптовалютных споров
  • Преференции "Stride" компании MicroStrategy вызывают дебаты о мусорных облигациях
  • Реклама -
Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить