Berita Rumah* Banyak organisasi memblokir akses ke alat AI publik, tetapi pendekatan ini terbukti tidak efektif dalam mencegah kebocoran data.
Zscaler ThreatLabz melaporkan peningkatan 36 kali lipat dalam lalu lintas AI dan pembelajaran mesin perusahaan pada tahun 2024, melacak lebih dari 800 aplikasi AI unik yang digunakan.
Karyawan sering menemukan cara tidak resmi untuk menggunakan alat AI, menciptakan "Shadow AI" yang menghindari pemantauan keamanan.
Perusahaan memerlukan visibilitas waktu nyata ke dalam penggunaan AI dan risiko, bukan hanya kemampuan pemblokiran, untuk membangun kebijakan yang lebih cerdas dengan menggunakan prinsip zero-trust.
Pendekatan seperti pencegahan kehilangan data, isolasi browser, dan mengarahkan pengguna ke alat AI yang aman dan disetujui dapat meningkatkan produktivitas sambil melindungi informasi sensitif.
Organisasi di seluruh dunia mulai memblokir aplikasi AI generatif publik setelah adopsi luasnya pada akhir 2022 karena kekhawatiran tentang paparan data sensitif. Namun, perusahaan kini menemukan bahwa memblokir akses tidak menghentikan karyawan dari penggunaan alat AI ini, menurut penelitian dari Zscaler ThreatLabz.
Iklan - ThreatLabz menyatakan bahwa pada tahun 2024, mereka menganalisis lalu lintas AI dan pembelajaran mesin 36 kali lebih banyak dibandingkan tahun sebelumnya, mengidentifikasi lebih dari 800 aplikasi AI berbeda yang digunakan dalam lingkungan perusahaan. Karyawan sering menggunakan email pribadi, perangkat seluler, atau tangkapan layar untuk menghindari pembatasan, yang mengakibatkan "Shadow AI" — penggunaan alat AI generatif yang tidak terpantau.
Laporan tersebut menekankan bahwa memblokir aplikasi AI hanya menciptakan titik buta, bukan keamanan yang sebenarnya. “Memblokir aplikasi AI yang tidak disetujui mungkin membuat penggunaan tampak turun menjadi nol… tetapi kenyataannya, organisasi Anda tidak terlindungi; itu hanya buta terhadap apa yang sebenarnya terjadi,” kata perusahaan tersebut. Kehilangan data bisa lebih parah dengan AI daripada dengan berbagi file tradisional, karena informasi sensitif dapat dimasukkan ke dalam model AI publik tanpa cara untuk menghapusnya.
Zscaler merekomendasikan untuk membangun visibilitas terlebih dahulu, kemudian menerapkan kebijakan yang selaras dengan zero-trust — model keamanan yang memerlukan verifikasi untuk setiap pengguna dan perangkat. Alat mereka dapat mengidentifikasi aplikasi mana yang diakses dan oleh siapa secara real time. Ini memungkinkan organisasi untuk mengembangkan kebijakan berbasis konteks, seperti menggunakan isolasi browser atau mengalihkan pengguna ke solusi AI yang disetujui dan dikelola secara lokal.
Alat perlindungan data perusahaan mendeteksi lebih dari 4 juta insiden di mana pengguna mencoba mengirim informasi sensitif—seperti catatan keuangan, data pribadi, kode sumber, atau informasi medis—ke aplikasi AI. Upaya ini diblokir oleh teknologi pencegahan kehilangan data mereka.
Para ahli di Zscaler menyarankan bahwa pendekatan yang seimbang—memberdayakan karyawan dengan akses AI yang aman sambil mempertahankan perlindungan data yang kuat—akan memungkinkan organisasi untuk mengadopsi AI secara bertanggung jawab. Detail lebih lanjut tentang solusi keamanan mereka dapat ditemukan di zscaler.com/security.
Artikel Sebelumnya:
Dogecoin Turun 6% Di Tengah Perseteruan Publik Elon Musk dan Donald Trump
Bitcoin Melonjak Melebihi $100K Di Tengah Ketakutan Utang AS, Dukungan Trump & Musk
FIFA Rivals Diluncurkan 12 Juni Dengan Adidas, Kartu Pemain NFT
Komisi Hukum Inggris Mengusulkan Aturan Supranasional untuk Sengketa Kripto
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
Shadow AI Menyebabkan Risiko Kehilangan Data Dan Keamanan Perusahaan Yang Semakin Besar
Berita Rumah* Banyak organisasi memblokir akses ke alat AI publik, tetapi pendekatan ini terbukti tidak efektif dalam mencegah kebocoran data.
Laporan tersebut menekankan bahwa memblokir aplikasi AI hanya menciptakan titik buta, bukan keamanan yang sebenarnya. “Memblokir aplikasi AI yang tidak disetujui mungkin membuat penggunaan tampak turun menjadi nol… tetapi kenyataannya, organisasi Anda tidak terlindungi; itu hanya buta terhadap apa yang sebenarnya terjadi,” kata perusahaan tersebut. Kehilangan data bisa lebih parah dengan AI daripada dengan berbagi file tradisional, karena informasi sensitif dapat dimasukkan ke dalam model AI publik tanpa cara untuk menghapusnya.
Zscaler merekomendasikan untuk membangun visibilitas terlebih dahulu, kemudian menerapkan kebijakan yang selaras dengan zero-trust — model keamanan yang memerlukan verifikasi untuk setiap pengguna dan perangkat. Alat mereka dapat mengidentifikasi aplikasi mana yang diakses dan oleh siapa secara real time. Ini memungkinkan organisasi untuk mengembangkan kebijakan berbasis konteks, seperti menggunakan isolasi browser atau mengalihkan pengguna ke solusi AI yang disetujui dan dikelola secara lokal.
Alat perlindungan data perusahaan mendeteksi lebih dari 4 juta insiden di mana pengguna mencoba mengirim informasi sensitif—seperti catatan keuangan, data pribadi, kode sumber, atau informasi medis—ke aplikasi AI. Upaya ini diblokir oleh teknologi pencegahan kehilangan data mereka.
Para ahli di Zscaler menyarankan bahwa pendekatan yang seimbang—memberdayakan karyawan dengan akses AI yang aman sambil mempertahankan perlindungan data yang kuat—akan memungkinkan organisasi untuk mengadopsi AI secara bertanggung jawab. Detail lebih lanjut tentang solusi keamanan mereka dapat ditemukan di zscaler.com/security.
Artikel Sebelumnya: