Girişimciler girişim yapıyor, acemiler kurs alıyor, sanatçılar işsiz ama tuhaf bir gerçek var: AI'nın uygulamaya konulması büyük bir heyecanla gerçekleşiyor ama senaryo düşüş yolu değil, zar atma şeklinde ilerliyor.
Ayrıca, sektörün başlangıcında, bu zarın en önce düşen yüzü genellikle ya sarı ya da gri olur.
Sebebi çok basit, aşırı kâr motivasyonu doğuruyor, üstelik bir sektörün gelişim aşamasında her zaman birçok açık vardır. Bu verilerle durumu net bir şekilde görebiliriz:
Şu anda, MCP hizmet düğümlerinin %43'ünden fazlasında doğrulanmamış Shell çağrı yolları bulunmakta, dağıtımların %83'ünden fazlasında MCP (Model Context Protocol) yapılandırma açıkları mevcut; AI bileşen dağıtımlarının %88'i hiçbir tür koruma mekanizmasını etkinleştirmemiş; 150.000'den fazla Ollama gibi hafif AI dağıtım çerçevesi şu anda dünya genelinde kamuya açık olarak maruz kalmakta, 1 milyar dolardan fazla hesaplama gücü madencilik için ele geçirilmiş...
Daha da ironik olan, en akıllı büyük modelleri saldırmak için en basit yöntemlerin yeterli olmasıdır - yalnızca varsayılan olarak açık bir port, maruz kalmış bir YAML yapılandırma dosyası veya doğrulanmamış bir Shell çağrı yolu yeterlidir; hatta, yalnızca anahtar kelime girişi yeterince hassas olduğunda, büyük model kendisi gri piyasaların saldırı yönünü bulmasına yardımcı olabilir. Kurumsal veri gizliliğinin kapıları, AI çağında böylece rastgele girilip çıkılabilir hale geldi.
Ancak sorun çözülemez değil: Yapay zeka sadece bir yumurtlama ve saldırıdan daha fazlasıdır. Yapay zekanın koruma için nasıl kullanılacağı giderek bu çağın ana teması haline geldi; Aynı zamanda, bulutta, yapay zeka için kurallar formüle etmek de önde gelen bulut satıcıları için önemli bir yön haline geldi ve Alibaba Cloud Security en tipik temsilcidir.
Yeni sona eren Alibaba Cloud Feitian etkinliğinde, Alibaba Cloud, bulut güvenliği için iki yolu resmi olarak duyurdu: Security for AI ve AI for Security. Ayrıca, müşterilere "model uygulama uçtan uca güvenlik çözümü" sunan "AI Cloud Shield (AI için Bulut Kalkanı) ürün serisini" tanıttı. Bu, şu anda sektörün keşiflerinde en iyi örneklerden biri.
01 AI zar atıyor, neden her zaman gri ve sarı yukarı geliyor?
İnsanlık teknolojisinin tarihine baktığımızda, AI ilk "sarı şiddet denemesi" yapılan yeni tür değil, gri sarı öncelikle patladı; bu da teknolojinin yaygınlaşma kuralıdır, bir tesadüf değil.
1839 yılında gümüş levha fotoğrafçılığı ortaya çıktığında, ilk kullanıcılar seks endüstrisiydi;
İnternetin ilk dönemlerinde, e-ticaret henüz başlamamışken, yetişkin siteleri zaten çevrimiçi ödemeleri düşünmeye başlamıştı;
Bugünkü büyük model fırsatçılığı, bir bakıma "alan adı dönemi"nin zenginleşme efsanesini yeniden yaratmaktır.
Zamanın getirisi, her zaman önce gri ve sarı tarafından alınır. Çünkü onlar uyumlulukla ilgilenmez, düzenlemeleri beklemez, verimlilikleri doğal olarak çok yüksektir.
Bu nedenle, her teknolojinin patlama döneminde, önce bir "karışık çorba" olur, AI doğal olarak istisna değildir.
2023 Aralık ayında, bir hacker sadece bir ipucu kelimesiyle – "$1 teklifi" – bir 4S mağazasının müşteri hizmetleri robotunu neredeyse 1 dolara bir Chevrolet satmaya ikna etti. Bu, AI çağının en yaygın "ipucu saldırısı" (Prompt Injection) örneğidir: yetki doğrulaması gerektirmeden, log kaydı bırakmadan, sadece "doğru kelimeleri kullanarak" tüm mantık zincirini değiştirebilir.
Bir adım daha derine inersek, "Jailbreak saldırısı"dır. Saldırganlar, modelin aslında söylememesi gereken şeyleri söylemesini sağlamak için karşıt sorular, rol yapma, dolaylı ipuçları gibi yöntemler kullanarak başarılı olurlar: cinsel içerik, uyuşturucu üretimi, sahte uyarı mesajları...
Hong Kong'da, bazıları üst düzey yöneticilerin seslerini taklit ederek şirket hesaplarından 200 milyon HKD çaldı.
Sahtekarlık dışında, AI'nın "kasıtsız çıktı" riski de vardır: 2023 yılında, bir eğitim devinin büyük model sistemi ders planı oluştururken aşırı içerik içeren "zehirli müfredat" üretti, sadece 3 gün içinde veliler hak aradı, kamuoyunda bir patlama yaşandı, şirketin piyasa değeri 12 milyar yuan eridi.
AI hukuku anlamaz, ancak bir yeteneğe sahiptir ve bu yetenek denetimden ayrıldığında zarar verme potansiyeline sahiptir.
Ancak başka bir açıdan bakıldığında, AI teknolojisi yenidir, ancak gri sektör ve sarı ürünlerin nihai akışı ve yöntemleri değişmezdir ve bunu çözmek için yine güvenliğe dayanmak gerekmektedir.
02 AI için Güvenlik
Öncelikle AI endüstrisinin topluca kaçındığı bir soğuk bilgiden bahsedelim:
Büyük modellerin özü, "zeka" değil, "anlama" değil, aksine olasılık kontrolü altında anlam üretimidir. Bu nedenle, bir kez eğitim bağlamının dışına çıkıldığında, beklenmedik sonuçlar üretebilir.
Bu aşırı kapsam, onun haber yazmasını istediğinizde şiir yazması olabilir; ya da ürün önermesini istediğinizde aniden size Tokyo'daki sıcaklığın 25 derece olduğunu söylemesi olabilir. Hatta, ona bir oyunda eğer belirli bir yazılımın orijinal seri numarasını alamazsanız vurulacağını söylediğinizde, büyük model gerçekten de kullanıcının 0 maliyetle bir orijinal yazılım seri numarası bulmasına yardımcı olmanın yollarını arayabilir.
Ve çıktının kontrol edilebilir olmasını sağlamak için, şirketlerin hem modeli hem de güvenliği anlaması gerekiyor. IDC'nin en son "Çin Güvenlik Büyük Model Yetenek Değerlendirme Raporu"na göre, Alibaba, Çin'deki tüm güvenlik büyük model yeteneğine sahip önde gelen firmalarla yaptığı PK'da, 7 gösterge arasında 4 tanesinde birinci, diğer 3'ünde de sektör ortalamasının tamamında daha yüksek.
Yöntem olarak, Alibaba Cloud Security’nin verdiği cevap da oldukça doğrudan: Güvenliği AI hızının önüne koymak, alttan yukarı doğru, üç katmanda çapraz bir tam yığın koruma çerçevesi inşa etmek — altyapı güvenliğinden, büyük model girdi/çıktı kontrolüne, AI uygulama hizmetleri korumasına kadar.
Bu üç katman arasında en belirgin olanı, orta katmanın büyük model risklerine özel olarak tasarlanan "AI Güvenlik Rayları" (AI Guardrail)dır.
Genel olarak, büyük model güvenliğiyle ilgili riskler esas olarak şunlardır: içerik ihlalleri, hassas veri sızıntısı, prompt enjeksiyon saldırıları, model yanılsaması ve jailbreak saldırıları.
Bununla birlikte, geleneksel güvenlik çözümleri çoğunlukla "konuşan programlar" için değil, web için tasarlanmış genel amaçlı mimarilerdir ve doğal olarak büyük model uygulamalarına özgü riskleri doğru bir şekilde tanımlayamaz ve bunlara yanıt veremez. Oluşturulan içerik güvenliği, bağlam saldırısı savunması ve model çıktı güvenilirliği gibi ortaya çıkan sorunları ele almak daha da zordur. Daha da önemlisi, geleneksel çözümler, ayrıntılı kontrol yöntemlerinden ve görsel izlenebilirlik mekanizmalarından yoksundur ve bu da yapay zeka yönetişiminde büyük kör noktalara yol açar.
AI Guardrail'in gerçek gücü sadece "durabilir" değil, aynı zamanda önceden eğitilmiş bir büyük model, bir yapay zeka hizmeti veya çeşitli iş biçimlerinde bir yapay zeka aracısı yapıyor olsanız da, doğru risk tespiti ve aktif savunma yetenekleri sağlamak ve uyumluluk, güvenlik ve istikrar elde etmek için ne hakkında konuştuğunuzu ve büyük modelin ne ürettiğini bilir.
Özellikle, AI Guardrail üç tür senaryonun korunmasından sorumludur:
ꔷ Uyumluluğun alt satırı: Siyasi duyarlılık, pornografi ve kabalık, önyargı ve ayrımcılık ve kötü değerler gibi risk kategorilerini kapsayan, üretken yapay zekanın metin içeriği giriş ve çıktısının çok boyutlu bir uyumluluk incelemesini yapın, yapay zeka etkileşimi sırasında sızdırılabilecek özel verileri ve hassas bilgileri derinlemesine tespit edin, kişisel gizliliği ve kurumsal gizliliği içeren hassas içeriğin tanımlanmasını destekleyin ve yapay zeka tarafından oluşturulan içeriğin yasalara, düzenlemelere ve platform özelliklerine uygun olmasını sağlamak için dijital filigran tanımlaması sağlayın.
ꔷ Tehdit Savunması: Anahtar kelime saldırıları, kötü amaçlı dosya yükleme, kötü amaçlı URL bağlantıları gibi dış saldırı davranışlarına karşı gerçek zamanlı tespit ve engelleme sağlanarak AI uygulamalarının son kullanıcılarının risklerini azaltma imkanı sunar;
ꔷ Model sağlığı: AI modellerinin kendisinin istikrarı ve güvenilirliğine odaklanarak, model jailbreak'i, Prompt botları gibi sorunlara yönelik bir dizi tespit mekanizması oluşturulmuş, modellerin kötüye kullanımını, yanlış kullanımını veya kontrol edilemeyen çıktılar üretmesini önlemek için, AI sisteminin "bağışıklık savunması" inşa edilmiştir;
En dikkat çekici şey, AI Guardrail'in yukarıdaki çoklu algılama modüllerini basitçe bir araya getirmekle kalmayıp, modülleri bölmeden, para eklemeden veya ürünleri değiştirmeden gerçek bir HEPSİ BİR ARADA API elde etmesidir. Model girdi ve çıktı riskleri için müşterilerin ek ürün satın almasına gerek yoktur; Enjeksiyon riski, kötü amaçlı dosyalar, içerik uyumluluğu, halüsinasyonlar vb. gibi farklı model riskleri aynı üründe çözülebilir. Bir arabirim 10+ saldırı senaryosu türünü algılayabilir, 4 dağıtım yöntemini (API proxy, platform entegrasyonu, ağ geçidi erişimi ve WAF montajı), milisaniye düzeyinde yanıtı ve %99'a varan doğruluk oranıyla 1.000 düzeyinde eşzamanlı işlemeyi destekleyebilir.
Bu nedenle, AI Guardrail'ın gerçek anlamı, "model güvenliğini" "ürün yeteneğine" dönüştürmekte yatıyor; bir arayüz, bir güvenlik ekibinin yerini alıyor.
Elbette, büyük modeller havada asılı kalan bir kavram değildir, bu donanım ve kod üzerinde çalışan sistemdir ve üst katman uygulamalarını üstlenir. Altyapı güvenliği ve AI uygulama hizmetlerinin korunması için Alibaba Cloud güvenliği de tamamen güncellendi.
Altyapı katmanı, Alibaba Cloud Security bulut güvenlik merkeziyi tanıttı, temelinde AI-BOM, AI-SPM gibi ürünler var.
Özellikle, AI-BOM (AI Malzeme Listesi) ve AI-SPM (AI Güvenlik Durum Yönetimi) iki ana yetenek, sırasıyla "Hangi AI bileşenlerini yükledim" ve "Bu bileşenlerde ne kadar açık var" bu iki sorunu çözmektedir.
AI-BOM'un çekirdeği, dağıtım ortamındaki AI bileşenlerini tek bir çatı altında toplamaktır: Ray, Ollama, Mlflow, Jupyter, TorchServe gibi 30'dan fazla ana akım bileşeni, bir "AI yazılım malzeme listesi" oluşturur ve içindeki güvenlik zayıflıklarını ve bağımlılık açıklarını otomatik olarak tanımlar. Sorunlu varlıkları bulmak, artık manuel kontrolle değil, bulut yerel tarama ile yapılmaktadır.
AI-SPM'nin konumu daha çok "radar" gibidir: açıklar, port ifşası, kimlik bilgisi sızıntısı, düz metin yapılandırması, yetki aşımı gibi birçok boyuttan sistem güvenlik durumunu sürekli değerlendirir, dinamik olarak risk seviyeleri ve onarım önerileri sunar. Güvenliği "anlık uyum"dan "akış tarzı yönetişim"e dönüştürür.
Bir cümleyle özet: AI-BOM nerelerde yamanızın olabileceğini biliyor, AI-SPM nerelerde tekrar bir darbe alabileceğinizi biliyor, önlemleri hızla artırın.
AI uygulama koruma katmanı için Alibaba Cloud Güvenliği'nin temel ürünü WAAP (Web Uygulaması & API Koruması)dır.
Model çıktısı ne kadar akıllı olursa olsun, eğer giriş tamamen script istekleri, sahte Token'lar ve aşırı API kullanımıyla doluysa, birkaç saniyeden fazla dayanamaz. Alibaba WAAP (Web Uygulama & API Koruması) işte bu yüzden var. AI uygulamaları için "geleneksel Web sistemi" yaklaşımı yerine, özel AI bileşen açık kural seti, AI iş parmak izi kütüphanesi ve trafik profil sistemi sunar.
Örneğin: WAAP, Mlflow'un herhangi bir dosya yükleme, Ray hizmeti uzaktan komut yürütme gibi 50'den fazla bileşen açığını kapsıyor; yerleşik AI tarayıcı parmak izi veritabanı, her saat 10.000'den fazla yeni veri seti tarayıcı ve model değerlendirme aracını tanımlayabiliyor; API varlık tanıma fonksiyonu, şirket içinde hangi sistemin GPT arayüzünü açığa çıkardığını otomatik olarak keşfedebilir ve güvenlik ekibine "noktalar haritası" sağlar.
En önemlisi, WAAP ve AI Guardrail birbiriyle çelişmiyor, aksine tamamlayıcıdır: biri "kim geldiğine" bakar, diğeri "ne söylendiğine". Biri "kimlik doğrulayıcı" gibi, diğeri "davranış denetleyicisi" gibi. Bu, AI uygulamalarına bir tür "öz bağışıklık" yeteneği kazandırır - kötüleri durdurmanın ötesinde, "modelin kendisinin bozulmasına izin vermemek" için tanıma, izole etme, izleme ve karşı önlemler alır.
03 Güvenlik için AI
Zaten AI'nin hayata geçmesi bir zar atma işiyse, bazıları bununla fal bakıyorsa, bazıları ona aşk şiirleri yazdırıyorsa, bazıları da onu gri alanlarda kullanıyorsa, bu durumda bazı insanların bunu güvenlik için kullanması da şaşırtıcı değil.
Geçmişte, güvenli operasyonlar, her gün bir grup insanın bir yığın kırmızı ve yeşil ışık alarmına göz kulak olması ve gece gündüz devriye gezmesi gerekiyordu; gündüz, dünkü karmaşayı devralıyorlar, gece de sistemle nöbet tutuyorlardı.
Artık bunların hepsi AI tarafından yapılabilir. 2024'te, Alibaba Cloud güvenlik sistemi, Tongyi büyük modeline tamamen entegre olacak ve veri güvenliği, içerik güvenliği, iş güvenliği ve güvenlik operasyonlarını kapsayan AI yetenek kümeleri sunacak ve yeni bir slogan önerilecek: Protect at AI Speed.
Anlam çok açık: İş hızlı gider, risk daha hızlı, ama güvenlik bir adım daha hızlı olmalı.
AI kullanarak güvenliği sağlamak, aslında iki şey demektir: güvenlik operasyon verimliliğinin artırılması + güvenlik ürünlerinin akıllı hale getirilmesi.
Geleneksel güvenlik sistemlerinin en büyük sorunu "strateji güncellemelerinin gecikmesi"dir: saldırganlar değişti, kurallar değişmedi; uyarılar geldi, kimse anlamadı.
Büyük modellerin değişimi sağlamanın anahtarı, güvenlik sistemini kural odaklıdan model odaklıya dönüştürmektir. Bu, "AI anlama yeteneği + kullanıcı geri bildirimi" ile kapalı bir ekosistem inşa etmektir - AI, kullanıcı davranışını anlar → kullanıcı geri bildirimleri uyarı sonuçlarını iletir → model sürekli olarak eğitilir → tespit yeteneği giderek daha doğru hale gelir → döngü giderek daha kısa hale gelir → risk giderek daha zor saklanır; işte buna "veri uçurumu" denir:
İki avantajı vardır:
Bir yandan, bulut kiracılarının güvenlik operasyonu verimliliği iyileştirildi: Geçmişte, tehdit algılama genellikle verimsiz bir "büyük uyarılar + manuel tarama" modeli anlamına geliyordu. Günümüzde akıllı modelleme, kötü niyetli trafik, ana bilgisayara izinsiz giriş ve arka kapı komut dosyaları gibi anormal davranışları doğru bir şekilde tanımlar ve alarm isabet oranı büyük ölçüde iyileştirilir. Aynı zamanda, bertaraf bağlantısı etrafında, sistem otomatik bertaraf ile son derece hızlı yanıt arasındaki derin sinerjiyi fark etmiştir - konağın saflığı% 99'da sabittir ve akışın saflığı% 99,9'a yakındır. Şu anda, alarm olay türlerinin kapsama oranı %99'a ulaştı ve büyük modellerin kullanıcı kapsama oranı da %88'i aştı ve güvenlik operasyon ekibinin insan verimliliği benzeri görülmemiş bir şekilde ortaya çıktı.
Öte yandan, bulut güvenlik ürünlerinin yetenekleri hızla gelişiyor. Veri güvenliği katmanında ve iş güvenliği katmanında, yapay zekaya "ağ geçidi bekçisi" rolü emanet edilir: büyük modellerin yeteneğine dayanarak, buluttaki 800+ varlık verisi türünü otomatik olarak tanımlayabilir ve akıllıca duyarsızlaştırabilir ve şifreleyebilir. Yapılandırılmış verilere ek olarak, sistem ayrıca resimlerdeki kimlik numaraları ve sözleşme öğeleri gibi hassas bilgileri gerçek zamanlı olarak tanımlayabilen, sınıflandırabilen ve şifreleyebilen 30'dan fazla yerleşik belge ve görüntü tanıma modeline sahiptir. Genel veri işaretleme verimliliği 5 kat iyileştirildi ve tanıma doğruluğu oranı %95'e ulaştı, bu da gizlilik veri sızıntısı riskini büyük ölçüde azaltıyor.
Bir örnek vermek gerekirse: İçerik güvenliği senaryosunda, geleneksel yöntem insan incelemesi, etiketleme ve büyük ölçekli etiketleme eğitimiyle gerçekleştiriliyordu. Şimdi, Prompt mühendisliği ve anlamsal güçlendirme sayesinde, Alibaba etiketleme verimliliğini %100, belirsiz ifade tanıma oranını %73, görüntü içerik tanıma oranını %88, AI canlı yüz saldırı tespit doğruluğunu ise %99 artırmayı başardı.
Eğer flywheel AI ile insan deneyimini birleştirerek otonom kontrol sunuyorsa, o zaman akıllı asistan güvenlik personelinin çok yönlü yardımcısıdır.
Güvenlik operasyonları personelinin her gün karşılaştığı en yaygın soru şudur: Bu alarm ne anlama geliyor? Neden tetiklenir? Yanlış bir pozitif mi? Ne yapmalıyım? Geçmişte, bu sorunları kontrol etmek için günlüğü teslim etmeniz, geçmişi kontrol etmeniz, eski çalışanlara sormanız, iş emirleri düzenlemeniz ve teknik destek ayarlamanız gerekiyordu...... Şimdi, sadece bir cümle.
Ancak, akıllı asistanın işlevi sadece bir soru-cevap robotu değil, daha çok güvenlik alanında dikey bir Copilot gibidir. Beş ana çekirdek yeteneği şunları içerir:
Ürün Soru-Cevap Asistanı: Belirli bir işlevin nasıl yapılandırılacağına, bu stratejinin neden tetikleneceğine, hangi kaynakların koruma altına alınmadığına otomatik olarak yanıt verir, çok sayıda iş emri hizmetinin yerini alır;
Alarm açıklama uzmanı: Alarm numarasını girin, olay açıklamasını, saldırı zinciri izini, önerilen yanıt stratejisini otomatik olarak çıktı verin ve çok dilli çıktıyı destekleyin;
Güvenlik Olayı Geriye Dönük İnceleme Asistanı: Bir saldırı olayının tam zincirini otomatik olarak düzenler, zaman çizelgesi, saldırı yolu haritası ve sorumluluk belirleme önerileri oluşturur;
Rapor Üretici: Olay istatistikleri, müdahale geri bildirimleri, operasyonel etkiler içeren aylık/çeyrek/acil güvenlik raporlarını tek tıkla oluşturma, görselleştirilmiş dışa aktarma desteği ile.
Tüm diller desteği: Çince, İngilizce kapsandı, uluslararası versiyon Haziran ayında çevrimiçi olacak, yurtdışı ekiplerin kullanım alışkanlıklarına otomatik olarak uyum sağlayacak.
Bu "beş küçük şey" e önem vermeyin, şu ana kadar Alibaba'nın resmi verilerine göre: hizmet verilen kullanıcı sayısı 40.000'i geçti, kullanıcı memnuniyeti %99.81, alarm türleri %100 oranında kapsanıyor, prompt destek kapasitesi %1175 oranında arttı (FY24'e göre). Kısacası, gece vardiyasındaki yüksek performanslı çalışanı, rapor yazan stajyeri, alarmları işleyen mühendisi ve işi bilen güvenlik danışmanını tek bir API'de birleştiriyor ve bu yetenek sayesinde insan sadece karar veriyor, devriye atmıyor.
04 Epilog
Geçmişe baktığımızda, tarih asla "çığır açan teknolojiler" açısından yetersiz değildir; eksik olan, ikinci yılın coşkusunu sürdürebilen teknolojilerdir.
İnternet, P2P, blok zinciri, otonom sürüş... Her bir teknoloji patlaması döneminde "yeni altyapı" olarak adlandırıldı, ancak sonunda gerçekten altyapı haline gelenler, sadece "yönetim boşluğunu" geçebilen azınlıktır.
Günümüzdeki üretken AI benzer bir aşamada: bir yanda modeller çeşitleniyor, sermaye peşinden koşuyor ve uygulamalar katman katman gelişiyor; diğer yanda ise ipucu kelime enjeksiyonu, içerik aşımı, veri sızıntısı, model manipülasyonu, güvenlik açıkları sıkça görülüyor, sınırlar belirsizleşiyor ve sorumluluk odak kayması yaşıyor.
Ama AI, önceki teknolojilerden farklıdır. Sadece resim çizebilir, şiir yazabilir, program oluşturabilir, çeviri yapabilir, aynı zamanda insan dilini taklit edebilir, yargıda bulunabilir ve duyguları anlayabilir. Ancak tam da bu nedenle, AI'nın zayıflığı sadece kod hatalarından değil, insan doğasının yansımasından kaynaklanmaktadır. İnsanlar önyargılıdır, o da öğrenir; insanlar kolaylık peşindedir, o da sizin yerinize fırsatları değerlendirir.
Teknolojinin kendisinin sağladığı kolaylık, bu tür bir eşleştirmenin amplifikatörü gibidir: Geçmişteki BT sistemleri "kullanıcı yetkilendirmesi" gerektiriyordu, saldırılar sızma ile gerçekleşiyordu; şimdi büyük modeller sadece bir ipucu kelime enjekte ederek, seninle sohbet ederek sistem hatalarına ve gizlilik ihlallerine neden olabiliyor.
Elbette, "kusursuz" bir AI sistemi yoktur, bu bilim kurgu, mühendislik değil.
Tek cevap, güvenli bir modelle, güvensiz bir modeli korumaktır; akıllı bir sistemle, akıllı tehditlere karşı koymaktır - AI zar atıyor, Alibaba güvenli yüzü seçiyor.
The content is for reference only, not a solicitation or offer. No investment, tax, or legal advice provided. See Disclaimer for more risks disclosure.
Neden AI çağında, her zaman gri üretim ve pornografi en önce patlak veriyor?
Yazar: pump Geek
Girişimciler girişim yapıyor, acemiler kurs alıyor, sanatçılar işsiz ama tuhaf bir gerçek var: AI'nın uygulamaya konulması büyük bir heyecanla gerçekleşiyor ama senaryo düşüş yolu değil, zar atma şeklinde ilerliyor.
Ayrıca, sektörün başlangıcında, bu zarın en önce düşen yüzü genellikle ya sarı ya da gri olur.
Sebebi çok basit, aşırı kâr motivasyonu doğuruyor, üstelik bir sektörün gelişim aşamasında her zaman birçok açık vardır. Bu verilerle durumu net bir şekilde görebiliriz:
Şu anda, MCP hizmet düğümlerinin %43'ünden fazlasında doğrulanmamış Shell çağrı yolları bulunmakta, dağıtımların %83'ünden fazlasında MCP (Model Context Protocol) yapılandırma açıkları mevcut; AI bileşen dağıtımlarının %88'i hiçbir tür koruma mekanizmasını etkinleştirmemiş; 150.000'den fazla Ollama gibi hafif AI dağıtım çerçevesi şu anda dünya genelinde kamuya açık olarak maruz kalmakta, 1 milyar dolardan fazla hesaplama gücü madencilik için ele geçirilmiş...
Daha da ironik olan, en akıllı büyük modelleri saldırmak için en basit yöntemlerin yeterli olmasıdır - yalnızca varsayılan olarak açık bir port, maruz kalmış bir YAML yapılandırma dosyası veya doğrulanmamış bir Shell çağrı yolu yeterlidir; hatta, yalnızca anahtar kelime girişi yeterince hassas olduğunda, büyük model kendisi gri piyasaların saldırı yönünü bulmasına yardımcı olabilir. Kurumsal veri gizliliğinin kapıları, AI çağında böylece rastgele girilip çıkılabilir hale geldi.
Ancak sorun çözülemez değil: Yapay zeka sadece bir yumurtlama ve saldırıdan daha fazlasıdır. Yapay zekanın koruma için nasıl kullanılacağı giderek bu çağın ana teması haline geldi; Aynı zamanda, bulutta, yapay zeka için kurallar formüle etmek de önde gelen bulut satıcıları için önemli bir yön haline geldi ve Alibaba Cloud Security en tipik temsilcidir.
Yeni sona eren Alibaba Cloud Feitian etkinliğinde, Alibaba Cloud, bulut güvenliği için iki yolu resmi olarak duyurdu: Security for AI ve AI for Security. Ayrıca, müşterilere "model uygulama uçtan uca güvenlik çözümü" sunan "AI Cloud Shield (AI için Bulut Kalkanı) ürün serisini" tanıttı. Bu, şu anda sektörün keşiflerinde en iyi örneklerden biri.
01 AI zar atıyor, neden her zaman gri ve sarı yukarı geliyor?
İnsanlık teknolojisinin tarihine baktığımızda, AI ilk "sarı şiddet denemesi" yapılan yeni tür değil, gri sarı öncelikle patladı; bu da teknolojinin yaygınlaşma kuralıdır, bir tesadüf değil.
1839 yılında gümüş levha fotoğrafçılığı ortaya çıktığında, ilk kullanıcılar seks endüstrisiydi;
İnternetin ilk dönemlerinde, e-ticaret henüz başlamamışken, yetişkin siteleri zaten çevrimiçi ödemeleri düşünmeye başlamıştı;
Bugünkü büyük model fırsatçılığı, bir bakıma "alan adı dönemi"nin zenginleşme efsanesini yeniden yaratmaktır.
Zamanın getirisi, her zaman önce gri ve sarı tarafından alınır. Çünkü onlar uyumlulukla ilgilenmez, düzenlemeleri beklemez, verimlilikleri doğal olarak çok yüksektir.
Bu nedenle, her teknolojinin patlama döneminde, önce bir "karışık çorba" olur, AI doğal olarak istisna değildir.
2023 Aralık ayında, bir hacker sadece bir ipucu kelimesiyle – "$1 teklifi" – bir 4S mağazasının müşteri hizmetleri robotunu neredeyse 1 dolara bir Chevrolet satmaya ikna etti. Bu, AI çağının en yaygın "ipucu saldırısı" (Prompt Injection) örneğidir: yetki doğrulaması gerektirmeden, log kaydı bırakmadan, sadece "doğru kelimeleri kullanarak" tüm mantık zincirini değiştirebilir.
Bir adım daha derine inersek, "Jailbreak saldırısı"dır. Saldırganlar, modelin aslında söylememesi gereken şeyleri söylemesini sağlamak için karşıt sorular, rol yapma, dolaylı ipuçları gibi yöntemler kullanarak başarılı olurlar: cinsel içerik, uyuşturucu üretimi, sahte uyarı mesajları...
Hong Kong'da, bazıları üst düzey yöneticilerin seslerini taklit ederek şirket hesaplarından 200 milyon HKD çaldı.
Sahtekarlık dışında, AI'nın "kasıtsız çıktı" riski de vardır: 2023 yılında, bir eğitim devinin büyük model sistemi ders planı oluştururken aşırı içerik içeren "zehirli müfredat" üretti, sadece 3 gün içinde veliler hak aradı, kamuoyunda bir patlama yaşandı, şirketin piyasa değeri 12 milyar yuan eridi.
AI hukuku anlamaz, ancak bir yeteneğe sahiptir ve bu yetenek denetimden ayrıldığında zarar verme potansiyeline sahiptir.
Ancak başka bir açıdan bakıldığında, AI teknolojisi yenidir, ancak gri sektör ve sarı ürünlerin nihai akışı ve yöntemleri değişmezdir ve bunu çözmek için yine güvenliğe dayanmak gerekmektedir.
02 AI için Güvenlik
Öncelikle AI endüstrisinin topluca kaçındığı bir soğuk bilgiden bahsedelim:
Büyük modellerin özü, "zeka" değil, "anlama" değil, aksine olasılık kontrolü altında anlam üretimidir. Bu nedenle, bir kez eğitim bağlamının dışına çıkıldığında, beklenmedik sonuçlar üretebilir.
Bu aşırı kapsam, onun haber yazmasını istediğinizde şiir yazması olabilir; ya da ürün önermesini istediğinizde aniden size Tokyo'daki sıcaklığın 25 derece olduğunu söylemesi olabilir. Hatta, ona bir oyunda eğer belirli bir yazılımın orijinal seri numarasını alamazsanız vurulacağını söylediğinizde, büyük model gerçekten de kullanıcının 0 maliyetle bir orijinal yazılım seri numarası bulmasına yardımcı olmanın yollarını arayabilir.
Ve çıktının kontrol edilebilir olmasını sağlamak için, şirketlerin hem modeli hem de güvenliği anlaması gerekiyor. IDC'nin en son "Çin Güvenlik Büyük Model Yetenek Değerlendirme Raporu"na göre, Alibaba, Çin'deki tüm güvenlik büyük model yeteneğine sahip önde gelen firmalarla yaptığı PK'da, 7 gösterge arasında 4 tanesinde birinci, diğer 3'ünde de sektör ortalamasının tamamında daha yüksek.
Yöntem olarak, Alibaba Cloud Security’nin verdiği cevap da oldukça doğrudan: Güvenliği AI hızının önüne koymak, alttan yukarı doğru, üç katmanda çapraz bir tam yığın koruma çerçevesi inşa etmek — altyapı güvenliğinden, büyük model girdi/çıktı kontrolüne, AI uygulama hizmetleri korumasına kadar.
Bu üç katman arasında en belirgin olanı, orta katmanın büyük model risklerine özel olarak tasarlanan "AI Güvenlik Rayları" (AI Guardrail)dır.
Genel olarak, büyük model güvenliğiyle ilgili riskler esas olarak şunlardır: içerik ihlalleri, hassas veri sızıntısı, prompt enjeksiyon saldırıları, model yanılsaması ve jailbreak saldırıları.
Bununla birlikte, geleneksel güvenlik çözümleri çoğunlukla "konuşan programlar" için değil, web için tasarlanmış genel amaçlı mimarilerdir ve doğal olarak büyük model uygulamalarına özgü riskleri doğru bir şekilde tanımlayamaz ve bunlara yanıt veremez. Oluşturulan içerik güvenliği, bağlam saldırısı savunması ve model çıktı güvenilirliği gibi ortaya çıkan sorunları ele almak daha da zordur. Daha da önemlisi, geleneksel çözümler, ayrıntılı kontrol yöntemlerinden ve görsel izlenebilirlik mekanizmalarından yoksundur ve bu da yapay zeka yönetişiminde büyük kör noktalara yol açar.
AI Guardrail'in gerçek gücü sadece "durabilir" değil, aynı zamanda önceden eğitilmiş bir büyük model, bir yapay zeka hizmeti veya çeşitli iş biçimlerinde bir yapay zeka aracısı yapıyor olsanız da, doğru risk tespiti ve aktif savunma yetenekleri sağlamak ve uyumluluk, güvenlik ve istikrar elde etmek için ne hakkında konuştuğunuzu ve büyük modelin ne ürettiğini bilir.
Özellikle, AI Guardrail üç tür senaryonun korunmasından sorumludur:
ꔷ Uyumluluğun alt satırı: Siyasi duyarlılık, pornografi ve kabalık, önyargı ve ayrımcılık ve kötü değerler gibi risk kategorilerini kapsayan, üretken yapay zekanın metin içeriği giriş ve çıktısının çok boyutlu bir uyumluluk incelemesini yapın, yapay zeka etkileşimi sırasında sızdırılabilecek özel verileri ve hassas bilgileri derinlemesine tespit edin, kişisel gizliliği ve kurumsal gizliliği içeren hassas içeriğin tanımlanmasını destekleyin ve yapay zeka tarafından oluşturulan içeriğin yasalara, düzenlemelere ve platform özelliklerine uygun olmasını sağlamak için dijital filigran tanımlaması sağlayın.
ꔷ Tehdit Savunması: Anahtar kelime saldırıları, kötü amaçlı dosya yükleme, kötü amaçlı URL bağlantıları gibi dış saldırı davranışlarına karşı gerçek zamanlı tespit ve engelleme sağlanarak AI uygulamalarının son kullanıcılarının risklerini azaltma imkanı sunar;
ꔷ Model sağlığı: AI modellerinin kendisinin istikrarı ve güvenilirliğine odaklanarak, model jailbreak'i, Prompt botları gibi sorunlara yönelik bir dizi tespit mekanizması oluşturulmuş, modellerin kötüye kullanımını, yanlış kullanımını veya kontrol edilemeyen çıktılar üretmesini önlemek için, AI sisteminin "bağışıklık savunması" inşa edilmiştir;
En dikkat çekici şey, AI Guardrail'in yukarıdaki çoklu algılama modüllerini basitçe bir araya getirmekle kalmayıp, modülleri bölmeden, para eklemeden veya ürünleri değiştirmeden gerçek bir HEPSİ BİR ARADA API elde etmesidir. Model girdi ve çıktı riskleri için müşterilerin ek ürün satın almasına gerek yoktur; Enjeksiyon riski, kötü amaçlı dosyalar, içerik uyumluluğu, halüsinasyonlar vb. gibi farklı model riskleri aynı üründe çözülebilir. Bir arabirim 10+ saldırı senaryosu türünü algılayabilir, 4 dağıtım yöntemini (API proxy, platform entegrasyonu, ağ geçidi erişimi ve WAF montajı), milisaniye düzeyinde yanıtı ve %99'a varan doğruluk oranıyla 1.000 düzeyinde eşzamanlı işlemeyi destekleyebilir.
Bu nedenle, AI Guardrail'ın gerçek anlamı, "model güvenliğini" "ürün yeteneğine" dönüştürmekte yatıyor; bir arayüz, bir güvenlik ekibinin yerini alıyor.
Elbette, büyük modeller havada asılı kalan bir kavram değildir, bu donanım ve kod üzerinde çalışan sistemdir ve üst katman uygulamalarını üstlenir. Altyapı güvenliği ve AI uygulama hizmetlerinin korunması için Alibaba Cloud güvenliği de tamamen güncellendi.
Altyapı katmanı, Alibaba Cloud Security bulut güvenlik merkeziyi tanıttı, temelinde AI-BOM, AI-SPM gibi ürünler var.
Özellikle, AI-BOM (AI Malzeme Listesi) ve AI-SPM (AI Güvenlik Durum Yönetimi) iki ana yetenek, sırasıyla "Hangi AI bileşenlerini yükledim" ve "Bu bileşenlerde ne kadar açık var" bu iki sorunu çözmektedir.
AI-BOM'un çekirdeği, dağıtım ortamındaki AI bileşenlerini tek bir çatı altında toplamaktır: Ray, Ollama, Mlflow, Jupyter, TorchServe gibi 30'dan fazla ana akım bileşeni, bir "AI yazılım malzeme listesi" oluşturur ve içindeki güvenlik zayıflıklarını ve bağımlılık açıklarını otomatik olarak tanımlar. Sorunlu varlıkları bulmak, artık manuel kontrolle değil, bulut yerel tarama ile yapılmaktadır.
AI-SPM'nin konumu daha çok "radar" gibidir: açıklar, port ifşası, kimlik bilgisi sızıntısı, düz metin yapılandırması, yetki aşımı gibi birçok boyuttan sistem güvenlik durumunu sürekli değerlendirir, dinamik olarak risk seviyeleri ve onarım önerileri sunar. Güvenliği "anlık uyum"dan "akış tarzı yönetişim"e dönüştürür.
Bir cümleyle özet: AI-BOM nerelerde yamanızın olabileceğini biliyor, AI-SPM nerelerde tekrar bir darbe alabileceğinizi biliyor, önlemleri hızla artırın.
AI uygulama koruma katmanı için Alibaba Cloud Güvenliği'nin temel ürünü WAAP (Web Uygulaması & API Koruması)dır.
Model çıktısı ne kadar akıllı olursa olsun, eğer giriş tamamen script istekleri, sahte Token'lar ve aşırı API kullanımıyla doluysa, birkaç saniyeden fazla dayanamaz. Alibaba WAAP (Web Uygulama & API Koruması) işte bu yüzden var. AI uygulamaları için "geleneksel Web sistemi" yaklaşımı yerine, özel AI bileşen açık kural seti, AI iş parmak izi kütüphanesi ve trafik profil sistemi sunar.
Örneğin: WAAP, Mlflow'un herhangi bir dosya yükleme, Ray hizmeti uzaktan komut yürütme gibi 50'den fazla bileşen açığını kapsıyor; yerleşik AI tarayıcı parmak izi veritabanı, her saat 10.000'den fazla yeni veri seti tarayıcı ve model değerlendirme aracını tanımlayabiliyor; API varlık tanıma fonksiyonu, şirket içinde hangi sistemin GPT arayüzünü açığa çıkardığını otomatik olarak keşfedebilir ve güvenlik ekibine "noktalar haritası" sağlar.
En önemlisi, WAAP ve AI Guardrail birbiriyle çelişmiyor, aksine tamamlayıcıdır: biri "kim geldiğine" bakar, diğeri "ne söylendiğine". Biri "kimlik doğrulayıcı" gibi, diğeri "davranış denetleyicisi" gibi. Bu, AI uygulamalarına bir tür "öz bağışıklık" yeteneği kazandırır - kötüleri durdurmanın ötesinde, "modelin kendisinin bozulmasına izin vermemek" için tanıma, izole etme, izleme ve karşı önlemler alır.
03 Güvenlik için AI
Zaten AI'nin hayata geçmesi bir zar atma işiyse, bazıları bununla fal bakıyorsa, bazıları ona aşk şiirleri yazdırıyorsa, bazıları da onu gri alanlarda kullanıyorsa, bu durumda bazı insanların bunu güvenlik için kullanması da şaşırtıcı değil.
Geçmişte, güvenli operasyonlar, her gün bir grup insanın bir yığın kırmızı ve yeşil ışık alarmına göz kulak olması ve gece gündüz devriye gezmesi gerekiyordu; gündüz, dünkü karmaşayı devralıyorlar, gece de sistemle nöbet tutuyorlardı.
Artık bunların hepsi AI tarafından yapılabilir. 2024'te, Alibaba Cloud güvenlik sistemi, Tongyi büyük modeline tamamen entegre olacak ve veri güvenliği, içerik güvenliği, iş güvenliği ve güvenlik operasyonlarını kapsayan AI yetenek kümeleri sunacak ve yeni bir slogan önerilecek: Protect at AI Speed.
Anlam çok açık: İş hızlı gider, risk daha hızlı, ama güvenlik bir adım daha hızlı olmalı.
AI kullanarak güvenliği sağlamak, aslında iki şey demektir: güvenlik operasyon verimliliğinin artırılması + güvenlik ürünlerinin akıllı hale getirilmesi.
Geleneksel güvenlik sistemlerinin en büyük sorunu "strateji güncellemelerinin gecikmesi"dir: saldırganlar değişti, kurallar değişmedi; uyarılar geldi, kimse anlamadı.
Büyük modellerin değişimi sağlamanın anahtarı, güvenlik sistemini kural odaklıdan model odaklıya dönüştürmektir. Bu, "AI anlama yeteneği + kullanıcı geri bildirimi" ile kapalı bir ekosistem inşa etmektir - AI, kullanıcı davranışını anlar → kullanıcı geri bildirimleri uyarı sonuçlarını iletir → model sürekli olarak eğitilir → tespit yeteneği giderek daha doğru hale gelir → döngü giderek daha kısa hale gelir → risk giderek daha zor saklanır; işte buna "veri uçurumu" denir:
İki avantajı vardır:
Bir yandan, bulut kiracılarının güvenlik operasyonu verimliliği iyileştirildi: Geçmişte, tehdit algılama genellikle verimsiz bir "büyük uyarılar + manuel tarama" modeli anlamına geliyordu. Günümüzde akıllı modelleme, kötü niyetli trafik, ana bilgisayara izinsiz giriş ve arka kapı komut dosyaları gibi anormal davranışları doğru bir şekilde tanımlar ve alarm isabet oranı büyük ölçüde iyileştirilir. Aynı zamanda, bertaraf bağlantısı etrafında, sistem otomatik bertaraf ile son derece hızlı yanıt arasındaki derin sinerjiyi fark etmiştir - konağın saflığı% 99'da sabittir ve akışın saflığı% 99,9'a yakındır. Şu anda, alarm olay türlerinin kapsama oranı %99'a ulaştı ve büyük modellerin kullanıcı kapsama oranı da %88'i aştı ve güvenlik operasyon ekibinin insan verimliliği benzeri görülmemiş bir şekilde ortaya çıktı.
Öte yandan, bulut güvenlik ürünlerinin yetenekleri hızla gelişiyor. Veri güvenliği katmanında ve iş güvenliği katmanında, yapay zekaya "ağ geçidi bekçisi" rolü emanet edilir: büyük modellerin yeteneğine dayanarak, buluttaki 800+ varlık verisi türünü otomatik olarak tanımlayabilir ve akıllıca duyarsızlaştırabilir ve şifreleyebilir. Yapılandırılmış verilere ek olarak, sistem ayrıca resimlerdeki kimlik numaraları ve sözleşme öğeleri gibi hassas bilgileri gerçek zamanlı olarak tanımlayabilen, sınıflandırabilen ve şifreleyebilen 30'dan fazla yerleşik belge ve görüntü tanıma modeline sahiptir. Genel veri işaretleme verimliliği 5 kat iyileştirildi ve tanıma doğruluğu oranı %95'e ulaştı, bu da gizlilik veri sızıntısı riskini büyük ölçüde azaltıyor.
Bir örnek vermek gerekirse: İçerik güvenliği senaryosunda, geleneksel yöntem insan incelemesi, etiketleme ve büyük ölçekli etiketleme eğitimiyle gerçekleştiriliyordu. Şimdi, Prompt mühendisliği ve anlamsal güçlendirme sayesinde, Alibaba etiketleme verimliliğini %100, belirsiz ifade tanıma oranını %73, görüntü içerik tanıma oranını %88, AI canlı yüz saldırı tespit doğruluğunu ise %99 artırmayı başardı.
Eğer flywheel AI ile insan deneyimini birleştirerek otonom kontrol sunuyorsa, o zaman akıllı asistan güvenlik personelinin çok yönlü yardımcısıdır.
Güvenlik operasyonları personelinin her gün karşılaştığı en yaygın soru şudur: Bu alarm ne anlama geliyor? Neden tetiklenir? Yanlış bir pozitif mi? Ne yapmalıyım? Geçmişte, bu sorunları kontrol etmek için günlüğü teslim etmeniz, geçmişi kontrol etmeniz, eski çalışanlara sormanız, iş emirleri düzenlemeniz ve teknik destek ayarlamanız gerekiyordu...... Şimdi, sadece bir cümle.
Ancak, akıllı asistanın işlevi sadece bir soru-cevap robotu değil, daha çok güvenlik alanında dikey bir Copilot gibidir. Beş ana çekirdek yeteneği şunları içerir:
Ürün Soru-Cevap Asistanı: Belirli bir işlevin nasıl yapılandırılacağına, bu stratejinin neden tetikleneceğine, hangi kaynakların koruma altına alınmadığına otomatik olarak yanıt verir, çok sayıda iş emri hizmetinin yerini alır;
Alarm açıklama uzmanı: Alarm numarasını girin, olay açıklamasını, saldırı zinciri izini, önerilen yanıt stratejisini otomatik olarak çıktı verin ve çok dilli çıktıyı destekleyin;
Güvenlik Olayı Geriye Dönük İnceleme Asistanı: Bir saldırı olayının tam zincirini otomatik olarak düzenler, zaman çizelgesi, saldırı yolu haritası ve sorumluluk belirleme önerileri oluşturur;
Rapor Üretici: Olay istatistikleri, müdahale geri bildirimleri, operasyonel etkiler içeren aylık/çeyrek/acil güvenlik raporlarını tek tıkla oluşturma, görselleştirilmiş dışa aktarma desteği ile.
Tüm diller desteği: Çince, İngilizce kapsandı, uluslararası versiyon Haziran ayında çevrimiçi olacak, yurtdışı ekiplerin kullanım alışkanlıklarına otomatik olarak uyum sağlayacak.
Bu "beş küçük şey" e önem vermeyin, şu ana kadar Alibaba'nın resmi verilerine göre: hizmet verilen kullanıcı sayısı 40.000'i geçti, kullanıcı memnuniyeti %99.81, alarm türleri %100 oranında kapsanıyor, prompt destek kapasitesi %1175 oranında arttı (FY24'e göre). Kısacası, gece vardiyasındaki yüksek performanslı çalışanı, rapor yazan stajyeri, alarmları işleyen mühendisi ve işi bilen güvenlik danışmanını tek bir API'de birleştiriyor ve bu yetenek sayesinde insan sadece karar veriyor, devriye atmıyor.
04 Epilog
Geçmişe baktığımızda, tarih asla "çığır açan teknolojiler" açısından yetersiz değildir; eksik olan, ikinci yılın coşkusunu sürdürebilen teknolojilerdir.
İnternet, P2P, blok zinciri, otonom sürüş... Her bir teknoloji patlaması döneminde "yeni altyapı" olarak adlandırıldı, ancak sonunda gerçekten altyapı haline gelenler, sadece "yönetim boşluğunu" geçebilen azınlıktır.
Günümüzdeki üretken AI benzer bir aşamada: bir yanda modeller çeşitleniyor, sermaye peşinden koşuyor ve uygulamalar katman katman gelişiyor; diğer yanda ise ipucu kelime enjeksiyonu, içerik aşımı, veri sızıntısı, model manipülasyonu, güvenlik açıkları sıkça görülüyor, sınırlar belirsizleşiyor ve sorumluluk odak kayması yaşıyor.
Ama AI, önceki teknolojilerden farklıdır. Sadece resim çizebilir, şiir yazabilir, program oluşturabilir, çeviri yapabilir, aynı zamanda insan dilini taklit edebilir, yargıda bulunabilir ve duyguları anlayabilir. Ancak tam da bu nedenle, AI'nın zayıflığı sadece kod hatalarından değil, insan doğasının yansımasından kaynaklanmaktadır. İnsanlar önyargılıdır, o da öğrenir; insanlar kolaylık peşindedir, o da sizin yerinize fırsatları değerlendirir.
Teknolojinin kendisinin sağladığı kolaylık, bu tür bir eşleştirmenin amplifikatörü gibidir: Geçmişteki BT sistemleri "kullanıcı yetkilendirmesi" gerektiriyordu, saldırılar sızma ile gerçekleşiyordu; şimdi büyük modeller sadece bir ipucu kelime enjekte ederek, seninle sohbet ederek sistem hatalarına ve gizlilik ihlallerine neden olabiliyor.
Elbette, "kusursuz" bir AI sistemi yoktur, bu bilim kurgu, mühendislik değil.
Tek cevap, güvenli bir modelle, güvensiz bir modeli korumaktır; akıllı bir sistemle, akıllı tehditlere karşı koymaktır - AI zar atıyor, Alibaba güvenli yüzü seçiyor.