Büyük Dil Modelleri (LLM’ler) üretken yapay zeka inovasyonunu teşvik eder ancak güvenlik ve gizlilik risklerini de beraberinde getirir. Riskleri nasıl azaltabilirsiniz ve yapay zekanın potansiyelinden en iyi şekilde nasıl yararlanabilirsiniz?
Herkes ChatGPT, Bard ve üretken Yapay Zeka konularını konuşuyor. Duyulan ilk heyecan, yerini gerçekliğinin sorgulanmasına bırakmak zorunda. İş dünyası ve BT liderleri, bir yandan teknolojinin müşteri hizmetleri ve yazılım geliştirme gibi alanlarda yaratacağı risk potansiyelini düşünüyor, diğer yandan da yeni gelişmelerin olası dezavantajları ve dikkat edilmesi gereken risklerin de giderek daha fazla farkına varıyorlar.
Kısacası, kuruluşların büyük dil modellerinin (LLM’ler) potansiyelinden yararlanabilmeleri için teknolojinin yapılan işe zarar verebilecek gizli risklerini de hesaplamaları gerekiyor.
LLM’ler nasıl çalışır?
ChatGPT ve diğer üretken yapay zeka araçları, LLM’ler tarafından desteklenmektedir. Muazzam miktarda metin verisini işlemek için yapay sinir ağlarını kullanarak çalışırlar. Kelimeler arasındaki kalıpları ve bunların içeriğe göre nasıl kullanıldığını öğrendikten sonra model, kullanıcılarla doğal dilde etkileşime girebiliyor. Aslında ChatGPT’nin göze çarpan başarısının ana nedenlerinden biri şaka yapma, şiir yazma ve genel olarak gerçek bir insandan ayırt edilmesi zor bir şekilde iletişim kurma yeteneğidir.
İLGİLİ MAKALE: ChatGPT dijital saldırılarda silah olarak kullanılabilir mi?
ChatGPT gibi sohbet robotlarında kullanılan LLM destekli üretken yapay zeka modelleri, süper güçlü arama motorları gibi çalışıyor ve soruları yanıtlamak ve görevleri insan benzeri bir dille yerine getirmek için öğrendikleri verileri kullanıyor. İster kamuya açık modeller ister bir kuruluş içinde dahili olarak kullanılan tescilli modeller olsun, LLM tabanlı üretken yapay zeka, şirketleri belirli güvenlik ve gizlilik risklerine maruz bırakabilir.
5 Önemli LLM Riski
1. Hassas verilerin fazla paylaşımı
LLM tabanlı sohbet robotları sır saklama ya da unutma konusunda pek iyi değil. Bu, yazdığınız herhangi bir verinin model tarafından benimsenebileceği ve başkalarının kullanımına sunulabileceği veya en azından gelecekteki LLM modellerini eğitmek için kullanılabileceği anlamına gelir. Samsung çalışanları, işle ilgili görevlerde kullanılan gizli bilgileri ChatGPT ile paylaştıklarında bunun kendilerine zarar vereceğini fark ettiler. Araca girdikleri kod ve toplantı kayıtları teorik olarak kamuya açık olabilir (veya en azından Birleşik Krallık Ulusal Siber Güvenlik Merkezi’nin yakın zamanda belirttiği gibi gelecekte kullanılmak üzere saklanabilir). Bu yılın başlarında kuruluşların LLM’leri kullanırken verilerini riske atmaktan nasıl kaçınabileceklerine daha yakından baktık.
2. Telif hakkı zorlukları
LLM’lere büyük miktarda veri öğretilir. Ancak bu bilgiler genellikle içerik sahibinin açık izni olmadan web’den alınır. Kullanmaya devam ettiğinizde, potansiyel telif hakkı sorunları oluşabilir. Bunun yanı sıra belirli eğitim verilerinin orijinal kaynağını bulmak zor olduğu için bu sorunların azaltılması zorlaşır.
3. Güvensiz kod
Geliştiriciler, pazara çıkış sürelerini hızlandırmalarına yardımcı olması amacıyla giderek daha fazla ChatGPT ve benzeri araçlara yöneliyor. Teorik olarak kod parçacıkları ve hatta tüm yazılım programlarını hızlı ve verimli bir şekilde oluşturarak bu yardımı sağlayabilir. Ancak güvenlik uzmanları bunun aynı zamanda güvenlik açıkları da oluşturabileceği konusunda uyarıyor. Geliştiricinin hangi hataları arayacağını bilmek için yeterli alan bilgisine sahip olmaması durumunda bu özellikle endişe vericidir. Hatalı kod daha sonra üretime girerse, ciddi itibar kaybına neden olabilir ve düzeltilmesi zaman ve para gerektirebilir.
4. LLM’nin kendisini hackleme
LLM’lere yetkisiz erişim ve bunlar üzerinde değişiklik yapmak, bilgisayar korsanlarına, modelin hızlı enjeksiyon saldırıları yoluyla hassas bilgileri ifşa etmesini sağlamak veya engellenmesi gereken diğer eylemleri gerçekleştirmek gibi kötü niyetli faaliyetler gerçekleştirmeleri için bir dizi seçenek sunabilir. Diğer saldırılar, LLM sunucularındaki sunucu taraflı istek sahteciliği (SSRF) güvenlik açıklarından yararlanılmasını içerebilir ve böylece saldırganların dahili kaynakları ele geçirmesine olanak sağlanabilir. Tehdit aktörleri, doğal dil istemleri aracılığıyla kötü amaçlı komutlar göndererek gizli sistemler ve kaynaklarla etkileşim kurmanın bir yolunu bile bulabilirler.
İLGİLİ MAKALE: Yapay zekâ için savunma oyuncularına büyük para ödülü
Örnek olarak, bazı kullanıcıların konuşma geçmişlerindeki başlıkları diğer kullanıcılara ifşa eden bir güvenlik açığının keşfedilmesinin ardından ChatGPT Mart ayında çevrim dışı bırakıldı. OWASP Vakfı, LLM uygulamalarındaki güvenlik açıklarına ilişkin farkındalığı artırmak amacıyla yakın zamanda bu uygulamalarda yaygın olarak gözlemlenen 10 kritik güvenlik açığından oluşan bir liste yayımladı.
5. Yapay Zeka sağlayıcısında veri ihlali
Yapay zeka modelleri geliştiren bir şirketin kendi verilerinin de ihlal edilmesi, örneğin bilgisayar korsanlarının hassas özel bilgiler içerebilecek eğitim verilerini çalması ihtimali her zaman vardır. Aynı durum veri sızıntıları için de geçerlidir; örneğin Google’ın yanlışlıkla özel Bard sohbetlerini arama sonuçlarında sızdırması gibi.
Peki ne yapılmalı?
Kuruluşunuz rekabet avantajı için üretken yapay zekanın potansiyelinden yararlanmaya istekliyse, bu risklerden bazılarını azaltmak için öncelikle yapması gereken birkaç şey var:
- Veri şifreleme ve anonimleştirme: Verileri meraklı gözlerden saklamak için LLM’lerle paylaşmadan önce şifreleyin ve/veya veri kümelerinde kimliği belirlenebilecek kişilerin gizliliğini korumak için anonimleştirme tekniklerini değerlendirin. Veri temizleme, modele girmeden önce eğitim verilerinden hassas ayrıntıları çıkararak aynı amaca ulaşabilir.
- Gelişmiş erişim kontrolleri: Güçlü parolalar, çok faktörlü kimlik doğrulama (MFA) ve minimum ayrıcalık politikaları, üretken yapay zeka modeline ve arka uç sistemlere yalnızca yetkili kişilerin erişebilmesini sağlamaya yardımcı olacaktır.
- Düzenli güvenlik denetimi: Bu, LLM’yi ve üzerine inşa edildiği üretken yapay zeka modellerini etkileyebilecek, BT sistemlerinizdeki güvenlik açıklarının ortaya çıkarılmasına yardımcı olabilir.
- Olay müdahale planlarını uygulayın: İyi prova edilmiş ve sağlam bir olay müdahale planı, kuruluşunuzun herhangi bir ihlali kontrol altına almak, düzeltmek ve bu ihlalden kurtulmak için hızlı bir şekilde yanıt vermesine yardımcı olacaktır.
- LLM sağlayıcıların tüm detaylarını inceleyin: Tüm tedarikçilerde olduğu gibi, LLM’yi sağlayan firmanın veri güvenliği ve gizliliği alanında sektörün en iyi uygulamalarını kullandığını kontrol edin. Kullanıcı verilerinin nerede işlenip depolandığı ve modeli eğitmek için kullanılıp kullanılmadığı konusunda net açıklamalar olduğundan emin olun. Veriler ne kadar süreliğine tutuluyor? Veriler üçüncü taraflarla paylaşılıyor mu? Verilerinizin eğitim amaçlı kullanım tercihi değiştirebiliyor mu?
- Geliştiricilerin sıkı güvenlik önlemleri uyguladığından emin olun: Geliştiricileriniz kod oluşturmak için LLM’leri kullanıyorsa hataların üretime sızma riskini azaltmak için güvenlik testi ve meslektaş incelemesi gibi politikalara uyduklarından emin olun.
Neyse ki tekerleği yeniden icat etmeniz gerekmiyor. Yukarıdakilerin çoğu denenmiş ve test edilmiş en iyi uygulama güvenliği ipuçlarıdır. Yapay zeka dünyası için güncellenmeye/yeniden düzenlenmeye ihtiyaç duyabilirler ancak temeldeki mantık çoğu güvenlik ekibine tanıdık gelmelidir.
DAHA FAZLA BİLGİ: Bard’ın Hikayesi – sahte Yapay Zekâ botları nasıl kötü amaçlı yazılım indirmeye çalışır