Mevcut yapay zeka dil modelleri, üst düzey siber güvenlik görevleri için hazır mı?
Orta ve büyük ölçekli şirketlerin siber güvenlik ekiplerine siber tehdit istihbaratından (CTI) bahsederseniz yüksek ihtimalle “bu fırsatı incelemeye başlıyoruz” yanıtını alırsınız. Bu şirketler aynı zamanda tecrübeli ve nitelikli siber güvenlik profesyoneli eksikliği çeken şirketler olabilirler.
Bu hafta Black Hat’te iki Google Cloud ekibi üyesi, GPT-4 ve PalM gibi Büyük Dil Modellerinin (LLM) özelliklerinin siber güvenlikte, özellikle de CTI alanında nasıl bir rol oynayabileceği ve bazı tedarik sorunlarının potansiyel olarak nasıl çözülebileceği konusunda sunum yaptı. Bu sunum, bir tehdit istihbaratını uygulamanın henüz keşif aşamasında olan birçok siber güvenlik ekibine gelecekteki bir konsepti ele alıyormuş gibi görünebilir; fakat aynı zamanda kaynak sorununun da bir kısmını çözebilir.
Tehdit istihbaratının temel özellikleri
Bir tehdit istihbaratı programının başarılı olması için sahip olması gereken üç temel özellik vardır: tehdit görünürlüğü, işleme yeteneği ve yorumlama yeteneği. Bir LLM kullanmak potansiyel olarak işleme ve yorumlamaya önemli ölçüde yardımcı olabilir. Örneğin, hacim nedeniyle göz ardı edilmesi gerekecek kayıt verileri gibi ek verilerin analiz edilmesine yardım edebilir. Daha sonra işletmeden gelen soruları yanıtlamak için çıktıyı otomatikleştirme yeteneği, siber güvenlik ekibinin önemli bir görevini yapmış olur.
Sunumda, LLM teknolojisinin her duruma uygun olmayacağı, daha az eleştirel düşünme gerektiren ve büyük hacimli verilerle çalışılan görevler için daha iyi olduğu ve daha fazla eleştirel düşünme gerektiren görevlerin insan uzmanlar tarafından yapılması gerektiği de belirtildi. Belgelerin atıf amacıyla tercüme edilmesinin gerektiği ve atıfta yapılan hataların işletme için önemli sorunlara neden olabileceği bir durum buna örnek olarak verildi.
Siber güvenlik ekiplerinin sorumlu olduğu diğer görevler gibi otomasyon -şimdilik- daha az önem ve öncelik taşıyan işlerde kullanılmalıdır. Bu, LLM’yi oluşturan teknolojiden ziyade LLM teknolojisinin evriminin hala devam etmesinden kaynaklanmaktadır. Sunumda da anlatıldığı üzere bu teknolojinin CTI iş akışında yeri vardır, ancak şu anda doğru yanıtlar verme konusunda tam olarak güvenilir değildir ve daha kritik durumlarda yanlış ya da tutarsız yanıtlar vermesi büyük sorunlara yol açabilir. Bu, LLM kullanımında genel olarak üzerinde uzlaşılan bir konudur; üretilen çıktının tartışmalı olduğu çok sayıda örnek vardır. Black Hat’teki bir açılış konuşmacısı bunu mükemmel bir şekilde ifade ederek yapay zekanın şu anki halini “bir şeyler uyduran, yalan söyleyen ve hata yapan bir ergen” olarak tanımladı.
Gelecek?
Birkaç yıla kalmadan, güvenlik duvarı kurallarının değiştirilmesi, güvenlik açıklarının önceliklendirilmesi ve düzeltilmesi, bir tehdit nedeniyle sistemlerin devre dışı bırakılma otomasyonu gibi bazı görevleri, karar verme süreçlerini otomatikleştirecek olan yapay zekaya devredeceğimize eminim. Şimdilik bu kararların verilmesini insanların uzmanlığına bırakmak zorundayız. Daha emekleme aşamasında olan bu teknolojiyi, siber güvenlik konusunda karar verme gibi kritik rollerde kullanmak için acele edilmemelidir.