Yapay zekâ, baktığımız her yerde karşımıza çıkıyor ve uzun süre de ilgi görmeye devam edecek gibi görünüyor. 2025 yılı için küresel yapay zekâ kullanımının 378 milyon kullanıcıya ve pazar değerinin de 244 milyar dolara ulaşması bekleniyordu. 2025’in ilk altı ayında, Amerikalı yetişkinlerin %61’inden fazlası yapay zekâ kullandı; neredeyse her beş kişiden biri ise günlük olarak ona güveniyor.
Ancak üretken yapay zekâ, hatalara açık olmasıyla biliniyor. Bu da onu; aşırı doğruluk gerektiren ya da sağlık ve finans gibi regülasyona tabi sektörlerde tam anlamıyla benimsenmekten alıkoyuyor. Benzer nedenlerle, siber güvenlikte kullanılan yapay zekâ çözümlerine de yüksek düzeyde dikkatle yaklaşılmalıdır. Bir çözümdeki zayıf yapay zekâ, aşırı yanlış pozitif sonuçlara ve daha güçlü veri güvenliği yerine kullanıcı gizliliğinin zayıflamasına neden olabilir.
Ne yazık ki bu gerçekler yapay zekâ dalgasına katılmak isteyen üreticileri yavaşlatmış değil. Pazarlama sunumlarını, tehdit algılama ve otomasyondan yapay zekâ ile entegre bulut hizmetlerine kadar çeşitli AI etiketli çözümlerle doldurdular. Siber güvenlik liderlerinin bakış açısından, bu çözümlerin sadece bir moda mı yoksa kurumun güvenlik duruşunu anlamlı biçimde iyileştirecek bir çözüm mü olduğu sorusu gündeme geliyor.
Hatta bazı durumlarda eski özellikler yeniden adlandırılarak yapay zekâ olarak sunuluyor. Örneğin, siber güvenlik sektörü yıllardır makine öğrenimini kullanıyor ve bu köklü teknoloji bugün büyük puntolarla ‘yapay zekâ’ olarak yeniden adlandırılıyor.
Bu makalede, abartılı reklamları bir kenara bırakıp, bir güvenlik lideri olarak üreticilerin yapay zekâ tekliflerinde nelere dikkat etmeniz gerektiğini net biçimde ele alacağız.
Yapay zekâ sadece pazarlama aracı olduğunda
Siber güvenlik üreticileri, mevcut heyecandan yararlanmak için halihazırda bulunan özellikleri yapay zekâ olarak yeniden adlandırmıştır ancak çoğu zaman yeni yetenekler eklememişlerdir. Davranış analizi gibi birçok uyarlanabilir özellik, 2023-2025 yıllarındaki yapay zekâ dalgasından çok önce geliştirilen karar ağaçları veya kümeleme gibi makine öğrenimi tekniklerinden kaynaklanmaktadır. Üreticiler şimdi bunları pazar trendlerine uyum sağlamak için gelişmiş yapay zekâ olarak yeniden sunmaktadır.
Gartner’ın raporuna göre, üreticiler ayrıca aktif olarak “ajan aklama” yapıyor, yani önemli ajan yeteneklerinden yoksun mevcut ürünler için bu yeteneklere sahipmiş gibi bir imaj yaratıyorlar. Güvenlik uzmanlarının yüzde 76’sı, bu pazarının abartılı reklamlarla dolup taştığını düşünüyor.
Ürünlerin bu şekilde makyajlanması, üreticilerin fiyatları artırmasına veya üstün güvenlik bekleyen alıcıları çekmesine olanak sağlıyor ancak bu özellikler genellikle önceki sürümlerin etkinliğinden çok da farklı bir özellik sunmuyor. En kötü senaryoda, bir üretici sadece eski bir ürünü satıyor ve onu en yeni ve en iyi çözüm olarak tanıtıyor.
Bazı üreticiler derin öğrenme gibi gerçek yenilikleri entegre ederken model detayları veya eğitim verileri gibi spesifik konuların belirsizliği sınırları bulanıklaştırıyor. Alıcılar, makyajlanmış eski teknolojilere yatırım yapmaktan kaçınmak için yanlış pozitiflerin azaltılması gibi iyileştirmelerin kanıtını talep etmelidir.
Yapay zekâ destekli tehdit algılamanın vaatlerini görüyoruz ancak çoğunlukla bu sadece yeni bir pazarlama etiketiyle sunulan temel imza eşleştirmesinden ibaret. Bir diğer popüler taktik ise statik bilgi tabanlarını yeniden paketleyen ancak analistlerin iş yükünü gerçekten azaltmayan chatbotlar veya ‘yapay zekâ destekli asistanlar’ sunmak. Asıl mesele tüm süreci yeniden düşünmek ve katma değere odaklanmak; ancak mevcut piyasa durumu böyle değil.
Zbyněk Sopuch, Safetica CTO
Yapay zekâ sorunu daha da artıyor
Bazı siber güvenlik üreticileri, yalnızca gereksiz bilgi ve uyarıları artırarak ekiplerin iş yükünü ağırlaştıran ve temel sorunları çözmeyen yapay zekâ özelliklerini entegre ediyor. Bu yeni araçlar, uyarı yorgunluğuna yol açıyor ve üretici karmaşıklığı sorununu daha da artırıyor.
Algı konusunda da bir uçurum var: Yöneticilerin %71’i yapay zekânın üretkenliği artırdığını iddia ederken SOC analistlerinin sadece %22’si bu görüşe katılıyor. Bir analistin dediği gibi, “Yapay zekâ kullanmak istemediğimizden değil, sadece bizim gözetimimiz olmadan güvenilir bir şekilde çalışacağına inanmıyoruz.“
Kötü yapılandırılmış yapay zekâ, ekipleri yanlış pozitiflerle boğarak uyarı yorgunluğunu azaltmak yerine daha da artırır. Birçok şirket sadece ‘yapay zekâyı devreye alır’ ve işi bitmiş sayar ancak bunu bir başlangıç noktası olarak görmez.
Zbyněk Sopuch, Safetica CTO
Yapay zekâ doğası gereği de sorun yaratabilir. Örneğin, çalışanlar gizlilik koruması olmayan LLM’lere veri girdiğinde bu durum istemeden veri sızıntısına yol açabilir. ChatGPT’nin durumu ise özellikle vahim çünkü OpenAI mahkeme kararı sebebiyle kullanıcılar silse bile kullanıcıların tüm konuşmalarının kopyalarını sürekli olarak saklamakla yükümlüdür.
Yapay zekâ ile donatılmış son kullanıcı araçları, siber güvenlik uzmanlarının uykusuz gecelerine neden olmuştur. Kullanıcının yaptığı her eylemin ekran görüntüsünü alan Windows Recall, kontrolsüz çalışan kodlama ajanları, her gizli toplantıyı kaydeden ve yazıya döken yapay zekâ asistanları veya hata barındıran yapay zekâ destekli kodlar gibi örneklerde görüldüğü gibi, şirketler bu trendi yakalamak için yeterli testler yapmadan araçları piyasaya sürerek pervasız davranmışlardır.
Siber güvenlik üreticileri de farklı değildir. Her hizmete yapay zekâ etiketi yapıştırma zorunluluğu etrafında oluşan FOMO açıkça hissedilmektedir. Aceleyle geliştirilen çözümler, sürekli olarak güvenlik açıklarına yol açmıştır ve yapay zekâ özellikleri ve ürünleriyle ilgili güvenlik ve riskler, eğer dikkate alınırlarsa bile genellikle sonradan akla gelen hususlardır. Bu durumlarda yapay zekâ, kuruluşların saldırı yüzeyini ve risk maruziyetini yönetmelerine yardımcı olmak yerine, aslında bu risklerin artmasına katkıda bulunuyor olabilir.
Yapay zekâ hangi alanlarda gerçekten yararlı?
Yapay zekâ destekli özellikleri pazarlayan ve tanıtan üreticileri değerlendirirken satın alma kararlarında temel unsurları göz önünde bulundurmak önemlidir.
Güvenlik liderleri, bir üründeki yapay zekâyı değerlendirirken pratikliğe odaklanmalıdır. Yapay zekâ kulağa heyecan verici geliyor ancak ekibinize yardımcı oluyor mu yoksa daha fazla sorumluluk mu ekliyor? Bazı satıcılar modern görünmek için ‘yapay zekâ destekli’ ifadesini kullanıyor ancak bu genellikle sadece temel bir otomasyondan ibarettir.
Şunları sorun: Yapay zekâ ne yapar? Aldığı kararları açıklayabilir mi? Zaman kazandırır mı yoksa sadece uyarıları mı artırır? Yapay zekâ yardımcı olmalı, kafa karıştırmamalıdır. Ekibinizin işini kolaylaştırıyorsa bu iyi bir işarettir. Eğer anlaşılmaz geliyorsa muhtemelen kullanıma hazır değildir.
Libor Pazdera, Safetica Kıdemli Teknik Danışmanı
Otomasyon sağlayan özellikleri değerlendirin ve otomasyonun üretkenliği artırıp artırmayacağını kendinize sorun. Örneğin, olay etkinliğine dayalı otomatik eylemler, tek bir anormal olay nedeniyle kullanıcıları otomatik olarak kilitleyebilir. İnsan müdahalesi olmaksızın risk düzeyini değerlendirmek, aşırı kesintilere yol açabilir. Ancak yüksek eşikli anormallikler için otomatik kilitleme, bir ihlali önlemekle önlememek arasındaki farkı belirleyebilir. Size uygun bir çözüm düşünürken bu özelliklerin uygulanmasının arkasındaki nüansları göz önünde bulundurun.
“Gürültü” ile başa çıkmaya yardımcı olması beklenen “akıllı” özellikler bazen kendileri gürültüye neden olabilir. LLM’leri filtre olarak kullanmak potansiyel bir kullanım örneğidir. Eğitim verilerine ve uyarlanabilirliğine bağlı olarak, LLM yüksek tehditleri tanımlayacak ve diğer uyarıların önceliğini azaltacak kadar iyi eğitilmiş olabilir, böylece ekibin zaman kazanmasını sağlayabilir.
Sorulması gereken en önemli soru, yapay zekânın benimsenmesinin ekibi güçlendirip güçlendirmediğidir. Üreticilerden, araçlarının yanıt sürelerini nasıl hızlandırdığını göstermelerini isteyin.
Güvenlik liderleri üreticilerin çözümlerindeki yapay zekâ özelliklerini değerlendirirken dengeli bir bakış açısı benimsemelidir. Bu bir yanıyla önemli faydalar sağlar: Algılamayı hızlandırabilir, tekrarlayan görevleri otomatikleştirebilir ve aksi takdirde gözden kaçacak olan içgörüleri ortaya çıkarabilir.
Radim Travnicek, Safetica CISO
Modaya kapılmayın, sonuca odaklanın
Özellikle üreticilerin göz alıcı demoları devreye girdiğinde yapay zekâ abartısına kapılmak ve FOMO hissetmek çok kolaydır.
Sunum dosyası ne kadar parlak olursa olsun, üreticiden mutlaka somut sonuçlar göstermesini isteyin. Aracın yapay zekâ ile kaç tehdidi durdurduğunu ve o olmadan kaçını durdurabildiğini sorun. Vaka çalışmaları ve kullanım senaryoları son derece değerlidir; eğer firmanın bunlara dair örnekleri yoksa bu da özelliklerin sahada yeterince test edilmediği anlamına gelir.
Özelliklerin kendisine daha az, ortaya çıkan sonuçlara ise daha çok odaklandığınızda; yalnızca pazarlamanın cazibesine kapılmadığınızdan ve yapay zekâ destekli özelliklerin sizin özel departman yapınıza nasıl bütüncül şekilde uyduğunu gerçekten değerlendirdiğinizden emin olabilirsiniz.
Amaç; hâlâ kötü niyetli aktörlerin içeri sızabildiği ama yine de gösterişli oyuncaklarla dolu bir 007 organizasyonu yaratmak değil, gerçekten güvenli bir kurum oluşturmaktır.