Black Hat’in gündeminde bu yıl Yapay Zekâ var ve bunun iyi bir nedeni var
Black Hat sunumunda, Yapay Zekânın çözmeye çalıştığı birçok sorundan, kasıtlı olmadan neden olabileceği durumlardan bahsedildi. Ardından güvenliği “düzeltmesi” gereken bir olgu tarafından yaratılan yeni büyük bir saldırı yüzeyi tanımlandı.
DARPA’nın önümüzdeki yıllarda DEF CON’da başlayacak olan AI Cyber Challenge (AIxCC) programı, Yapay Zekâ sorunlarını çözmek için milyonlarca dolar para ödülü dağıtarak bu durumu düzeltecek. Bu ödül, bazı hevesli ekiplerin DARPA ve sektörden iş ortaklarının önemli olduğunu düşündüğü sorunlara odaklanması ve kendi çalışmalarını hızlandırması için yeterli.
Gelecek yılın DEF CON etkinliğinde ilk beş takımın her biri yarı final aşamasında 2 milyon dolar alacak, finalde kazanan ise 8 milyon dolar ödülün sahibi olacak. Bu miktarlar yeni filizlenen hackerlar için hiç de ufak bir miktar değil. Bu ödül, ailenizden ayrılıp kendi düzenini kurmuş olsanız bile gayet yüksek bir tutar.
Yapay Zekâ sorunları
Mevcut bazı Yapay Zekâların (dil modelleri gibi) karşılaştığı sorunlardan biri halka açık olmasıdır. İnternetten toplayabildiği kadar çok bilgi alarak, sorduğumuz sorular ile yanıtlar arasında ilişki kurmak, anlam çıkarmak, varsayımlar yapmak ve bir tahmin modeli oluşturmaya çalışmak gibi faydalı her şeyin sentezini yaratmaya çalışır.
Ancak pek çok şirket, şirket içi hassas verilerini tehlikeyi büyütüp yaygınlaştıracak şekilde kullanacak, halka açık bir modele güvenmez. Büyük Dil Modellerinin halka neleri açıkladığına dair karar alma sürecinde herhangi bir güven zinciri yoktur. Hassas bilgilerin güvenilir bir şekilde düzenlendiği veya doğruluğunu ve güvenliğini kanıtlayabilecek bir model var mı? Hayır.
Yasal olarak korunan kitaplar, resimler, kodlar ve müzik gibi eserlerin, Büyük Dil Modellerini eğitmek için kullanılan dev değirmenin içinde harmanlanmaktan korunması konusuna ne demeli? Bu modellerin yasa dışı bir şey yapmadıkları iddia edilebilir, ancak pazarda ticari başarı elde etmek amacıyla ürünlerini eğitmek için kullandıkları kesin. Peki bu yasal mı? Hukukçular bu konuda tam çözmüş bulmuş değil.
ChatGPT – olacakların habercisi mi?
Büyük Dil Modelleri (LLM), bir kişinin ses tonunu ve kişisel özelliklerini sentezleyerek fotoğrafları, ilgili konuşmaları ve diğer verileri benzetebileceği ve ardından belki de sahte olduğunu tespit etmekte zorlanacağınız aldatmaca bir e-posta gönderebileceği için, yeni süper tehdit olarak öne sürülen ChatGPT üzerinden kimlik avı hakkında bir oturuma katıldım. Sanırım haberler kötü.
İyi haber ise, yakında piyasaya sürülecek olan çok modelli LLM özelliği ile, bir Zoom toplantısına sizin yerinize notlar alması, katılımcıların etkileşimine göre niyeti belirlemesi, ruh halini değerlendirmesi ve ekran paylaşımı sırasında gösterilen belgelerin içeriğini alması, size ne yanıt vermeniz gerektiğini söyleyerek oradaymışsınız gibi görünmenizi sağlaması için kendi bot’unuzu gönderebileceksiniz. Bu aslında gerçekten iyi bir özellik olabilir, çok da heyecan verici.
Peki tüm bu Yapay Zekâ LLM trendinin sonuçları ne olacak? İnsanlığın iyiliği için mi kullanılacak yoksa yakın zamanda patlayan kripto blockchain balonu gibi mi sonlanacak? Ve bizler karşılaşabileceğimiz gerçek sonuçlarla yüzleşmeye hazır mıyız?