Yapay zeka destekli ses klonlama sahtekarlıklara hız kazandırırken ESET’ten Jake Moore ile oturup bu ‘hi-fi’ dolandırıcılık aramalarını nasıl kapatacağımızı ve deepfake tespiti için geleceğin neler getireceğini konuştuk
CEO’nuzdan gelen ve para göndermenizi isteyen sahte bir telefona kanar mıydınız? Meslektaşımız Jake Moore’un keşfettiği gibi olabilir. Boş işlem döngülerine sahip bilgisayarlar daha fazla veriyle beslendikçe deepfake de giderek ustalaşıyor. Onları uzun bir CEO konuşması ile beslerseniz sonunda onlar, duyanları oldukça ikna edebilen çekim, ton ve diğer nüanslı konuşma kalıpları kazanırlar.
Şimdi ABD’de, sahteciliği kırmak ve savunma sistemlerinde ilgili bir saldırıyı engelleyecek yollar bulmaya çalışmak için bir yarışma var. Federal Ticaret Komisyonu (FTC) tarafından düzenlenen yarışmada, yarışmacılar ses sahteciliğini engellemek ve 25.000 dolarlık ödülü kazanmak için bulabildikleri her türlü teknolojiyi bir araya getirdiler.
Yarışmalar uzay giysisi tasarımlarından sürücüsüz araçlara ve güneş teknolojilerine kadar her şey için kullanıldı ve şimdi de deepfake savunma arenasına olan ilgiyi ve katılımcıları artırmayı amaçlayarak tüketicileri yapay zeka destekli ses klonlama zararlarına karşı korumak için bir yarış yaratmayı hedefliyor. Portal üzerinden kaydolduktan sonra fikirleriniz, altın madalyayı eve götürmek için diğer yaklaşımlarla yarışabilir.
Bunun Jake gibi birini durdurup durduramayacağını hala merak ediyorum, bu yüzden ona sordum.
S: İşletmeler mevcut, yaygın olarak kullanılan teknolojileri kullanarak kendilerini bu tehdide karşı koruyabilecekler mi ve eğer koruyabileceklerse hangileri?
Jake: Ne yazık ki bu gelişen sorunla mücadele etmek için cevabın henüz karşı önlem teknolojilerinde yattığını düşünmüyorum. Bu yeni yapay zeka çağının henüz emekleme aşamasındayız ve pek çok işletme iyi, kötü ve çirkin kullanımlar ve bunların yetenekleri hakkında fikir sahibi olmaya çalışıyor. Teknoloji, sürekli olarak gelişiyor ancak her yeni teknoloji henüz bebeklik aşamasındayken, insanları ve işletmeleri dolandırmaya yönelik yasadışı işlerde araç olarak kullanılabiliyor.
S: Bireyler için de aynı soruları; emekli dolandırıcılığı, aşk dolandırıcılığı ve benzerlerini düşünün?
Jake: Yapay zeka, dolandırıcıların eylemlerini eskisinden çok daha büyük ölçeklerde gerçekleştirmelerini sağladı, bu da oyunun daha da büyüdüğü anlamına geliyor. Daha fazla insan hedeflendiğinde, elde edilen ödüller çok daha büyük oluyor ve dolandırıcıların fazladan çaba harcamasına gerek kalmıyor.
Bununla birlikte, bireylerin klasik dolandırıcılıklardan güncel trendlere kadar tüm dolandırıcılıklar konusunda daha bilinçli olmaya hazırlıklı olmaları gerekmektedir. Özellikle de ses klonlama ve benzerliklerin çarpıcı bir doğrulukla taklit edilmesinin ortaya çıkmasıyla birlikte, insanların görmenin (ve duymanın) inanmak olduğunu düşünmeyi bırakması gerekiyor. Bu tür dolandırıcılıkların mümkün olduğunun bilincinde olmak, hedef alınan kişilere bu tür iletişimleri daha dikkatli bir şekilde sorgulamaları için güven sağlayacak ve onlara eylemlerini sorgulamaktan korkmamayı öğretecektir.
İnternette bu tür dolandırıcılıklar hakkında farkındalık tavsiyeleri sunan çok sayıda rehber bulunmaktadır ve insanların korunmak ve korunmaya devam etmek için kendilerini en son bilgilerle sürekli olarak yenilemeleri gerekmektedir.
DAHA FAZLA OKUMA:
Deepfake içerikler: Deepfake yoluyla cinsel zorlama hakkında bilinmesi gerekenler
Sanal adam kaçırma: Başınıza gelenin dolandırıcılık olduğunu nasıl anlarsınız?
S: Kurumsal dolandırıcılıkla mücadele ekipleri kullanıcılarına/müşterilerine yönelik saldırıları engellemek için ne yapabilir ve insanlar dolandırılırsa bunun bedelini kim ödemelidir?
Jake: Varsayılan olarak, dolandırıcılıkla mücadele ekipleri ne pahasına olursa olsun eğitim sunmalıdır ve bu eğitimin yıllık olmasının yanı sıra bir kuruluşun tüm üyeleri için özel hazırlanmış olması gerekir. Simülasyon saldırıları ve savaş oyunları da mesajın ilgi çekici bir şekilde verilmesine yardımcı olur ve ciddi bir sorunu daha ilginç bir dinamik haline getirerek hatayı güvenli bir ortamda yapmaya izin verir.
İnsanlar modern bir saldırı kavramını deneyimledikten ve bu yeni teknolojinin ölçeğine ilk elden tanık olduktan sonra, gerçek bir saldırı anında tavsiyeleri hatırlama olasılıkları daha yüksek olacaktır. Yapay zeka hala çok etkileyici, bu nedenle deepfake’leri güvenli bir ortamda çalışırken görmek, çok fazla korku faktörü yaratmadan yaratabileceği potansiyel tehlikeli sonuçları sergileme fırsatı verir.
S: Bu açıkça bir kedi-fare oyunu, peki kim kazanacak?
Jake: Başından beri “polisler ve soyguncular” arasında, soyguncuların genellikle birkaç adım önde olduğu bir kovalamaca olmuştur. Ancak teknoloji geliştikçe, geride kalmadığımızdan ve dolandırıcılara daha da büyük bir avantaj sağlamadığımızdan emin olmalıyız.
Dolandırıcıların her zaman kazanmaması için insanların bu kaçınılmaz saldırılarla en iyi şekilde mücadele edebilecek doğru araç ve bilgilerle donatılması hayati önem taşıyor. Bireyler ve işletmeler, en son saldırı vektörlerini ve gelişen dolandırıcılıkları takip ederek bu yeni teknolojik saldırı dalgasına karşı en iyi savunma şansına sahip olabilirler.
Kesin olan bir şey var: Bu artık teorik bir tehdit değil. 2024 ve sonrasında dolandırıcıların, özellikle de güvenilir bir yetkilinin sizden bir şey yapmanızı “istediği” dehşet verici olaylara yanıt olarak, çok hızlı bir şekilde ses destekli saldırıları başlatmak için yeni otomatik yollar bulacağı bir dönem olmasını bekliyoruz. Tüm bunlar kulağa inandırıcı gelecek, aciliyet havası yaratacak ve işitsel çok faktörlü kimlik doğrulama gibi görünecek ancak “bir yetkiliden bizzat duymuş olsanız” bile yine de dolandırılabilirsiniz.
Zaman ayırdığın için teşekkürler, Jake.