Deepfake yani gerçek insanların sahte görüntüleri, videoları ve ses klipleri yaygınlaştıkça, yapay zeka destekli bir dezenformasyon hortumu ihtimali giderek artan bir endişeye neden oluyor
Sahte haberler, 2016’da Beyaz Saray yarışı sırasında büyük bir hikaye haline geldiğinden beri seçim manşetlerine hakim oldu. Ancak sekiz yıl sonra, tartışmasız daha büyük bir tehdit var: uzmanları bile kandırabilecek dezenformasyon ve derin sahteciliklerin bir kombinasyonu. Arjantin‘deki seçimler öncesinde dolaşıma sokulan bir dizi resim ve video ile ABD Başkanı Joe Biden’ın üzerinde oynanmış bir ses kaydı da dahil olmak üzere, yapay zeka tarafından üretilen seçim temalı içeriğin son örneklerinin, daha büyük ölçekte olabileceklerin habercisi olma ihtimali yüksek.
Dünya nüfusunun yaklaşık dörtte biri 2024’te sandık başına giderken, dezenformasyon ve yapay zeka destekli hilelerin kötü niyetli aktörler tarafından sonuçları etkilemek için kullanılabileceğine dair endişeler artıyor ve birçok uzman deepfake’lerin yaygınlaşmasının sonuçlarından korkuyor.
Deepfake dezenformasyon tehdidi
Daha önce de belirtildiği üzere, en az iki milyar insan bu yıl tercih ettikleri temsilcilerine ve devlet liderlerine oy vermek üzere yerel seçim merkezlerine gidecek. Aralarında ABD, İngiltere ve Hindistan’ın da bulunduğu çok sayıda ülkede (Avrupa Parlamentosu için de) önemli seçimler yapılacağından, bu durum önümüzdeki birkaç yıl ve sonrasında jeopolitiğin siyasi manzarasını ve yönünü değiştirme potansiyeline sahip.
Ancak aynı zamanda, yanlış bilgilendirme ve dezenformasyon kısa bir süre önce Dünya Ekonomik Forumu (WEF) tarafından önümüzdeki iki yılın bir numaralı küresel riski olarak sıralandı.
Deepfake’lerle ilgili sorun, yapay zeka destekli teknolojinin artık ucuz, erişilebilir ve büyük ölçekte zarar verebilecek kadar güçlü hale gelmesidir. Bu da siber suçluların, devlet aktörlerinin ve hacktivistlerin ikna edici dezenformasyon kampanyaları ve daha geçici, tek seferlik dolandırıcılıklar başlatma becerilerini demokratikleştiriyor. WEF’in kısa süre önce yanlış bilgi/dezenformasyonu önümüzdeki iki yılın en büyük küresel riski ve aşırı hava koşullarından sonra ikinci mevcut risk olarak sıralamasının nedenlerinden biri de budur. WEF’in görüşlerine başvurduğu akademi, iş dünyası, hükümet, uluslararası toplum ve sivil toplumdan 1.490 uzmana göre bu durum böyle.
Rapor uyarıda bulunuyor: “Sentetik içerik önümüzdeki iki yıl içinde bireyleri manipüle edecek, ekonomilere zarar verecek ve toplumları çeşitli şekillerde parçalayacak… Bazı hükümetlerin yanlış bilgilendirmeyi önlemek ve ifade özgürlüğünü korumak arasında bir denge kurarak çok yavaş hareket etme riski de söz konusu.”
(Derin) numara yapmak
Buradaki zorluk, ChatGPT ve serbestçe erişilebilen üretken yapay zeka (GenAI) gibi araçların, daha geniş bir yelpazedeki bireylerin deepfake teknolojisi tarafından yönlendirilen dezenformasyon kampanyalarının oluşturulmasına katılmasını mümkün kılmasıdır. Tüm zor işler onlar için yapıldığından, kötü niyetli aktörler sahte içeriklerinin görülmesini ve duyulmasını sağlamak için mesajları ve güçlendirme çabaları üzerinde çalışmak için daha fazla zamana sahipler.
Bir seçim bağlamında, deepfake’lerin seçmenlerin belirli bir adaya olan güvenini sarsmak için kullanılabileceği açıktır. Ne de olsa birini bir şeyi yapmamaya ikna etmek, tersini yapmaktan daha kolaydır. Eğer bir siyasi parti ya da adayın destekçileri sahte ses ya da videolarla uygun bir şekilde yönlendirilebilirse, bu rakip gruplar için kesin bir kazanç olacaktır. Bazı durumlarda, haydut devletler tüm demokratik sürece olan inancı zayıflatmaya çalışabilir, böylece kim kazanırsa kazansın meşruiyetle yönetmekte zorlanacaktır.
Bu zorluğun temelinde basit bir gerçek yatıyor: İnsanlar bilgiyi işlerken niceliğe ve kolay anlaşılırlığa değer verme eğilimindedir. Yani, benzer bir mesaj içeren ne kadar çok içerik görürsek ve bunları anlamak ne kadar kolay olursa, bunlara inanma şansımız da o kadar yüksek olur. Bu nedenle pazarlama kampanyaları kısa ve sürekli tekrarlanan mesajlardan oluşma eğilimindedir. Buna bir de deepfake’lerin gerçek içerikten ayırt edilmesinin giderek zorlaştığı gerçeğini eklediğinizde, elinizde potansiyel bir demokratik felaket reçetesi var demektir.
Teoriden pratiğe
Endişe verici bir şekilde, derin sahtekarlıkların seçmen duyarlılığı üzerinde bir etkisi olması muhtemeldir. Bu yeni örneği ele alalım: Ocak 2024’te, ABD Başkanı Joe Biden’ın deepfake bir sesi, New Hampshire’daki bilinmeyen sayıda önseçim seçmenine bir robocall aracılığıyla dağıtıldı. Mesajda görünüşe göre onlara sandığa gitmemelerini ve bunun yerine “oyunuzu Kasım seçimlerine saklamalarını” söylüyordu. Görüntülenen arayan numarası da, otomatik mesajın şu anda Biden yanlısı bir süper-PAC’i yöneten eski bir eyalet Demokrat Parti başkanı olan Kathy Sullivan’ın kişisel numarasından gönderilmiş gibi görünmesi için sahte olarak düzenlenmişti.
Bu tür çağrıların Kasım ayındaki başkanlık seçimleri öncesinde seçmenleri tercih ettikleri adaya destek vermekten vazgeçirmek için nasıl kullanılabileceğini görmek zor değil. Bu risk, az sayıda seçmenin bir taraftan diğerine kaymasının sonucu belirlediği, çekişmeli seçimlerde özellikle ciddi olacaktır. Bir avuç kararsız eyalette on binlerce seçmenin seçimin sonucunu belirleyeceği düşünüldüğünde, bu tür hedefli bir kampanya tarifsiz zararlar verebilir. Üstelik yukarıdaki örnekte olduğu gibi sosyal medya yerine robocall’larla yayıldığı için etkiyi takip etmek ya da ölçmek daha da zor.
Teknoloji firmaları bu konuda ne yapıyor?
Hem YouTube hem de Facebook’un, yakın zamanda yapılan bir seçimi etkilemeyi amaçlayan bazı deepfake’lere yanıt vermekte yavaş davrandığı söyleniyor. Bu durum, sosyal medya şirketlerinin seçim manipülasyonu girişimlerini engellemelerini gerektiren yeni bir AB yasasına (Dijital Hizmetler Yasası) rağmen gerçekleşti.
OpenAI ise DALL-E 3 tarafından üretilen görüntüler için Coalition for Content Provenance and Authenticity’nin (C2PA) dijital kimlik bilgilerini uygulayacağını açıkladı. Meta ve Google tarafından da denenen kriptografik filigran teknolojisi, sahte görüntü üretmeyi zorlaştırmak için tasarlandı.
Ancak bunlar hala bebek adımlarıdır ve seçim ateşi tüm dünyayı sararken tehdide karşı teknolojik müdahalenin çok az ve çok geç olacağına dair haklı endişeler vardır. Özellikle de WhatsApp grupları ya da robocall’lar gibi nispeten kapalı ağlarda yayıldığında, sahte ses ya da videoları hızlı bir şekilde takip etmek ve çürütmek zor olacaktır.
“Demirleme önyargısı” teorisi, insanların ilk duydukları bilginin (yanlış olduğu ortaya çıksa bile) aklımızda kalan bilgi olduğunu öne sürer. Eğer deepfaker’lar kararsız seçmenlere ilk ulaşan olursa, nihai galibin kim olacağına dair tüm bahisler kapanır. Artık sosyal medya ve yapay zeka destekli dezenformasyon çağında, Jonathan Swift’in “yalan uçar, gerçek peşinden topallayarak gelir” sözü yepyeni bir anlam kazanıyor.