Ses ve manzaraları kullanarak yeni içerikler üretken yapay zeka (Generative AI) dolandırıcılık için de yeni bir çağı başlatmış üzere görünüyor.
Şüpheli görünen e-postaların yerini yakınlarınızın ses ve imajıyla sizi arayıp para isteyen yazılımlar alırken, istek dışında üretilen görüntülerden çıkar sağlama olaylarının sayısı gün geçtikçe artıyor.
İnsan ses ve imajını taklit eden deepfake dolandırıcılıklarına karşı araçlar geliştirilse de teknolojideki süratli ilerlemeler, “ebedi bir kedi-fare oyunu çağını” başlatmış olabilir.
DEEPFAKE NEDİR, NASIL KULLANILIYOR?
Deepfake kullanım alanları gün geçtikçe çeşitlenen ve gelişen bir teknoloji. Yapay zeka ile gerçeğe yakın manzara ya da seslerin üretilmesini sağlıyor.
Deepfake’in günümüzde ufuk açıcı güzel kullanımları geliştirilmeye devam ediyor.
Örneğin Amerika Birleşik Devletleri’ndeki (ABD) University of California San Francisco ve Berkeley’den araştırmacılar bu yaz 18 yıldır felçli olan bir hastanın, beyin implantı ve yapay zeka yardımıyla birinci defa “konuşmasını” sağlamıştı.
Ekip, hastanın 2005 yılındaki düğününde kaydedilen bir görüntüsünü kullanarak sesini tekrar sentezlemişti.
Umut veren çalışmaların karşısında deepfake, makus hedefli kullanımlar için de yeni bir periyodu başlatıyor üzere görünüyor.
Mayıs ayında Çin’in kuzeyinde gerçekleşen bir dolandırıcılık olayında Baotou kenti polisi, deepfake kullanan bir saldırganın, kurbanın arkadaşının kimliğine bürünerek düzmece görüntü görüşmesiyle 622 bin dolar fiyatında para transferi yapmasını sağladığını açıklamıştı.
Kurban, arkadaşının ihale sürecinde depozito yatırması gerektiğine inandığı için parayı transfer ettiğini söylemişti.
Deepfake’in finansal kabahatlerde kullanımı, taarruzların maksat kitlesinin yalnızca dijital okur müellif nüfus olmadığını göstermesi açısından kıymetli bulunuyor.
KİMLER GAYE OLABİLİR?
Bugün bir deepfake yazılımı indirip saatler içinde düzmece bir görüntü ya da ses üretmek mümkün.
İnternette görselleri ya da sesleri erişilebilir olan ünlüler, toplumsal medya fenomenleri ya da ürettiği içerikle para kazananlar deepfake ataklarının birinci akla gelen maksadı olabiliyor.
Ancak berbat niyetli kullanımlar bundan çok daha geniş bir kitleyi ilgilendiriyor ve herkesi eşit etkilemiyor.
Örneğin istek dışı özel imgelerin üretimi açısından bayanlar daha büyük risk altında görünüyor.
BBC Türkçe‘nin sorularını yanıtlayan Oxford Üniversitesi İnternet Enstitüsü’nde yapay zeka etiği ve kanunları alanında uzman Prof. Sandra Wachter, deepfake’in makûs niyetli kullanımının toplumsal cinsiyet boyutuna dikkat çekiyor:
“Teknoloji birçok vakit bayanlarla ilgili istek dışı mahrem imajları dağıtmak ve prestijlerini zedeleyecek karalama kampanyaları için berbata kullanılıyor.”
Saldırılar küçük çocukları ve okul çağındaki kız çocuklarını da etkiliyor.
Bu hafta başında ABD’nin doğu ve batı yakısındaki iki farklı okulda kız çocuklarının deepfake ile çıplak manzaralarının üretilip sirkülasyona sokulmasından mağdur olan aileler, yapay zekanın ziyanları karşısında daha sıkı yasal tedbirler istediklerini söylüyor.
Sahte manzaralarla birlikte geçersiz ses üretimindeki gelişmeler de yeni güvenlik açıklarıyla ilgili soru işaretleri doğuruyor.
BBC Türkçe‘nin sorularını yanıtlayan Almanya’daki Münih Ludwig Maximilian Üniversitesi’nde Bilgisayar Görüşü ve Tahsili Kümesinin başındaki Prof. Björn Ommer, düzmece sesin, “alıcıya yepyeniliği doğrulamak için nispeten sonlu seçenek bıraktığı için bilhassa problemli bir saldırı” tipi oluşturabileceğini söylüyor.
Deepfake ile üretilen uydurma sesler bugün sesli kimlik doğrulama sistemleri kullanan şirketleri de tehdit ediyor.
İngiltere’deki Waterloo Üniversitesi’nden araştırmacılar deepfake ile ürettikleri sesi kullanarak sesli kimlik doğrulama sistemlerini aldatma teşebbüslerinde yalnızca altı denemede yüzde 99 oranında muvaffakiyet elde ettiklerini açıklamışlardı.
Araştırmacılar kimlik doğrulamak için yalnızca müşterilerinin sesini kullanan şirketlerin daha güçlü tedbirler almaları gerektiği konusunda ihtarda bulunmuştu.
Buna ek olarak nüfusun ileri yaşlı kısmı, deepfake ile yakınlarının sesini üreterek onlardan para isteyen ataklara karşı daha büyük risk altında olabiliyor.
Prof. Ommer, “Burada gayeler yüksek tanınırlığa sahip bireyler değil, en az medya/dijital okur yazarlığına sahip olanlar” diyor.
Prof. Ommer bunu, ses sentezindeki son gelişmelerin, modellerin saatlerce ses kaydının kullanılması yerine yalnızca birkaç örnekle eğitilmesine odaklandığını belirterek açıklıyor.
Deepfake toplumsal medyada süratle yayılan dezenformasyon kampanyalarının da bir kesimi olabiliyor ve bu sayede çabucak hemen tüm internet kullanıcılarını etkiliyor.
Oxford Üniversitesi’nden Prof. Sandra Wachter, “Ve sorun şu ki, herkes bundan etkileniyor” diyor ve ekliyor:
“Politikacılar ve devlet liderleri, dezenformasyona yol açabilecek ve seçim süreçlerini etkileme mümkünlüğü olan potansiyel maksatlar.
“Teknoloji, savaşlarla ilgili uydurma haberlerin ve komplo teorilerinin yayılması için kullanılıyor, bu da barışı ve demokrasiyi etkiliyor.
“Kesinlikle bir doğruluk krizinin içindeyiz. Gerçek, kurgu ve sahteyi birbirinden ayırmak zorunda olmamız yeni bir şey olmasa da gözlerimizi ve kulaklarımızı bu kadar ikna edici bir formda kandıran bir teknolojiye daha evvel hiç sahip olmadık.”
DEEPFAKE DOLANDIRICILIĞINDAN KORUNMAK MÜMKÜN MÜ?
İnternet kullanıcılarını düzmece ses ve manzara üretilmesine karşı koruduğunu ya da düzmece görüntüleri tespit ettiğini tez eden çevrimiçi araçlar var.
Ancak bu araçların çoğunluğunun kullanıcı dostu olduğunu yahut yaygınlaştığını söylemek güç.
Buna ek olarak uzmanlara nazaran bugün en kıymetli zorluklardan biri yapay zekanın gelişim suratı.
Sahte ses üreten deepfake yazılımlara karşı kollayıcı bir yazılım geliştiren St Louis’teki Washington Üniversitesi’nden Bilgisayar Bilimi ve Mühendisliği alanında çalışan Yrd. Doç. Dr. Ning Zhang, BBC Türkçe‘ye, “mükemmel güvenlikte bir sistem yok” diyor.
“Sesi büsbütün farklı bir teoriyle sentezleyecek yeni teknolojiler karşısında müdafaa uygulamasının kesinlikle bunlara nazaran uyarlanması gerekir” diye ekliyor.
Aynı senaryo geçersiz görsel üreten yapay zeka yazılımları için de geçerli ve uydurma içerikler gitgide daha ikna edici hale geliyor.
Oxford Üniversitesi’nden Prof. Wachter, “Bazılarının geçersiz içerik oluşturacağı, kimilerinin ise kelam konusu içeriği tespit edip işaretleyecek teknolojiler yaratacağı ebedi bir kedi fare oyunu çağına girdiğimizi düşünüyorum” diyor.
Prof. Wachter “sahte içerikleri tespit edebilen yüzde 100 sağlam bir sisteme sahip olmamızın hiçbir vakit mümkün olmayacağını” düşündüğünü söylüyor ve ekliyor:
“Ancak bu bizi yıldırmamalı. Ne vakit birisi bir duvar örse, diğeri da onun üzerinden atlamak isteyecektir.
“Yapabileceğimiz tek şey (sahte içerikleri) tespit yazılımına yatırım yapmak, tetikte olmak ve eleştirel kalmak.”
Eleştirel ve sorgulayıcı olmak, internette gördüğümüz uydurma içeriklerin yayılmasının yanında, yakınının sesinden kuşkulu bir telefon alan bir kişinin bu çağrıyı doğrulamasını ve tahminen hayatı boyunca biriktirdiği paranın yanlış ellere geçmesini de önleyebilir.
Bireysel çabalarınsa düzmece içeriklerin mümkün zararlarına karşı insanları koruyan yasal düzenlemelerle desteklenmesi gerekiyor.
Prof. Wachter, “İleriye yönelik olarak, yapay zeka içeriklerine ‘filigranlan eklenmesini’ ve bu işaretlerin kaldırılmasına para cezası verilmesini yasal olarak mecburî kılmak da kıymetli olacaktır” diyor.
Avrupa Birliği’nden ABD’ye ve OpenAI, Google üzere teknoloji şirketlerine farklı kısımlar yapay zeka içeriklerinin filigranlarla işaretleneceğini bu yıl taahhüt etmişti.
İngiltere’de Lordlar Kamarası’nda incelenen Çevrimiçi Güvenlik Yasası, istek dışı deepfake porno imajlarının paylaşımını yasa dışı hale getiriyor.
Yine de yasal düzenlemelerin yapay zekanın gelişim suratını yakalayıp yakalayamacağı belirsizliğini koruyor.