Yapay Zeka Destekli Deepfake Tehditi Büyüyor

0
Deepfake tehditi

Yapay zeka destekli deepfake teknolojileri, insan gözünün ayırt edemeyeceği bir seviyeye ulaşmış durumda. Görsel, video ve ses üretiminde kullanılan gelişmiş yapay zeka modelleri sahte içeriklerle gerçeği neredeyse kusursuz biçimde iç içe geçirmeyi başarıyor. Bunun sonucunda da bireyler, kurumlar ve devletler için ciddi bir tehdit oluşabiliyor.

Üretken yapay zeka araçları ilk ortaya çıktığında, deepfake içerikleri tesppit etmek daha kolaydı. Bozuk yüz oranları, bulanık detaylar ve birçok ayırt edici özellik kolaylıkla fark edilebiliyordu. Ancak artık gelinen noktada bu kusurların büyük ölçüde ortadan kalktığını görüyoruz. Bu da deepfake teknolojilerini daha tehlikeli bir hale getiriyor.

Güvenlik uzmanlarına göre deepfake’ler, insan gözüyle ayırt edilemeyecek kritik bir eşiği aşmak üzere. Güvenlik uzmanı Perry Carpenter, bireylerin artık teknik detaylara değil içeriklerin yarattığı duygusal etkilere odaklanması gerektiğini ifade ediyor.

Uzmanlar Uyarıyor: Duygusal Tepkiler En Büyük Alarm Sinyali

Carpenter’e göre; korku, panik, aciliyet ya da otorite hissi uyandıran içerikler uyarı sinyali oluşturur. Bu tür duygular devreye girdiğinde, bireyler bilinçli davranarak içeriğin doğruluğunu sorgulamalıdır.

Araştırmalar, deepfake tehtidinin bireysel vakaların çok ötesine geçtiğini ortaya koyuyor. Kurumlara yönelik dolandırıcılık ve manipülasyon saldırıları da hızlı artıyor. Üstelik bu teknolojilere erişim artık oldukça kolay.

Google’dan Deepfake Tespitine Yeni Adım

Artan tehdit karşısında teknoloji şirketleri de önlemlerini hızlandırmış durumda. Google, 18 Aralık’ta SynthID adlı deepfake tespit aracını doğrudan Gemini uygulamasına entegre etti. Bu özellik sayesinde kullanıcılar, yükledikleri bir görselin ya da videonun Google’ın yapay zeka sistemleri tarafından üretilip üretilmediğini veya sonradan değiştirilip değiştirilmediğini doğrudan tespit edebiliyor.

Ancak uzmanlara göre bu tür adımlar, sektör genelinde artan şeffaflık baskısının yalnızca bir parçası olarak değerlendiriliyor. Deepfake teknolojilerinin gelişim hızı, önümüzdeki dönemde daha fazla teknik ve yapısal önlemi zorunlu hale getirecek.

Deepfake tehditi

2023’te kullanıma sunulan SynthID’nin bugüne kadar 20 milyardan fazla yapay zeka içeriğini görünmez filigranlarla işaretlemiş olması, Google’ın bu alandaki erken ve kapsamlı yaklaşımını gözler önüne seriyor. Ancak bu adım, sektör genelinde artan şeffaflık baskısının yalnızca bir parçası olarak öne çıkıyor.

Teknoloji Bakanı Liz Kendall, bu tür araçların istismar ve aşağılama aracı haline geldiğini vurgulayarak, teknolojinin bu şekilde silahlandırılmasına izin verilmeyeceğini belirtti. Uzmanlara göre, yakın gelecekte başka ülkelerde de benzer yasal adımların atılması kaçınılmaz görünüyor.


Yesilrobot.com e-bültenine kaydolarak, her hafta 15 bine yakın Yeşil Robot okurunun yaptığı gibi, tüm güncellemeleri E-posta kutunuzdan takip edebilirsiniz. Abonelik için tıklayınız