Yapay zekayla üretilmiş görseller ve sesler, günümüzde savaş alanlarından sosyal medyaya kadar pek çok alanda "yeni nesil silah" niteliği taşıyor. Yapay zeka tehdit tespit platformu Sensity AI’nin araştırmalarına göre, Rusya-Ukrayna Savaşı sırasında Ukraynalı siyasetçiler ve askerler deepfake videolarla sahte itiraf veya teslimiyet mesajlarıyla gösterildi.
Tayvan’da seçim dönemlerinde politikacılar sahte konuşmalar ve uydurma skandallarla hedef alınırken, Japonya’da yapay zekayla üretilen sahte doğal afet görüntüleri halkta panik yaratmak için kullanılıyor.
Sensity AI'nin kurucu ortağı Francesco Cavalli, yapay zekayla oluşturulan içeriklerin etkisinin arttığını belirterek, “Yapay zekayla üretilen görseller ve sesler artık insan gözüyle tanınması imkansız hale geldi” dedi. Cavalli, videolarda ışıklandırma tutarsızlığı veya yapay göz kırpma gibi küçük ipuçlarının takip edilmesi gerektiğini vurguluyor.
Taklit sesler dolandırıcılıkta risk oluşturuyor
Yapay zeka ile üretilen sesler, dolandırıcılıkta en yüksek risk oluşturan alanlardan biri olarak öne çıkıyor. ABD’de bir dolandırıcı, Dışişleri Bakanı Marco Rubio’yu taklit ederek mesajlaşma uygulamaları üzerinden çeşitli yetkililerle iletişim kurdu. Cavalli, “Seslerin tespitinin zor olması, telefonla yapılan dolandırıcılıkları kolaylaştırıyor” dedi.
Midjourney ve Runway gibi araçlar geliştikçe, gerçekle yapayı ayırt etmek giderek zorlaşıyor. Cavalli, “Üretici araçlar geliştikçe, eğitimli gözler bile kolayca kandırılabiliyor” diye konuştu.
Proaktif önlem ve işbirliği şart
Yapay zekayla üretilmiş içeriklerin kötüye kullanımını önlemek için teknoloji şirketleri ve platformların proaktif önlemler alması gerekiyor. Cavalli, içeriklerin etiketiyle sınırlı kalınmasının yeterli olmadığını, sosyal medya platformlarının denetimsiz deepfake ve dolandırıcılık içeriklerine karşı ağır yaptırımlar uygulaması gerektiğini vurguladı.
Sensity AI’nin geliştirdiği sistemler, yüz manipülasyonu tespiti, yapay görsellerin belirlenmesi, taklit ses analizi ve adli inceleme süreçlerini kapsayan dört aşamalı bir kontrol mekanizmasıyla çalışıyor. Bu analizler resmi soruşturmalarda ve mahkemelerde de kullanılabiliyor.
Cavalli, görsel medyaya olan güvenin giderek azaldığını belirterek, “İnsanlar yapay zekayla üretilen içeriklerin risklerini öğrenmeli, şirketler ve gazeteciler adli araçlarla donatılmalı. Görmek artık inanmak demek olmayacak” ifadelerini kullandı.




